921 resultados para project financing, opere di interesse pubblico , settore della sanita


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This volume is a collection of the work done in a three years-lasting PhD, focused in the analysis of Central and Southern Adriatic marine sediments, deriving from the collection of a borehole and many cores, achieved thanks to the good seismic-stratigraphic knowledge of the study area. The work was made out within European projects EC-EURODELTA (coordinated by Fabio Trincardi, ISMAR-CNR), EC-EUROSTRATAFORM (coordinated by Phil P. E. Weaver, NOC, UK), and PROMESS1 (coordinated by Serge Bernè, IFREMER, France). The analysed sedimentary successions presented highly expanded stratigraphic intervals, particularly for the last 400 kyr, 60 kyr and 6 kyr BP. These three different time-intervals resulted in a tri-partition of the PhD thesis. The study consisted of the analysis of planktic and benthic foraminifers’ assemblages (more than 560 samples analysed), as well as in preparing the material for oxygen and carbon stable isotope analyses, and interpreting and discussing the obtained dataset. The chronologic framework of the last 400 kyr was achieved for borehole PRAD1-2 (within the work-package WP6 of PROMESS1 project), collected in 186.5 m water depth. The proposed chronology derives from a multi-disciplinary approach, consisting of the integration of numerous and independent proxies, some of which analysed by other specialists within the project. The final framework based on: micropaleontology (calcareous nannofossils and foraminifers’ bioevents), climatic cyclicity (foraminifers’ assemblages), geochemistry (oxygen stable isotope, made out on planktic and benthic records), paleomagnetism, radiometric ages (14C AMS), teprhochronology, identification of sapropel-equivalent levels (Se). It’s worth to note the good consistency between the oxygen stable isotope curve obtained for borehole PRAD1-2 and other deeper Mediterranean records. The studied proxies allowed the recognition of all the isotopic intervals from MIS10 to MIS1 in PRAD1-2 record, and the base of the borehole has been ascribed to the early MIS11. Glacial and interglacial intervals identified in the Central Adriatic record have been analysed in detail for the paleo-environmental reconstruction, as well. For instance, glacial stages MIS6, MIS8 and MIS10 present peculiar foraminifers’ assemblages, composed by benthic species typical of polar regions and no longer living in the Central Adriatic nowadays. Moreover, a deepening trend in the paleo-bathymetry during glacial intervals was observed, from MIS10 (inner-shelf environment) to MIS4 (mid-shelf environment).Ten sapropel-equivalent levels have been recognised in PRAD1-2 Central Adriatic record. They showed different planktic foraminifers’ assemblages, which allowed the first distinction of events occurred during warm-climate (Se5, Se7), cold-climate (Se4, Se6 and Se8) and temperate-intermediate-climate (Se1, Se3, Se9, Se’, Se10) conditions, consistently with literature. Cold-climate sapropel equivalents are characterised by the absence of an oligotrophic phase, whereas warm-temeprate-climate sapropel equivalents present both the oligotrophic and the eutrophic phases (except for Se1). Sea floor conditions vary, according to benthic foraminifers’ assemblages, from relatively well oxygenated (Se1, Se3), to dysoxic (Se9, Se’, Se10), to highly dysoxic (Se4, Se6, Se8) to events during which benthic foraminifers are absent (Se5, Se7). These two latter levels are also characterised by the lamination of the sediment, feature never observed in literature in such shallow records. The enhanced stratification of the water column during the events Se8, Se7, Se6, Se5, Se4, and the concurring strong dilution of shallow water, pointed out by the isotope record, lead to the hypothesis of a period of intense precipitation in the Central Adriatic region, possibly due to a northward shift of the African Monsoon. Finally, the expression of Central Adriatic PRAD1-2 Se5 equivalent was compared with the same event, as registered in other Eastern Mediterranean areas. The sequence of substantially the same planktic foraminifers’ bioevents has been consistently recognised, indicating a similar evolution of the water column all over the Eastern Mediterranean; yet, the synchronism of these events cannot be demonstrated. A high resolution analysis of late Holocene (last 6000 years BP) climate change was carried out for the Adriatic area, through the recognition of planktic and benthic foraminifers’ bioevents. In particular, peaks of planktic Globigerinoides sacculifer (four during the last 5500 years BP in the most expanded core) have been interpreted, based on the ecological requirements of this species, as warm-climate, arid intervals, correspondent to periods of relative climatic optimum, such as, for instance, the Medieval Warm Period, the Roman Age, the Late Bronze Age and the Copper Age. Consequently, the minima in the abundance of this biomarker could correspond to relatively cooler and more rainy periods. These conclusions are in good agreement with the isotopic and the pollen data. The Last Occurrence (LO) of G. sacculifer has been dated in this work at an average age of 550 years BP, and it is the best bioevent approximating the base of the Little Ice Age in the Adriatic. Recent literature reports the same bioevent in the Levantine Basin, showing a rather consistent age. Therefore, the LO of G. sacculifer has the potential to be extended to all the Eastern Mediterranean. Within the Little Ice Age, benthic foraminifer V. complanata shows two distinct peaks in the shallower Adriatic cores analysed, collected hundred kilometres apart, inside the mud belt environment. Based on the ecological requirements of this species, these two peaks have been interpreted as the more intense (cold and rainy) oscillations inside the LIA. The chronologic framework of the analysed cores is robust, being based on several range-finding 14C AMS ages, on estimates of the secular variation of the magnetic field, on geochemical estimates of the activity depth of 210Pb short-lived radionuclide (for the core-top ages), and is in good agreement with tephrochronologic, pollen and foraminiferal data. The intra-holocenic climate oscillations find out in the Adriatic have been compared with those pointed out in literature from other records of the Northern Hemisphere, and the chronologic constraint seems quite good. Finally, the sedimentary successions analysed allowed the review and the update of the foraminifers’ ecobiostratigraphy available from literature for the Adriatic region, thanks to the achievement of 16 ecobiozones for the last 60 kyr BP. Some bioevents are restricted to the Central Adriatic (for instance the LO of benthic Hyalinea balthica , approximating the MIS3/MIS2 boundary), others occur all over the Adriatic basin (for instance the LO of planktic Globorotalia inflata during MIS3, individuating Dansgaard-Oeschger cycle 8 (Denekamp)).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione L’importanza clinica, sociale ed economica del trattamento dell’ipertensione arteriosa richiede la messa in opera di strumenti di monitoraggio dell’uso dei farmaci antiipertensivi che consentano di verificare la trasferibilità alla pratica clinica dei dati ottenuti nelle sperimentazioni. L’attuazione di una adatta strategia terapeutica non è un fenomeno semplice da realizzare perché le condizioni in cui opera il Medico di Medicina Generale sono profondamente differenti da quelle che si predispongono nell’esecuzione degli studi randomizzati e controllati. Emerge, pertanto, la necessità di conoscere le modalità con cui le evidenze scientifiche trovano reale applicazione nella pratica clinica routinaria, identificando quei fattori di disturbo che, nei contesti reali, limitano l’efficacia e l’appropriatezza clinica. Nell’ambito della terapia farmacologica antiipertensiva, uno di questi fattori di disturbo è costituito dalla ridotta aderenza al trattamento. Su questo tema, recenti studi osservazionali hanno individuato le caratteristiche del paziente associate a bassi livelli di compliance; altri hanno focalizzato l’attenzione sulle caratteristiche del medico e sulla sua capacità di comunicare ai propri assistiti l’importanza del trattamento farmacologico. Dalle attuali evidenze scientifiche, tuttavia, non emerge con chiarezza il peso relativo dei due diversi attori, paziente e medico, nel determinare i livelli di compliance nel trattamento delle patologie croniche. Obiettivi Gli obiettivi principali di questo lavoro sono: 1) valutare quanta parte della variabilità totale è attribuibile al livello-paziente e quanta parte della variabilità è attribuibile al livello-medico; 2) spiegare la variabilità totale in funzione delle caratteristiche del paziente e in funzione delle caratteristiche del medico. Materiale e metodi Un gruppo di Medici di Medicina Generale che dipendono dall’Azienda Unità Sanitaria Locale di Ravenna si è volontariamente proposto di partecipare allo studio. Sono stati arruolati tutti i pazienti che presentavano almeno una misurazione di pressione arteriosa nel periodo compreso fra il 01/01/1997 e il 31/12/2002. A partire dalla prima prescrizione di farmaci antiipertensivi successiva o coincidente alla data di arruolamento, gli assistiti sono stati osservati per 365 giorni al fine di misurare la persistenza in trattamento. La durata del trattamento antiipertensivo è stata calcolata come segue: giorni intercorsi tra la prima e l’ultima prescrizione + proiezione, stimata sulla base delle Dosi Definite Giornaliere, dell’ultima prescrizione. Sono stati definiti persistenti i soggetti che presentavano una durata del trattamento maggiore di 273 giorni. Analisi statistica I dati utilizzati per questo lavoro presentano una struttura gerarchica nella quale i pazienti risultano “annidati” all’interno dei propri Medici di Medicina Generale. In questo contesto, le osservazioni individuali non sono del tutto indipendenti poiché i pazienti iscritti allo stesso Medico di Medicina Generale tenderanno ad essere tra loro simili a causa della “storia comune” che condividono. I test statistici tradizionali sono fortemente basati sull’assunto di indipendenza tra le osservazioni. Se questa ipotesi risulta violata, le stime degli errori standard prodotte dai test statistici convenzionali sono troppo piccole e, di conseguenza, i risultati che si ottengono appaiono “impropriamente” significativi. Al fine di gestire la non indipendenza delle osservazioni, valutare simultaneamente variabili che “provengono” da diversi livelli della gerarchia e al fine di stimare le componenti della varianza per i due livelli del sistema, la persistenza in trattamento antiipertensivo è stata analizzata attraverso modelli lineari generalizzati multilivello e attraverso modelli per l’analisi della sopravvivenza con effetti casuali (shared frailties model). Discussione dei risultati I risultati di questo studio mostrano che il 19% dei trattati con antiipertensivi ha interrotto la terapia farmacologica durante i 365 giorni di follow-up. Nei nuovi trattati, la percentuale di interruzione terapeutica ammontava al 28%. Le caratteristiche-paziente individuate dall’analisi multilivello indicano come la probabilità di interrompere il trattamento sia più elevata nei soggetti che presentano una situazione clinica generale migliore (giovane età, assenza di trattamenti concomitanti, bassi livelli di pressione arteriosa diastolica). Questi soggetti, oltre a non essere abituati ad assumere altre terapie croniche, percepiscono in minor misura i potenziali benefici del trattamento antiipertensivo e tenderanno a interrompere la terapia farmacologica alla comparsa dei primi effetti collaterali. Il modello ha inoltre evidenziato come i nuovi trattati presentino una più elevata probabilità di interruzione terapeutica, verosimilmente spiegata dalla difficoltà di abituarsi all’assunzione cronica del farmaco in una fase di assestamento della terapia in cui i principi attivi di prima scelta potrebbero non adattarsi pienamente, in termini di tollerabilità, alle caratteristiche del paziente. Anche la classe di farmaco di prima scelta riveste un ruolo essenziale nella determinazione dei livelli di compliance. Il fenomeno è probabilmente legato ai diversi profili di tollerabilità delle numerose alternative terapeutiche. L’appropriato riconoscimento dei predittori-paziente di discontinuità (risk profiling) e la loro valutazione globale nella pratica clinica quotidiana potrebbe contribuire a migliorare il rapporto medico-paziente e incrementare i livelli di compliance al trattamento. L’analisi delle componenti della varianza ha evidenziato come il 18% della variabilità nella persistenza in trattamento antiipertensivo sia attribuibile al livello Medico di Medicina Generale. Controllando per le differenze demografiche e cliniche tra gli assistiti dei diversi medici, la quota di variabilità attribuibile al livello medico risultava pari al 13%. La capacità empatica dei prescrittori nel comunicare ai propri pazienti l’importanza della terapia farmacologica riveste un ruolo importante nel determinare i livelli di compliance al trattamento. La crescente presenza, nella formazione dei medici, di corsi di carattere psicologico finalizzati a migliorare il rapporto medico-paziente potrebbe, inoltre, spiegare la relazione inversa, particolarmente evidente nella sottoanalisi effettuata sui nuovi trattati, tra età del medico e persistenza in trattamento. La proporzione non trascurabile di variabilità spiegata dalla struttura in gruppi degli assistiti evidenzia l’opportunità e la necessità di investire nella formazione dei Medici di Medicina Generale con l’obiettivo di sensibilizzare ed “educare” i medici alla motivazione ma anche al monitoraggio dei soggetti trattati, alla sistematica valutazione in pratica clinica dei predittori-paziente di discontinuità e a un appropriato utilizzo della classe di farmaco di prima scelta. Limiti dello studio Uno dei possibili limiti di questo studio risiede nella ridotta rappresentatività del campione di medici (la partecipazione al progetto era su base volontaria) e di pazienti (la presenza di almeno una misurazione di pressione arteriosa, dettata dai criteri di arruolamento, potrebbe aver distorto il campione analizzato, selezionando i pazienti che si recano dal proprio medico con maggior frequenza). Questo potrebbe spiegare la minore incidenza di interruzioni terapeutiche rispetto a studi condotti, nella stessa area geografica, mediante database amministrativi di popolazione. Conclusioni L’analisi dei dati contenuti nei database della medicina generale ha consentito di valutare l’impiego dei farmaci antiipertensivi nella pratica clinica e di stabilire la necessità di porre una maggiore attenzione nella pianificazione e nell’ottenimento dell’obiettivo che il trattamento si prefigge. Alla luce dei risultati emersi da questa valutazione, sarebbe di grande utilità la conduzione di ulteriori studi osservazionali volti a sostenere il progressivo miglioramento della gestione e del trattamento dei pazienti a rischio cardiovascolare nell’ambito della medicina generale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli istoni sono proteine basiche che possono essere classificate in varie classi: H1, H2A, H2B, H3 e H4. Queste proteine formano l’ottamero proteico attorno al quale si avvolge il DNA per formare il nucleosoma che è l’unità fondamentale della cromatina. A livello delle code N-terminali, gli istoni possono essere soggetti a numerose modifiche posttraduzionali quali acetilazioni, metilazioni, fosforilazioni, ADP-ribosilazioni e ubiquitinazioni. Queste modifiche portano alla formazione di diversi siti di riconoscimento per diversi complessi enzimatici coinvolti in importanti processi come la riparazione e la replicazione del DNA e l’assemblaggio della cromatina. La più importante e la più studiata di queste modifiche è l’acetilazione che avviene a livello dei residui amminici della catena laterale dell’amminoacido lisina. I livelli corretti di acetilazione delle proteine istoniche sono mantenuti dall’attività combinata di due enzimi: istone acetil transferasi (HAT) e istone deacetilasi (HDAC). Gli enzimi appartenenti a questa famiglia possono essere suddivisi in varie classi a seconda delle loro diverse caratteristiche, quali la localizzazione cellulare, la dimensione, l’omologia strutturale e il meccanismo d’azione. Recentemente è stato osservato che livelli aberranti di HDAC sono coinvolti nella carcinogenesi; per questo motivo numerosi gruppi di ricerca sono interessati alla progettazione e alla sintesi di composti che siano in grado di inibire questa classe enzimatica. L’inibizione delle HDAC può infatti provocare arresto della crescita cellulare, apoptosi o morte cellulare. Per questo motivo la ricerca farmaceutica in campo antitumorale è mirata alla sintesi di inibitori selettivi verso le diverse classi di HDAC per sviluppare farmaci meno tossici e per cercare di comprendere con maggiore chiarezza il ruolo biologico di questi enzimi. Il potenziale antitumorale degli inibitori delle HDAC deriva infatti dalla loro capacità di interferire con diversi processi cellulari, generalmente non più controllati nelle cellule neoplastiche. Nella maggior parte dei casi l’attività antitumorale risiede nella capacità di attivare programmi di differenziamento, di inibire la progressione del ciclo cellulare e di indurre apoptosi. Inoltre sembra essere molto importante anche la capacità di attivare la risposta immunitaria e l’inibizione dell’angiogenesi. Gli inibitori delle HDAC possono essere a loro volta classificati in base alla struttura chimica, alla loro origine (naturale o sintetica), e alla loro capacità di inibire selettivamente le HDAC appartenenti a classi diverse. Non è ancora chiaro se la selettività di queste molecole verso una specifica classe di HDAC sia importante per ottenere un effetto antitumorale, ma sicuramente inibitori selettivi possono essere molto utili per investigare e chiarire il ruolo delle HDAC nei processi cellulari che portano all’insorgenza del tumore. Nel primo capitolo di questa tesi quindi è riportata un’introduzione sull’importanza delle proteine istoniche non solo da un punto di vista strutturale ma anche funzionale per il destino cellulare. Nel secondo capitolo è riportato lo stato dell’arte dell’analisi delle proteine istoniche che comprende sia i metodi tradizionali come il microsequenziamento e l’utilizzo di anticorpi, sia metodi più innovativi (RP-LC, HILIC, HPCE) ideati per poter essere accoppiati ad analisi mediante spettrometria di massa. Questa tecnica consente infatti di ottenere importanti e precise informazioni che possono aiutare sia a identificare gli istoni come proteine che a individuare i siti coinvolti nelle modifiche post-traduzionali. Nel capitolo 3 è riportata la prima parte del lavoro sperimentale di questa tesi volto alla caratterizzazione delle proteine istoniche mediante tecniche cromatografiche accoppiate alla spettrometria di massa. Nella prima fase del lavoro è stato messo a punto un nuovo metodo cromatografico HPLC che ha consentito di ottenere una buona separazione, alla linea di base, delle otto classi istoniche (H1-1, H1-2, H2A-1, H2A-2, H2B, H3-1, H3-2 e H4). La separazione HPLC delle proteine istoniche ha permesso di poter eseguire analisi accurate di spettrometria di massa mediante accoppiamento con un analizzatore a trappola ionica tramite la sorgente electrospray (ESI). E’ stato così possibile identificare e quantificare tutte le isoforme istoniche, che differiscono per il tipo e il numero di modifiche post-traduzionali alle quali sono soggette, previa estrazione da colture cellulari di HT29 (cancro del colon). Un’analisi così dettagliata delle isoforme non può essere ottenuta con i metodi immunologici e permette di eseguire un’indagine molto accurata delle modifiche delle proteine istoniche correlandole ai diversi stadi della progressione del ciclo e alla morte cellulare. Il metodo messo a punto è stato convalidato mediante analisi comparative che prevedono la stessa separazione cromatografica ma accoppiata a uno spettrometro di massa avente sorgente ESI e analizzatore Q-TOF, dotato di maggiore sensibilità e risoluzione. Successivamente, per identificare quali sono gli specifici amminoacidi coinvolti nelle diverse modifiche post-traduzionali, l’istone H4 è stato sottoposto a digestione enzimatica e successiva analisi mediante tecniche MALDI-TOF e LC-ESI-MSMS. Queste analisi hanno permesso di identificare le specifiche lisine acetilate della coda N-terminale e la sequenza temporale di acetilazione delle lisine stesse. Nel quarto capitolo sono invece riportati gli studi di inibizione, mirati a caratterizzare le modifiche a carico delle proteine istoniche indotte da inibitori delle HDAC, dotati di diverso profilo di potenza e selettività. Dapprima Il metodo messo a punto per l’analisi delle proteine istoniche è stato applicato all’analisi di istoni estratti da cellule HT29 trattate con due noti inibitori delle HDAC, valproato e butirrato, somministrati alle cellule a dosi diverse, che corrispondono alle dosi con cui sono stati testati in vivo, per convalidare il metodo per studi di inibizione di composti incogniti. Successivamente, lo studio è proseguito con lo scopo di evidenziare effetti legati alla diversa potenza e selettività degli inibitori. Le cellule sono state trattate con due inibitori più potenti, SAHA e MS275, alla stessa concentrazione. In entrambi i casi il metodo messo a punto ha permesso di evidenziare l’aumento dei livelli di acetilazione indotto dal trattamento con gli inibitori; ha inoltre messo in luce differenti livelli di acetilazione. Ad esempio il SAHA, potente inibitore di tutte le classi di HDAC, ha prodotto un’estesa iperacetilazione di tutte le proteine istoniche, mentre MS275 selettivo per la classe I di HDAC, ha prodotto modifiche molto più blande. E’ stato quindi deciso di applicare questo metodo per studiare la dose e la tempo-dipendenza dell’effetto di quattro diversi inibitori delle HDAC (SAHA, MS275, MC1855 e MC1568) sulle modifiche post-traduzionali di istoni estratti da cellule HT29. Questi inibitori differiscono oltre che per la struttura chimica anche per il profilo di selettività nei confronti delle HDAC appartenenti alle diverse classi. Sono stati condotti quindi studi di dose-dipendenza che hanno consentito di ottenere i valori di IC50 (concentrazione capace di ridurre della metà la quantità relativa dell’istone meno acetilato) caratteristici per ogni inibitore nei confronti di tutte le classi istoniche. E’ stata inoltre calcolata la percentuale massima di inibizione per ogni inibitore. Infine sono stati eseguiti studi di tempo-dipendenza. I risultati ottenuti da questi studi hanno permesso di correlare i livelli di acetilazione delle varie classi istoniche con la selettività d’azione e la struttura chimica degli inibitori somministrati alle cellule. In particolare, SAHA e MC1855, inibitori delle HDAC di classi I e II a struttura idrossamica, hanno causato l’iperacetilazione di tutte le proteine istoniche, mentre MC1568 (inibitore selettivo per HDAC di classe II) ha prodotto l’iperacetilazione solo di H4. Inoltre la potenza e la selettività degli inibitori nel provocare un aumento dei livelli di acetilazione a livello delle distinte classi istoniche è stata correlata al destino biologico della cellula, tramite studi di vitalità cellulare. E’ stato osservato che il SAHA e MC1855, inibitori potenti e non selettivi, somministrati alla coltura HT29 a dose 50 μM producono morte cellulare, mentre MS275 alla stessa dose produce accumulo citostatico in G1/G0. MC1568, invece, non produce effetti significatici sul ciclo cellulare. Questo studio ha perciò dimostrato che l’analisi tramite HPLC-ESI-MS delle proteine istoniche permette di caratterizzare finemente la potenza e la selettività di nuovi composti inibitori delle HDAC, prevedendone l’effetto sul ciclo cellulare. In maggiore dettaglio è risultato che l’iperacetilazione di H4 non è in grado di provocare modifiche significative sul ciclo cellulare. Questo metodo, insieme alle analisi MALDI-TOF e LC-ESI-MSMS che permettono di individuare l’ordine di acetilazione delle lisine della coda N-terminale, potrà fornire importanti informazioni sugli inibitori delle HDAC e potrà essere applicato per delineare la potenza, la selettività e il meccanismo di azione di nuovi potenziali inibitori di questa classe enzimatica in colture cellulari tumorali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il traffico veicolare è la principale fonte antropogenica di NOx, idrocarburi (HC) e CO e, dato che la sostituzione dei motori a combustione interna con sistemi alternativi appare ancora lontana nel tempo, lo sviluppo di sistemi in grado di limitare al massimo le emissioni di questi mezzi di trasporto riveste un’importanza fondamentale. Sfortunatamente non esiste un rapporto ottimale aria/combustibile che permetta di avere basse emissioni, mentre la massima potenza ottenibile dal motore corrisponde alle condizioni di elevata formazione di CO e HC. Gli attuali sistemi di abbattimento permettono il controllo delle emissioni da sorgenti mobili tramite una centralina che collega il sistema di iniezione del motore e la concentrazione di ossigeno del sistema catalitico (posto nella marmitta) in modo da controllare il rapporto aria/combustibile (Fig. 1). Le marmitte catalitiche per motori a benzina utilizzano catalizzatori “three way” a base di Pt/Rh supportati su ossidi (allumina, zirconia e ceria), che, dovendo operare con un rapporto quasi stechiometrico combustibile/comburente, comportano una minore efficienza del motore e consumi maggiori del 20-30% rispetto alla combustione in eccesso di ossigeno. Inoltre, questa tecnologia non può essere utilizzata nei motori diesel, che lavorano in eccesso di ossigeno ed utilizzano carburanti con un tenore di zolfo relativamente elevato. In questi ultimi anni è cresciuto l’interesse per il controllo delle emissioni di NOx da fonti veicolari, con particolare attenzione alla riduzione catalitica in presenza di un eccesso di ossigeno, cioè in condizioni di combustione magra. Uno sviluppo recente è rappresentato dai catalizzatori tipo “Toyota” che sono basati sul concetto di accumulo e riduzione (storage/reduction), nei quali l’NO viene ossidato ed accumulato sul catalizzatore come nitrato in condizioni di eccesso di ossigeno. Modificando poi per brevi periodi di tempo le condizioni di alimentazione da ossidanti (aria/combustibile > 14,7 p/p) a riducenti (aria/combustibile < 14,7 p/p) il nitrato immagazzinato viene ridotto a N2 e H2O. Questi catalizzatori sono però molto sensibili alla presenza di zolfo e non possono essere utilizzati con i carburanti diesel attualmente in commercio. Obiettivo di questo lavoro di tesi è stato quello di ottimizzare e migliorare la comprensione del meccanismo di reazione dei catalizzatori “storage-reduction” per l’abbattimento degli NOx nelle emissioni di autoveicoli in presenza di un eccesso di ossigeno. In particolare lo studio è stato focalizzato dapprima sulle proprietà del Pt, fase attiva nei processi di storage-reduction, in funzione del tipo di precursore e sulle proprietà e composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). Lo studio è stato inizialmente focalizzato sulle proprietà dei precursori del Pt, fase attiva nei processi di storage-reduction, sulla composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). E’ stata effettuata una dettagliata caratterizzazione chimico-fisica dei materiali preparati tramite analisi a raggi X (XRD), area superficiale, porosimetria, analisi di dispersione metallica, analisi in riduzione e/o ossidazione in programmata di temperatura (TPR-O), che ha permesso una migliore comprensione delle proprietà dei catalizzatori. Vista la complessità delle miscele gassose reali, sono state utilizzate, nelle prove catalitiche di laboratorio, alcune miscele più semplici, che tuttavia potessero rappresentare in maniera significativa le condizioni reali di esercizio. Il comportamento dei catalizzatori è stato studiato utilizzando differenti miscele sintetiche, con composizioni che permettessero di comprendere meglio il meccanismo. L’intervallo di temperatura in cui si è operato è compreso tra 200-450°C. Al fine di migliorare i catalizzatori, per aumentarne la resistenza alla disattivazione da zolfo, sono state effettuate prove alimentando in continuo SO2 per verificare la resistenza alla disattivazione in funzione della composizione del catalizzatore. I principali risultati conseguiti possono essere così riassunti: A. Caratteristiche Fisiche. Dall’analisi XRD si osserva che l’impregnazione con Pt(NH3)2(NO2)2 o con la sospensione nanoparticellare in DEG, non modifica le proprietà chimico-fisiche del supporto, con l’eccezione del campione con sospensione nanoparticellare impregnata su ossido misto per il quale si è osservata sia la segregazione del Pt, sia la presenza di composti carboniosi sulla superficie. Viceversa l’impregnazione con Ba porta ad una significativa diminuzione dell’area superficiale e della porosità. B. Caratteristiche Chimiche. L’analisi di dispersione metallica, tramite il chemiassorbimento di H2, mostra per i catalizzatori impregnati con Pt nanoparticellare, una bassa dispersione metallica e di conseguenza elevate dimensioni delle particelle di Pt. I campioni impregnati con Pt(NH3)2(NO2)2 presentano una migliore dispersione. Infine dalle analisi TPR-O si è osservato che: Maggiore è la dispersione del metallo nobile maggiore è la sua interazione con il supporto, L’aumento della temperatura di riduzione del PtOx è proporzionale alla quantità dei metalli alcalino terrosi, C. Precursore Metallo Nobile. Nelle prove di attività catalitica, con cicli ossidanti e riducenti continui in presenza ed in assenza di CO2, i catalizzatori con Pt nanoparticellare mostrano una minore attività catalitica, specie in presenza di un competitore come la CO2. Al contrario i catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 presentano un’ottima attività catalitica, stabile nel tempo, e sono meno influenzabili dalla presenza di CO2. D. Resistenza all’avvelenamento da SO2. Il catalizzatore di riferimento, 17Ba1Pt/γAl2O3, mostra un effetto di avvelenamento con formazione di solfati più stabili che sul sistema Ba-Mg; difatti il campione non recupera i valori iniziali di attività se non dopo molti cicli di rigenerazione e temperature superiori ai 300°C. Per questi catalizzatori l’avvelenamento da SO2 sembra essere di tipo reversibile, anche se a temperature e condizioni più favorevoli per il 1.5Mg8.5Ba-1Pt/γAl2O3. E. Capacità di Accumulo e Rigenerabilità. Tramite questo tipo di prova è stato possibile ipotizzare e verificare il meccanismo della riduzione. I catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 hanno mostrato un’elevata capacità di accumulo. Questa è maggiore per il campione bimetallico (Ba-Mg) a T < 300°C, mentre per il riferimento è maggiore per T > 300°C. Per ambedue i catalizzatori è evidente la formazione di ammoniaca, che potrebbe essere utilizzata come un indice che la riduzione dei nitrati accumulati è arrivata al termine e che il tempo ottimale per la riduzione è stato raggiunto o superato. Per evitare la formazione di NH3, sul catalizzatore di riferimento, è stata variata la concentrazione del riducente e la temperatura in modo da permettere alle specie adsorbite sulla superficie e nel bulk di poter raggiungere il Pt prima che l’ambiente diventi troppo riducente e quindi meno selettivo. La presenza di CO2 riduce fortemente la formazione di NH3; probabilmente perché la CO2, occupando i siti degli elementi alcalino-terrosi lontani dal Pt, impedisce ai nitriti/nitrati o all’H2 attivato di percorrere “elevate” distanze prima di reagire, aumentando così le possibilità di una riduzione più breve e più selettiva. F. Tempo di Riduzione. Si è migliorata la comprensione del ruolo svolto dalla concentrazione dell’agente riducente e dell’effetto della durata della fase riducente. Una durata troppo breve porta, nel lungo periodo, alla saturazione dei siti attivi, un eccesso alla formazione di NH3 Attraverso queste ultime prove è stato possibile formulare un meccanismo di reazione, in particolare della fase riducente. G. Meccanismo di Riduzione. La mobilità dei reagenti, nitriti/nitrati o H2 attivato è un elemento fondamentale nel meccanismo della riduzione. La vicinanza tra i siti di accumulo e quelli redox è determinante per il tipo di prodotti che si possono ottenere. La diminuzione della concentrazione del riducente o l’aumento della temperatura concede maggiore tempo o energia alle specie adsorbite sulla superficie o nel bulk per migrare e reagire prima che l’ambiente diventi troppo riducente e quindi meno selettivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità  nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità  di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità  certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità  di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità  e una sostanziale disomogeneità  prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità  idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità  di ottimizzare l'allocazione delle unità  operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi della candidata presenta - attraverso lo studio della normativa e della giurisprudenza rilevanti in Italia, Francia e Germania – un’analisi dell'ambito soggettivo di applicazione del diritto costituzionale d'asilo e del suo rapporto con il riconoscimento dello status di rifugiato ai sensi della Convenzione di Ginevra del 1951, nonchè della sua interazione con le altre forme di protezione della persona previste dal diritto comunitario e dal sistema CEDU di salvaguardia dei diritti fondamentali. Dal breve itinerario comparatistico percorso, emerge una forte tendenza alla neutralizzazione dell’asilo costituzionale ed alla sua sovrapposizione con la fattispecie del rifugio convenzionale quale carattere comune agli ordinamenti presi in esame, espressione di una consapevole scelta di politica del diritto altresì volta ad assimilare la materia alla disciplina generale dell’immigrazione al fine di ridimensionarne le potenzialità espansive (si pensi alla latitudine delle formule costituzionali di cui agli artt. 10, co. 3 Cost. it. e 16a, co. 1 Grundgesetz) e di ricondurre l'asilo entro i tradizionali confini della discrezionalità amministrativa quale sovrana concessione dello Stato ospitante. L'esame delle fonti comunitarie di recente introduzione illumina l’indagine: in particolare, la stessa Direttiva 2004/83CE sulla qualifica di rifugiato e sulla protezione sussidiaria consolida quanto stabilito dalle disposizioni convenzionali, ma ne estende la portata in modo significativo, recependo gli esiti della lunga evoluzione giurisprudenziale compiuta dalle corti nazionali e dal Giudice di Strasburgo nell’interpretazione del concetto di “persecuzione” (specialmente, in relazione all’individuazione delle azioni e degli agenti persecutori). Con riferimento al sistema giuridico italiano, la tesi si interroga sulle prospettive di attuazione del dettato dell’art. 10, terzo comma della Costituzione, ed inoltre propone la disamina di alcuni istituti chiave dell’attuale normativa in materia di asilo, attraverso cui si riscontrano importanti profili di incompatibilità con la natura di diritto fondamentale costituzionalmente tutelato, conferita al diritto di asilo dalla volontà dei Costituenti e radicata nella ratio della norma stessa (il trattenimento del richiedente asilo; la procedura di esame della domanda, l’onere probatorio e le cause ostative al suo accoglimento; l’effettività della tutela giurisdizionale). Le questioni più problematiche ancora irrisolte investono proprio tali aspetti del procedimento - previsto per ottenere quello che alcuni atti europei, tra cui l'art. 18 della Carta di Nizza, definiscono right to asylum - come rivela la disciplina contenuta nella Direttiva 2005/85CE, recante norme minime per le procedure applicate negli Stati membri ai fini del riconoscimento e della revoca dello status di rifugiato. Infine, il fenomeno della esternalizzazione dei controlli compromette lo stesso accesso alle procedure, nella misura in cui rende "mobile" il confine territoriale dell’area Schengen (attraverso l'introduzione del criterio dello "Stato terzo sicuro", degli strumenti dell'esame preliminare delle domande e della detenzione amministrativa nei Paesi di transito, nonché per mezzo del presidio delle frontiere esterne), relegando il trattamento dei richiedenti asilo ad uno spazio in cui non sempre è monitorabile l'effettivo rispetto del principio del non refoulement, degli obblighi internazionali relativi all’accoglienza dei profughi e delle clausole di determinazione dello Stato competente all'esame delle domande ai sensi del Regolamento n. 343/03, c.d. Dublino II (emblematico il caso del pattugliamento delle acque internazionali e dell'intercettazione delle navi prima del superamento dei confini territoriali). Questi delicati aspetti di criticità della disciplina procedimentale limitano il carattere innovativo delle recenti acquisizioni comunitarie sull’ambito di operatività delle nuove categorie definitorie introdotte (le qualifiche di rifugiato e di titolare di protezione sussidiaria e la complessa nozione di persecuzione, innanzitutto), richiedendo, pertanto, l’adozione di un approccio sistemico – piuttosto che analitico – per poter rappresentare in modo consapevole le dinamiche che concretamente si producono a livello applicativo ed affrontare la questione nodale dell'efficienza dell'attuale sistema multilivello di protezione del richiedente asilo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L' argomento di questa tesi tratta l'analisi di una copertura reticolare a forma libera di grande luce. Partendo da una modellazione FEM della reticolare risolta al calcolatore si è cercato un metodo di analisi semplificato alternativo per l'individuazione approssimata delle sollecitazioni che nascono in seguito ai carichi. Ripercorrendo i passi sviluppati dal metodo americano per il calcolo dei solai a fungo, si individuano le sezioni portanti principali della forma strutturale, deducendo l'andamento del momento flettente dagli sforzi in corrispondenza dei correnti tesi e compressi. Sulle stesse sezioni sono stati costruiti dei modelli mono e bidimensionali semplificati che cercano di rappresentare, con diversa scala di precisione, l'andamento della sollecitazione flettente realmente presente nella struttura. Dall'analisi del momento flettente risultante dai modelli monodimensionali si individuano le modifiche effettuabili sulla geometria strutturale con lo scopo di migliorarne la risposta globale ed i parametri di progetto utili per il dimensionamento. Al termine si sono confrontati i risultati ottenuti dalle due strutture analizzate, ovvero con o senza le modifiche alla geometria, riportando alcuni parametri caratteristici del comportamento strutturale e traendo così conclusioni sulla soluzione migliore.