998 resultados para Interfaccia, Risultati elettorali, Accessibile
Resumo:
Il mar Mediterraneo è un bacino acquifero peculiare per la recente colonizzazione di specie aliene, per l’evento geologico legato alla Crisi di salinità del Messiniano e per l’ampio range di salinità. L’individuazione dei meccanismi di colonizzazione si è incentrata sullo studio morfologico, istologico e molecolare delle specie Asperarca nodulosa ed Anadara demiri (Arcidae-Bivalvia-Mollusca). La ricerca si è basata sulla caratterizzazione morfologica, con utilizzo del microscopio elettronico a scansione, al fine di individuare il tipo di sviluppo larvale. Successivamente i dati rilevati al S.E.M. sono stati supportati dall’indagine istologica che ha evidenziato la presenza di gonadi a sessi distinti e la non incubazione larvale. L’ulteriore analisi filogenetica ha permesso di evidenziare la netta suddivisione tra le tre popolazioni studiate, indagine effettuata tramite marcatori arbitrari (RAPDs) e nucleari specifici (ITS). I risultati ottenuti trovano supporto da quanto noto su base morfologica. I dati, nel complesso, mostrano una perdita delle capacità di diffusione della specie tramite sviluppo larvale plantotrofico a favore di quello lecitotrofico o diretto; tale tesi è ulteriormente supportata dai dati molecolari che mostrano una netta separazione delle popolazioni prese in esame ed un conseguente isolamento tra individui appartenenti a zone di profondità del Mediterraneo (sub-bacini abissali). La ricerca ha, inoltre,esaminato i meccanismi di introduzione attuali nel bacino acquifero che è soggetto ad una nuova invasione da parte specie aliene dovuta all’apertura del canale di Suez. L’analisi si è focalizzata sullo studio per l’ individuazione dell’origine della specie aliena A. demiri , di presunta derivazione Indo-Pacifica, ma rivelatasi, nei dati preliminari, di origine Atlantica.
Resumo:
La variabilità genetica è un importante strumento per lo studio e la conservazione della biodiversità in specie rare e minacciate di estinzione. Durante il mio dottorato mi sono quindi occupata di mettere a punto diverse metodologie molecolari al fine di valutare la diversità genetica in due specie rare della flora italiana che presentano problematiche diverse e specifiche. I marcatori arbitrari RAPD e i marcatori semi-arbitrari ISSR sono stati utilizzati per valutare la diversità genetica in Quercus crenata Lam. e per confermare l’ipotesi della sua origine ibridogena dalle due specie presunte parentali Quercus cerris L. e Quercus suber L., essendo Q. crenata presente in Italia settentrionale dove Q. suber è attualmente assente. I marcatori SSR o microsatelliti sono invece stati messi a punto su una specie a rischio di estinzione, endemica dell’Appennino Tosco-Emiliano, Primula apennina Widmer, applicando una metodologia specifica, basata sulla costruzione di una libreria genomica arricchita per l’isolamento di primer specifici. I marcatori RAPD e ISSR, utilizzati su un totale di 85 campioni, hanno mostrato alti livelli di diversità molecolare entro le specie studiate, eccetto per Q. suber le cui popolazioni rappresentano il margine orientale di distribuzione della specie, per questo più sottoposte ad impoverimento genetico. Oltre alla cluster analysis (UPGMA) e alla Analisi delle Componenti Principali effettuate per entrambi i marcatori, che confermano l’ipotesi dell’origine ibrida degli individui di Q. crenata diffusi in Italia Settentrionale, sono stati calcolati l’indice di ibridità basato sul maximum likelihood, che dimostra una introgressione asimmetrica di Q. crenata verso il parentale caratterizzato da superiorità demografica (Q. cerris) e il test di Mantel. Quest’ultimo ha permesso di confrontare i due marcatori RAPD e ISSR utilizzati ottenendo una bassa correlazione, a conferma del fatto che, amplificando tratti differenti del DNA nucleare, i dati non sono sovrapponibili, sebbene forniscano risultati analoghi. Per l’isolamento di loci microsatelliti ipervariabili ho utilizzato il protocolllo FIASCO (Fast isolation by AFLP of sequences containing repeats- Zane et al. 2002) che permette di costruire una libreria genomica arricchita partendo dal DNA estratto da P. apennina. Tale procedura ha previsto la digestione del DNA genomico per la produzione di una miscela di frammenti di DNA. Tramite ibridazione con opportune sonde sono stati isolati i frammenti contenenti i microsatelliti. Sequenziando i cloni ricombinanti, ho ottenuto sequenze contenenti repeats sulle cui regioni fiancheggianti sono stati costruiti 15 coppie di primer che potranno, in seguito, essere utilizzate per definire la quota di riproduzione clonale in P. apennina e per valutare la diversità genetica delle popolazioni che coprono l’areale di distribuzione della specie. Data la loro natura altamente variabile e la loro abbondanza nel DNA, gli SSR saranno, come i marcatori RAPD e gli ISSR, ugualmente validi per lo studio della variabilità genetica e per l’analisi di problematiche specifiche legate alle specie rare.
Resumo:
Reinforced concrete columns might fail because of buckling of the longitudinal reinforcing bar when exposed to earthquake motions. Depending on the hoop stiffness and the length-over-diameter ratio, the instability can be local (in between two subsequent hoops) or global (the buckling length comprises several hoop spacings). To get insight into the topic, an extensive literary research of 19 existing models has been carried out including different approaches and assumptions which yield different results. Finite element fiberanalysis was carried out to study the local buckling behavior with varying length-over-diameter and initial imperfection-over-diameter ratios. The comparison of the analytical results with some experimental results shows good agreement before the post buckling behavior undergoes large deformation. Furthermore, different global buckling analysis cases were run considering the influence of different parameters; for certain hoop stiffnesses and length-over-diameter ratios local buckling was encountered. A parametric study yields an adimensional critical stress in function of a stiffness ratio characterized by the reinforcement configuration. Colonne in cemento armato possono collassare per via dell’instabilità dell’armatura longitudinale se sottoposte all’azione di un sisma. In funzione della rigidezza dei ferri trasversali e del rapporto lunghezza d’inflessione-diametro, l’instabilità può essere locale (fra due staffe adiacenti) o globale (la lunghezza d’instabilità comprende alcune staffe). Per introdurre alla materia, è proposta un’esauriente ricerca bibliografica di 19 modelli esistenti che include approcci e ipotesi differenti che portano a risultati distinti. Tramite un’analisi a fibre e elementi finiti si è studiata l’instabilità locale con vari rapporti lunghezza d’inflessione-diametro e imperfezione iniziale-diametro. Il confronto dei risultati analitici con quelli sperimentali mostra una buona coincidenza fino al raggiungimento di grandi spostamenti. Inoltre, il caso d’instabilità globale è stato simulato valutando l’influenza di vari parametri; per certe configurazioni di rigidezza delle staffe e lunghezza d’inflessione-diametro si hanno ottenuto casi di instabilità locale. Uno studio parametrico ha permesso di ottenere un carico critico adimensionale in funzione del rapporto di rigidezza dato dalle caratteristiche dell’armatura.
Resumo:
La tesi tratta di strumenti finalizzati alla valutazione dello stato conservativo e di supporto all'attività di manutenzione dei ponti, dai più generali Bridge Management Systems ai Sistemi di Valutazione Numerica della Condizione strutturale. Viene proposto uno strumento originale con cui classificare i ponti attraverso un Indice di Valutazione Complessiva e grazie ad esso stabilire le priorità d'intervento. Si tara lo strumento sul caso pratico di alcuni ponti della Provincia di Bologna. Su un ponte in particolare viene realizzato un approfondimento specifico sulla determinazione approssimata dei periodi propri delle strutture da ponte. Si effettua un confronto dei risultati di alcune modellazioni semplificate in riferimento a modellazioni dettagliate e risultati sperimentali.
Resumo:
I policlorobifenili (PCB) sono un gruppo di 209 congeneri di bifenili policlorurati altamente tossici e persistenti che, a causa della loro elevata lipofilia, tendono ad accumularsi in sedimenti anaerobici marini, tramite i quali possono entrare nella catena alimentare. I PCB possono essere degradati mediante processi di declorurazione riduttiva mediati da popolazioni microbiche anaerobiche in grado di utilizzarli fortuitamente come accettori finali della catena respiratoria. Il processo consiste quindi nella bioconversione di congeneri ad alto grado di clorurazione in PCB basso clorurati, meno tossici, meno bioaccumulabili e più facilmente biodegradabili in condizioni aerobiche. Nel presente elaborato è stata investigata la capacità di una popolazione microbica arricchita su congeneri coplanari di PCB da un sedimento contaminato del Canale Brentella (Prima Zona Industriale di Porto Marghera, laguna di Venezia), di declorurare miscele commerciali di PCB (Aroclor 1254) in condizioni geobiochimiche di laboratorio che riproducono quelle presenti in sito. Il processo è quindi stato studiato in microcosmi anaerobici slurry di sedimento sospeso nella stessa acqua del sito e monitorato con un approccio chimico e microbiologico integrato. Ai fini di caratterizzare e stimolare i microganismi responsabili del processo degradativo sono state utilizzate tecniche convenzionali basate sull’inibizione selettiva di diversi gruppi microbici. Dopo una fase di latenza di 7 settimane, la coltura microbica ha declorurato velocemente ed estesamente la miscela commerciale di PCB saggiata, bioconvertendo il 70% dei congeneri ad alto grado di clorurazione (da penta- a octa- clorurati) in PCB di- e tri-clorurati. Il processo ha esibito selettività nei confronti delle posizioni meta dei gruppi 2,3- e 2,3,4-clorofenile e para dei gruppi 3,4- e 3,4,5-clorofenile, secondo il modello di declorurazione H’. Il monitoraggio delle attività microbiche in presenza dei diversi inibitori saggiati ha permesso inoltre di concludere che i batteri metanogeni e i batteri solfato-riduttori non sono direttamente coinvolti nel processo degradativo, suggerendo invece che le specie decloruranti siano appartenenti o strettamente correlate al genere Dehalococcoides. Poiché lo studio è stato eseguito in condizioni geobiochimiche di laboratorio che mimano quelle presenti in sito, i risultati ottenuti indicano che la popolazione microbica dei sedimenti del canale Brentella, se opportunamente stimolata, è potenzialmente in grado di mediare in situ la declorurazione riduttiva dei PCB preesistenti nel sedimento, contribuendo alla natural attenuation dei sedimenti contaminati.
Resumo:
L’utilizzo di materiali compositi come i calcestruzzi fibrorinforzati sta diventando sempre più frequente e diffuso. Tuttavia la scelta di nuovi materiali richiede una approfondita analisi delle loro caratteristiche e dei loro comportamenti. I vantaggi forniti dall’aggiunta di fibre d’acciaio ad un materiale fragile, quale il calcestruzzo, sono legati al miglioramento della duttilità e all'aumento di assorbimento di energia. L’aggiunta di fibre permette quindi di migliorare il comportamento strutturale del composito, dando vita ad un nuovo materiale capace di lavorare non solo a compressione ma anche in piccola parte a trazione, ma soprattutto caratterizzato da una discreta duttilità ed una buona capacità plastica. Questa tesi ha avuto come fine l’analisi delle caratteristiche di questi compositi cementizi fibrorinforzati. Partendo da prove sperimentali classiche quali prove di trazione e compressione, si è arrivati alla caratterizzazione di questi materiali avvalendosi di una campagna sperimentale basata sull’applicazione della norma UNI 11039/2003. L’obiettivo principale di questo lavoro consiste nell’analizzare e nel confrontare calcestruzzi rinforzati con fibre di due diverse lunghezze e in diversi dosaggi. Studiando questi calcestruzzi si è cercato di comprendere meglio questi materiali e trovare un riscontro pratico ai comportamenti descritti in teorie ormai diffuse e consolidate. La comparazione dei risultati dei test condotti ha permesso di mettere in luce differenze tra i materiali rinforzati con l’aggiunta di fibre corte rispetto a quelli con fibre lunghe, ma ha anche permesso di mostrare e sottolineare le analogie che caratterizzano questi materiali fibrorinforzati. Sono stati affrontati inoltre gli aspetti legati alle fasi della costituzione di questi materiali sia da un punto di vista teorico sia da un punto di vista pratico. Infine è stato sviluppato un modello analitico basato sulla definizione di specifici diagrammi tensione-deformazione; i risultati di questo modello sono quindi stati confrontati con i dati sperimentali ottenuti in laboratorio.
Resumo:
La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.
Resumo:
Il presente lavoro tratta lo studio dei fenomeni aeroelastici di interazione fra fluido e struttura, con il fine di provare a simularli mediante l’ausilio di un codice agli elementi finiti. Nel primo capitolo sono fornite alcune nozioni di fluidodinamica, in modo da rendere chiari i passaggi teorici fondamentali che portano alle equazioni di Navier-Stokes governanti il moto dei fluidi viscosi. Inoltre è illustrato il fenomeno della formazione di vortici a valle dei corpi tozzi dovuto alla separazione dello strato limite laminare, con descrizione anche di alcuni risultati ottenuti dalle simulazioni numeriche. Nel secondo capitolo vengono presi in rassegna i principali fenomeni di interazione fra fluido e struttura, cercando di metterne in luce le fondamenta della trattazione analitica e le ipotesi sotto le quali tale trattazione è valida. Chiaramente si tratta solo di una panoramica che non entra in merito degli sviluppi della ricerca più recente ma fornisce le basi per affrontare i vari problemi di instabilità strutturale dovuti a un particolare fenomeno di interazione con il vento. Il terzo capitolo contiene una trattazione più approfondita del fenomeno di instabilità per flutter. Tra tutti i fenomeni di instabilità aeroelastica delle strutture il flutter risulta il più temibile, soprattutto per i ponti di grande luce. Per questo si è ritenuto opportuno dedicargli un capitolo, in modo da illustrare i vari procedimenti con cui si riesce a determinare analiticamente la velocità critica di flutter di un impalcato da ponte, a partire dalle funzioni sperimentali denominate derivate di flutter. Al termine del capitolo è illustrato il procedimento con cui si ricavano sperimentalmente le derivate di flutter di un impalcato da ponte. Nel quarto capitolo è presentato l’esempio di studio dell’impalcato del ponte Tsing Ma ad Hong Kong. Sono riportati i risultati analitici dei calcoli della velocità di flutter e di divergenza torsionale dell’impalcato e i risultati delle simulazioni numeriche effettuate per stimare i coefficienti aerodinamici statici e il comportamento dinamico della struttura soggetta all’azione del vento. Considerazioni e commenti sui risultati ottenuti e sui metodi di modellazione numerica adottati completano l’elaborato.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Lo studio qui condotto è atto a valutare il livello di servizio della rotatoria posta in corrispondenza del nodo Aeroporto-Triumvirato-Tangenziale, nodo che ha un grande interesse dal punto di vista del traffico veicolare. Si illustra la situazione precedente la realizzazione dell’opera e quindi il livello di servizio con il software HCS2000. Successivamente, si studia il comportamento della rotatoria senza sottopasso estrapolando i risultati per il livello di servizio con il software SIDRA. Con lo stesso strumento di valutazione, poi lo stato attuale, la rotatoria con il sottopasso. L’ultima parte dello studio riguarda una simulazione che nasce dal confronto di flussi di movimenti negli anni 1999 e 2006. Quindi è stata valutata una situazione probabile, nata dall’aumento percentuale dei movimenti su tutti gli accessi e la relativa proposta di intervento.
Resumo:
Nel presente lavoro di tesi ci si è occupati dello studio del comportamento idraulico-ambientale della rete di drenaggio a servizio della città di Modena. In particolare si è condotta una valutazione dell’effetto che gli scaricatori della rete fognaria in oggetto hanno sul complesso dei corpi idrici riceventi. Tale lavoro si prefigge anche lo scopo di individuare e dimensionare i più efficaci sistemi di controllo degli sversamenti, operati dagli scaricatori stessi, ed infine supportare analisi costi-benefici in vista della realizzazione delle opere di risanamento ambientale necessarie per ottemperare ai vincoli imposti dalla vigente normativa regionale in merito alla gestione delle acque di prima pioggia (Deliberazione G.R. Emilia Romagna 286/2005). Lo studio si è articolato in fasi successive: • analisi dello stato di fatto; • catalogazione degli scaricatori in esercizio nella rete di drenaggio; • determinazione ed analisi dei bacini idrografici e delle superfici scolanti; • implementazione di un modello numerico della rete di drenaggio; • individuazione e valutazione delle criticità idraulico-ambientali del sistema, mediante simulazioni in continuo delle serie pluviometriche degli anni 2005 e 2006. L’attività che ha portato al conseguimento dei risultati che sono raccolti in questa “nota” è stata svolta in collaborazione con la società HERA Modena s.r.l. a cui compete, fra le altre, la gestione dell’intera rete di drenaggio urbano del Comune di Modena. La fase di analisi dello stato di fatto e delle superfici scolanti afferenti ai singoli sottobacini è stata condotta utilizzando lo strumento GIS Arcview; il quale è di supporto, anche ai fini di un’appropriata definizione delle caratteristiche specifiche del territorio. Lo studio è stato sviluppato mediante la realizzazione di un modello numerico di simulazione quali-quantitativa con l’ausilio del software InfoWorks CS 8.05, distribuito dalla Wallingford Software Ltd UK.
Resumo:
Negli ultimi anni la longevità è divenuto un argomento di notevole interesse in diversi settori scientifici. Le ricerche volte ad indagare i meccanismi che regolano i fattori della longevità si sono moltiplicate nell’ultimo periodo interessando, in maniera diversa, alcune regioni del territorio italiano. Lo studio presentato nella tesi ha l’obiettivo di identificare eventuali aggregazioni territoriali caratterizzate da una significativa propensione alla longevità nella regione Emilia-Romagna mediante l’impiego di metodologie di clustering spaziale, alcune delle quali di recente implementazione. La popolazione in esame è costituita dagli individui residenti in Emilia- Romagna nel quinquennio 2000-2004 suddivisa in classi di età, sesso e comune. L’analisi è di tipo puramente spaziale, in cui l’unità geografica elementare è identificata dal comune, ed è stata condotta separatamente per i due sessi. L’identificazione delle aree regionali ad elevata longevità è avvenuta utilizzando quattro metodologie di clustering spaziale, basate sulla teoria della massima verosimiglianza, che si differenziano tra loro per la modalità di ricerca dei potenziali clusters. La differenza consiste nella capacità di identificare aggregazioni territoriali di forma regolare (spatial scan statistic, Kulldorff e Nagarwalla,1995; Kulldorff,1997, 1999) o dall’andamento geometrico “libero” (flexible scan statistic, Tango e Takahashi,2005; algoritmo genetico, Duczmal et al.,2007; greedy growth search, Yiannakoulias et al.,2007). Le caratteristiche di ciascuna metodologia consentono, in tal modo, di “catturare” le possibili conformazioni geografiche delle aggregazioni presenti sul territorio e la teoria statistica di base, comune ad esse, consente di effettuare agevolmente un confronto tra i risultati ottenuti. La persistenza di un’area caratterizzata da un’elevata propensione alla longevità consente, infatti, di ritenere il cluster identificato di notevole interesse per approfondimenti successivi. Il criterio utilizzato per la valutazione della persistenza di un cluster è stato derivato dalla teoria dei grafi, con particolare riferimento ai multigrafi. L’idea è confrontare, a parità di parametri di ricerca, i grafi associati alle aggregazioni spaziali identificate con le diverse metodologie attraverso una valutazione delle occorrenze dei collegamenti esistenti tra le coppie di vertici. Alcune valutazioni di carattere demografico ed un esame della letteratura esistente sugli studi di longevità, hanno indotto alla definizione di una classe (aperta) di età per rappresentare il fenomeno nella nostra ricerca: sono stati considerati gli individui con età superiore o uguale a 95 anni (indicata con 95+). La misura di sintesi utilizzata per descrivere il fenomeno è un indicatore specifico di longevità, mutuato dalla demografia, indicato con Centenarian Rate (CR) (Robine e Caselli, 2005). Esso è definito dal rapporto tra la popolazione 95+ e la popolazione residente, nello stesso comune, al censimento del 1961. L’idea alla base del CR è confrontare gli individui longevi di un istante temporale con quelli presenti, nella stessa area, circa 40 anni prima dell’osservazione, ipotizzando che l’effetto migratorio di una popolazione possa ritenersi trascurabile oltre i 60 anni di età. La propensione alla longevità coinvolge in maniera diversa le aree del territorio dell’Emilia-Romagna. Le province della regione caratterizzate da una maggiore longevità sono Bologna, Ravenna e parte di Forlì-Cesena mentre la provincia di Ferrara si distingue per un livello ridotto del fenomeno. La distinzione per sesso non appare netta: gli uomini con età 95+, numericamente inferiori alle donne, risiedono principalmente nei comuni delle province di Bologna e Ravenna, con qualche estensione nel territorio forlivese, analogamente a quanto accade per la popolazione femminile che mostra, tuttavia, una maggiore prevalenza nei territori di Bologna e Forlì-Cesena, includendo alcune aree del riminese. Le province occidentali della regione, invece, non risultano interessate significativamente da questo fenomeno. Le metodologie di cluster detection utilizzate nello studio hanno prodotto risultati pressoché simili seppur con criteri di ricerca differenti. La spatial scan statistic si conferma una metodologia efficace e veloce ma il vincolo geometrico regolare imposto al cluster condiziona il suo utilizzo, rivelando una scarsa adattabilità nell’identificazione di aggregazioni irregolari. La metodologia FSC ha evidenziato buone capacità di ricerca e velocità di esecuzione, completata da una descrizione chiara e dettagliata dei risultati e dalla possibilità di poter visualizzare graficamente i clusters finali, anche se con un livello minimo di dettaglio. Il limite principale della metodologia è la dimensione ridotta del cluster finale: l’eccessivo impegno computazionale richiesto dalla procedura induce a fissare il limite massimo al di sotto delle 30 aree, rendendola così utilizzabile solo nelle indagini in cui si ipotizza un’estensione limitata del fenomeno sul territorio. L’algoritmo genetico GA si rivela efficace nell’identificazione di clusters di qualsiasi forma ed estensione, seppur con una velocità di esecuzione inferiore rispetto alle procedure finora descritte. Senza un’adeguata selezione dei parametri di ricerca,la procedura può individuare clusters molto irregolari ed estesi, consigliando l’uso di penalizzazione non nulla in fase di ricerca. La scelta dei parametri di ricerca non è comunque agevole ed immediata e, spesso, è lasciata all’esperienza del ricercatore. Questo modo di procedere, in aggiunta alla mancanza di informazioni a priori sul fenomeno, aumenta il grado di soggettività introdotto nella selezione dei parametri influenzando i risultati finali. Infine, la metodologia GGS richiede un carico computazionale nettamente superiore rispetto a quello necessario per le altre metodologie utilizzate e l’introduzione di due parametri di controllo favorisce una maggiore arbitrarietà nella selezione dei valori di ricerca adeguati; inoltre, la recente implementazione della procedura e la mancanza di studi su dati reali inducono ad effettuare un numero maggiore di prove durante la fase di ricerca dei clusters.
Resumo:
Introduzione L’importanza clinica, sociale ed economica del trattamento dell’ipertensione arteriosa richiede la messa in opera di strumenti di monitoraggio dell’uso dei farmaci antiipertensivi che consentano di verificare la trasferibilità alla pratica clinica dei dati ottenuti nelle sperimentazioni. L’attuazione di una adatta strategia terapeutica non è un fenomeno semplice da realizzare perché le condizioni in cui opera il Medico di Medicina Generale sono profondamente differenti da quelle che si predispongono nell’esecuzione degli studi randomizzati e controllati. Emerge, pertanto, la necessità di conoscere le modalità con cui le evidenze scientifiche trovano reale applicazione nella pratica clinica routinaria, identificando quei fattori di disturbo che, nei contesti reali, limitano l’efficacia e l’appropriatezza clinica. Nell’ambito della terapia farmacologica antiipertensiva, uno di questi fattori di disturbo è costituito dalla ridotta aderenza al trattamento. Su questo tema, recenti studi osservazionali hanno individuato le caratteristiche del paziente associate a bassi livelli di compliance; altri hanno focalizzato l’attenzione sulle caratteristiche del medico e sulla sua capacità di comunicare ai propri assistiti l’importanza del trattamento farmacologico. Dalle attuali evidenze scientifiche, tuttavia, non emerge con chiarezza il peso relativo dei due diversi attori, paziente e medico, nel determinare i livelli di compliance nel trattamento delle patologie croniche. Obiettivi Gli obiettivi principali di questo lavoro sono: 1) valutare quanta parte della variabilità totale è attribuibile al livello-paziente e quanta parte della variabilità è attribuibile al livello-medico; 2) spiegare la variabilità totale in funzione delle caratteristiche del paziente e in funzione delle caratteristiche del medico. Materiale e metodi Un gruppo di Medici di Medicina Generale che dipendono dall’Azienda Unità Sanitaria Locale di Ravenna si è volontariamente proposto di partecipare allo studio. Sono stati arruolati tutti i pazienti che presentavano almeno una misurazione di pressione arteriosa nel periodo compreso fra il 01/01/1997 e il 31/12/2002. A partire dalla prima prescrizione di farmaci antiipertensivi successiva o coincidente alla data di arruolamento, gli assistiti sono stati osservati per 365 giorni al fine di misurare la persistenza in trattamento. La durata del trattamento antiipertensivo è stata calcolata come segue: giorni intercorsi tra la prima e l’ultima prescrizione + proiezione, stimata sulla base delle Dosi Definite Giornaliere, dell’ultima prescrizione. Sono stati definiti persistenti i soggetti che presentavano una durata del trattamento maggiore di 273 giorni. Analisi statistica I dati utilizzati per questo lavoro presentano una struttura gerarchica nella quale i pazienti risultano “annidati” all’interno dei propri Medici di Medicina Generale. In questo contesto, le osservazioni individuali non sono del tutto indipendenti poiché i pazienti iscritti allo stesso Medico di Medicina Generale tenderanno ad essere tra loro simili a causa della “storia comune” che condividono. I test statistici tradizionali sono fortemente basati sull’assunto di indipendenza tra le osservazioni. Se questa ipotesi risulta violata, le stime degli errori standard prodotte dai test statistici convenzionali sono troppo piccole e, di conseguenza, i risultati che si ottengono appaiono “impropriamente” significativi. Al fine di gestire la non indipendenza delle osservazioni, valutare simultaneamente variabili che “provengono” da diversi livelli della gerarchia e al fine di stimare le componenti della varianza per i due livelli del sistema, la persistenza in trattamento antiipertensivo è stata analizzata attraverso modelli lineari generalizzati multilivello e attraverso modelli per l’analisi della sopravvivenza con effetti casuali (shared frailties model). Discussione dei risultati I risultati di questo studio mostrano che il 19% dei trattati con antiipertensivi ha interrotto la terapia farmacologica durante i 365 giorni di follow-up. Nei nuovi trattati, la percentuale di interruzione terapeutica ammontava al 28%. Le caratteristiche-paziente individuate dall’analisi multilivello indicano come la probabilità di interrompere il trattamento sia più elevata nei soggetti che presentano una situazione clinica generale migliore (giovane età, assenza di trattamenti concomitanti, bassi livelli di pressione arteriosa diastolica). Questi soggetti, oltre a non essere abituati ad assumere altre terapie croniche, percepiscono in minor misura i potenziali benefici del trattamento antiipertensivo e tenderanno a interrompere la terapia farmacologica alla comparsa dei primi effetti collaterali. Il modello ha inoltre evidenziato come i nuovi trattati presentino una più elevata probabilità di interruzione terapeutica, verosimilmente spiegata dalla difficoltà di abituarsi all’assunzione cronica del farmaco in una fase di assestamento della terapia in cui i principi attivi di prima scelta potrebbero non adattarsi pienamente, in termini di tollerabilità, alle caratteristiche del paziente. Anche la classe di farmaco di prima scelta riveste un ruolo essenziale nella determinazione dei livelli di compliance. Il fenomeno è probabilmente legato ai diversi profili di tollerabilità delle numerose alternative terapeutiche. L’appropriato riconoscimento dei predittori-paziente di discontinuità (risk profiling) e la loro valutazione globale nella pratica clinica quotidiana potrebbe contribuire a migliorare il rapporto medico-paziente e incrementare i livelli di compliance al trattamento. L’analisi delle componenti della varianza ha evidenziato come il 18% della variabilità nella persistenza in trattamento antiipertensivo sia attribuibile al livello Medico di Medicina Generale. Controllando per le differenze demografiche e cliniche tra gli assistiti dei diversi medici, la quota di variabilità attribuibile al livello medico risultava pari al 13%. La capacità empatica dei prescrittori nel comunicare ai propri pazienti l’importanza della terapia farmacologica riveste un ruolo importante nel determinare i livelli di compliance al trattamento. La crescente presenza, nella formazione dei medici, di corsi di carattere psicologico finalizzati a migliorare il rapporto medico-paziente potrebbe, inoltre, spiegare la relazione inversa, particolarmente evidente nella sottoanalisi effettuata sui nuovi trattati, tra età del medico e persistenza in trattamento. La proporzione non trascurabile di variabilità spiegata dalla struttura in gruppi degli assistiti evidenzia l’opportunità e la necessità di investire nella formazione dei Medici di Medicina Generale con l’obiettivo di sensibilizzare ed “educare” i medici alla motivazione ma anche al monitoraggio dei soggetti trattati, alla sistematica valutazione in pratica clinica dei predittori-paziente di discontinuità e a un appropriato utilizzo della classe di farmaco di prima scelta. Limiti dello studio Uno dei possibili limiti di questo studio risiede nella ridotta rappresentatività del campione di medici (la partecipazione al progetto era su base volontaria) e di pazienti (la presenza di almeno una misurazione di pressione arteriosa, dettata dai criteri di arruolamento, potrebbe aver distorto il campione analizzato, selezionando i pazienti che si recano dal proprio medico con maggior frequenza). Questo potrebbe spiegare la minore incidenza di interruzioni terapeutiche rispetto a studi condotti, nella stessa area geografica, mediante database amministrativi di popolazione. Conclusioni L’analisi dei dati contenuti nei database della medicina generale ha consentito di valutare l’impiego dei farmaci antiipertensivi nella pratica clinica e di stabilire la necessità di porre una maggiore attenzione nella pianificazione e nell’ottenimento dell’obiettivo che il trattamento si prefigge. Alla luce dei risultati emersi da questa valutazione, sarebbe di grande utilità la conduzione di ulteriori studi osservazionali volti a sostenere il progressivo miglioramento della gestione e del trattamento dei pazienti a rischio cardiovascolare nell’ambito della medicina generale.
Resumo:
Gli istoni sono proteine basiche che possono essere classificate in varie classi: H1, H2A, H2B, H3 e H4. Queste proteine formano l’ottamero proteico attorno al quale si avvolge il DNA per formare il nucleosoma che è l’unità fondamentale della cromatina. A livello delle code N-terminali, gli istoni possono essere soggetti a numerose modifiche posttraduzionali quali acetilazioni, metilazioni, fosforilazioni, ADP-ribosilazioni e ubiquitinazioni. Queste modifiche portano alla formazione di diversi siti di riconoscimento per diversi complessi enzimatici coinvolti in importanti processi come la riparazione e la replicazione del DNA e l’assemblaggio della cromatina. La più importante e la più studiata di queste modifiche è l’acetilazione che avviene a livello dei residui amminici della catena laterale dell’amminoacido lisina. I livelli corretti di acetilazione delle proteine istoniche sono mantenuti dall’attività combinata di due enzimi: istone acetil transferasi (HAT) e istone deacetilasi (HDAC). Gli enzimi appartenenti a questa famiglia possono essere suddivisi in varie classi a seconda delle loro diverse caratteristiche, quali la localizzazione cellulare, la dimensione, l’omologia strutturale e il meccanismo d’azione. Recentemente è stato osservato che livelli aberranti di HDAC sono coinvolti nella carcinogenesi; per questo motivo numerosi gruppi di ricerca sono interessati alla progettazione e alla sintesi di composti che siano in grado di inibire questa classe enzimatica. L’inibizione delle HDAC può infatti provocare arresto della crescita cellulare, apoptosi o morte cellulare. Per questo motivo la ricerca farmaceutica in campo antitumorale è mirata alla sintesi di inibitori selettivi verso le diverse classi di HDAC per sviluppare farmaci meno tossici e per cercare di comprendere con maggiore chiarezza il ruolo biologico di questi enzimi. Il potenziale antitumorale degli inibitori delle HDAC deriva infatti dalla loro capacità di interferire con diversi processi cellulari, generalmente non più controllati nelle cellule neoplastiche. Nella maggior parte dei casi l’attività antitumorale risiede nella capacità di attivare programmi di differenziamento, di inibire la progressione del ciclo cellulare e di indurre apoptosi. Inoltre sembra essere molto importante anche la capacità di attivare la risposta immunitaria e l’inibizione dell’angiogenesi. Gli inibitori delle HDAC possono essere a loro volta classificati in base alla struttura chimica, alla loro origine (naturale o sintetica), e alla loro capacità di inibire selettivamente le HDAC appartenenti a classi diverse. Non è ancora chiaro se la selettività di queste molecole verso una specifica classe di HDAC sia importante per ottenere un effetto antitumorale, ma sicuramente inibitori selettivi possono essere molto utili per investigare e chiarire il ruolo delle HDAC nei processi cellulari che portano all’insorgenza del tumore. Nel primo capitolo di questa tesi quindi è riportata un’introduzione sull’importanza delle proteine istoniche non solo da un punto di vista strutturale ma anche funzionale per il destino cellulare. Nel secondo capitolo è riportato lo stato dell’arte dell’analisi delle proteine istoniche che comprende sia i metodi tradizionali come il microsequenziamento e l’utilizzo di anticorpi, sia metodi più innovativi (RP-LC, HILIC, HPCE) ideati per poter essere accoppiati ad analisi mediante spettrometria di massa. Questa tecnica consente infatti di ottenere importanti e precise informazioni che possono aiutare sia a identificare gli istoni come proteine che a individuare i siti coinvolti nelle modifiche post-traduzionali. Nel capitolo 3 è riportata la prima parte del lavoro sperimentale di questa tesi volto alla caratterizzazione delle proteine istoniche mediante tecniche cromatografiche accoppiate alla spettrometria di massa. Nella prima fase del lavoro è stato messo a punto un nuovo metodo cromatografico HPLC che ha consentito di ottenere una buona separazione, alla linea di base, delle otto classi istoniche (H1-1, H1-2, H2A-1, H2A-2, H2B, H3-1, H3-2 e H4). La separazione HPLC delle proteine istoniche ha permesso di poter eseguire analisi accurate di spettrometria di massa mediante accoppiamento con un analizzatore a trappola ionica tramite la sorgente electrospray (ESI). E’ stato così possibile identificare e quantificare tutte le isoforme istoniche, che differiscono per il tipo e il numero di modifiche post-traduzionali alle quali sono soggette, previa estrazione da colture cellulari di HT29 (cancro del colon). Un’analisi così dettagliata delle isoforme non può essere ottenuta con i metodi immunologici e permette di eseguire un’indagine molto accurata delle modifiche delle proteine istoniche correlandole ai diversi stadi della progressione del ciclo e alla morte cellulare. Il metodo messo a punto è stato convalidato mediante analisi comparative che prevedono la stessa separazione cromatografica ma accoppiata a uno spettrometro di massa avente sorgente ESI e analizzatore Q-TOF, dotato di maggiore sensibilità e risoluzione. Successivamente, per identificare quali sono gli specifici amminoacidi coinvolti nelle diverse modifiche post-traduzionali, l’istone H4 è stato sottoposto a digestione enzimatica e successiva analisi mediante tecniche MALDI-TOF e LC-ESI-MSMS. Queste analisi hanno permesso di identificare le specifiche lisine acetilate della coda N-terminale e la sequenza temporale di acetilazione delle lisine stesse. Nel quarto capitolo sono invece riportati gli studi di inibizione, mirati a caratterizzare le modifiche a carico delle proteine istoniche indotte da inibitori delle HDAC, dotati di diverso profilo di potenza e selettività. Dapprima Il metodo messo a punto per l’analisi delle proteine istoniche è stato applicato all’analisi di istoni estratti da cellule HT29 trattate con due noti inibitori delle HDAC, valproato e butirrato, somministrati alle cellule a dosi diverse, che corrispondono alle dosi con cui sono stati testati in vivo, per convalidare il metodo per studi di inibizione di composti incogniti. Successivamente, lo studio è proseguito con lo scopo di evidenziare effetti legati alla diversa potenza e selettività degli inibitori. Le cellule sono state trattate con due inibitori più potenti, SAHA e MS275, alla stessa concentrazione. In entrambi i casi il metodo messo a punto ha permesso di evidenziare l’aumento dei livelli di acetilazione indotto dal trattamento con gli inibitori; ha inoltre messo in luce differenti livelli di acetilazione. Ad esempio il SAHA, potente inibitore di tutte le classi di HDAC, ha prodotto un’estesa iperacetilazione di tutte le proteine istoniche, mentre MS275 selettivo per la classe I di HDAC, ha prodotto modifiche molto più blande. E’ stato quindi deciso di applicare questo metodo per studiare la dose e la tempo-dipendenza dell’effetto di quattro diversi inibitori delle HDAC (SAHA, MS275, MC1855 e MC1568) sulle modifiche post-traduzionali di istoni estratti da cellule HT29. Questi inibitori differiscono oltre che per la struttura chimica anche per il profilo di selettività nei confronti delle HDAC appartenenti alle diverse classi. Sono stati condotti quindi studi di dose-dipendenza che hanno consentito di ottenere i valori di IC50 (concentrazione capace di ridurre della metà la quantità relativa dell’istone meno acetilato) caratteristici per ogni inibitore nei confronti di tutte le classi istoniche. E’ stata inoltre calcolata la percentuale massima di inibizione per ogni inibitore. Infine sono stati eseguiti studi di tempo-dipendenza. I risultati ottenuti da questi studi hanno permesso di correlare i livelli di acetilazione delle varie classi istoniche con la selettività d’azione e la struttura chimica degli inibitori somministrati alle cellule. In particolare, SAHA e MC1855, inibitori delle HDAC di classi I e II a struttura idrossamica, hanno causato l’iperacetilazione di tutte le proteine istoniche, mentre MC1568 (inibitore selettivo per HDAC di classe II) ha prodotto l’iperacetilazione solo di H4. Inoltre la potenza e la selettività degli inibitori nel provocare un aumento dei livelli di acetilazione a livello delle distinte classi istoniche è stata correlata al destino biologico della cellula, tramite studi di vitalità cellulare. E’ stato osservato che il SAHA e MC1855, inibitori potenti e non selettivi, somministrati alla coltura HT29 a dose 50 μM producono morte cellulare, mentre MS275 alla stessa dose produce accumulo citostatico in G1/G0. MC1568, invece, non produce effetti significatici sul ciclo cellulare. Questo studio ha perciò dimostrato che l’analisi tramite HPLC-ESI-MS delle proteine istoniche permette di caratterizzare finemente la potenza e la selettività di nuovi composti inibitori delle HDAC, prevedendone l’effetto sul ciclo cellulare. In maggiore dettaglio è risultato che l’iperacetilazione di H4 non è in grado di provocare modifiche significative sul ciclo cellulare. Questo metodo, insieme alle analisi MALDI-TOF e LC-ESI-MSMS che permettono di individuare l’ordine di acetilazione delle lisine della coda N-terminale, potrà fornire importanti informazioni sugli inibitori delle HDAC e potrà essere applicato per delineare la potenza, la selettività e il meccanismo di azione di nuovi potenziali inibitori di questa classe enzimatica in colture cellulari tumorali.