294 resultados para Condizioni rischio idraulico Ravenna
Resumo:
OBIETTIVI: Per esplorare il contributo dei fattori di rischio biomeccanico, ripetitività (hand activity level – HAL) e forza manuale (peak force - PF), nell’insorgenza della sindrome del tunnel carpale (STC), abbiamo studiato un’ampia coorte di lavoratori dell’industria, utilizzando come riferimento il valore limite di soglia (TLV©) dell’American Conference of Governmental Industrial Hygienists (ACGIH). METODI: La coorte è stata osservata dal 2000 al 2011. Abbiamo classificato l’esposizione professionale rispetto al limite di azione (AL) e al TLV dell’ACGIH in: “accettabile” (sotto AL), “intermedia” (tra AL e TLV) e “inaccettabile” (sopra TLV). Abbiamo considerato due definizioni di caso: 1) sintomi di STC; 2) sintomi e positività allo studio di conduzione nervosa (SCN). Abbiamo applicato modelli di regressione di Poisson aggiustati per sesso, età, indice di massa corporea e presenza di patologie predisponenti la malattia. RISULTATI: Nell’intera coorte (1710 lavoratori) abbiamo trovato un tasso di incidenza (IR) di sintomi di STC di 4.1 per 100 anni-persona; un IR di STC confermata dallo SCN di 1.3 per 100 anni-persona. Gli esposti “sopra TLV” presentano un rischio di sviluppare sintomi di STC di 1.76 rispetto agli esposti “sotto AL”. Un andamento simile è emerso per la seconda definizione di caso [incidence rate ratios (IRR) “sopra TLV”, 1.37 (intervallo di confidenza al 95% (IC95%) 0.84–2.23)]. Gli esposti a “carico intermedio” risultano a maggior rischio per la STC [IRR per i sintomi, 3.31 (IC95% 2.39–4.59); IRR per sintomi e SCN positivo, 2.56 (IC95% 1.47–4.43)]. Abbiamo osservato una maggior forza di associazione tra HAL e la STC. CONCLUSIONI: Abbiamo trovato un aumento di rischio di sviluppare la STC all’aumentare del carico biomeccanico: l’aumento di rischio osservato già per gli esposti a “carico intermedio” suggerisce che gli attuali valori limite potrebbero non essere sufficientemente protettivi per alcuni lavoratori. Interventi di prevenzione vanno orientati verso attività manuali ripetitive.
Resumo:
La maggior parte dei pazienti che vengono sottoposti a interventi chirurgici per tumori solidi hanno un’età superiore a 70 anni1. Circa il 30% di questi pazienti vengono considerati “fragili”. Questi infatti presentano numerose comorbidità ed hanno un più elevato rischio di sviluppare complicanze postoperatorie con perdita della riserva funzionale residua. Per questo non esistono sistemi semplici di screening che permettano ai medici responsabili del trattamento di identificare questi pazienti con aumentato rischio postoperatorio. Identificare i pazienti a rischio è infatti il primo passo nel processo attraverso il quale è possibile prevenire in necessarie complicanze postoperatorie come delirio, eventi cardiovascolari e perdita della funzionalità complessiva con conseguente perdita di autonomia. Scopo di questo studio è quello di confrontare l’accuratezza nella previsione di mortalità e morbidità a 30 giorni dei tre test preditivi “Groningen Frailty Index” (GFI); “Vulnerable Elders Survey” (VES-13); “timed up and go test” con alcune componenti del Preoperative Assessment of Cancer in the Elderly (PACE). Lo studio verrà effettuato sui pazienti con età maggiore di 70 anni che dovranno essere sottoposti a intervento chirurgico in anestesia generale per la presenza di una neoplasia solida.
Resumo:
La tesi affronta il concetto di esposizione al rischio occupazionale e il suo scopo è quello di indagare l’ambiente di lavoro e il comportamento dei lavoratori, con l'obiettivo di ridurre il tasso di incidenza degli infortuni sul lavoro ed eseguire la riduzione dei rischi. In primo luogo, è proposta una nuova metodologia denominata MIMOSA (Methodology for the Implementation and Monitoring of Occupational SAfety), che quantifica il livello di "salute e sicurezza" di una qualsiasi impresa. Al fine di raggiungere l’obiettivo si è reso necessario un approccio multidisciplinare in cui concetti d’ingegneria e di psicologia sono stati combinati per sviluppare una metodologia di previsione degli incidenti e di miglioramento della sicurezza sul lavoro. I risultati della sperimentazione di MIMOSA hanno spinto all'uso della Logica Fuzzy nel settore della sicurezza occupazionale per migliorare la metodologia stessa e per superare i problemi riscontrati nell’incertezza della raccolta dei dati. La letteratura mostra che i fattori umani, la percezione del rischio e il comportamento dei lavoratori in relazione al rischio percepito, hanno un ruolo molto importante nella comparsa degli incidenti. Questa considerazione ha portato ad un nuovo approccio e ad una seconda metodologia che consiste nella prevenzione di incidenti, non solo sulla base dell'analisi delle loro dinamiche passate. Infatti la metodologia considera la valutazione di un indice basato sui comportamenti proattivi dei lavoratori e sui danni potenziali degli eventi incidentali evitati. L'innovazione consiste nell'applicazione della Logica Fuzzy per tener conto dell’"indeterminatezza" del comportamento umano e del suo linguaggio naturale. In particolare l’applicazione è incentrata sulla proattività dei lavoratori e si prefigge di impedire l'evento "infortunio", grazie alla generazione di una sorta d’indicatore di anticipo. Questa procedura è stata testata su un’azienda petrolchimica italiana.
Resumo:
A fronte dal recepimento del direttiva SHR nel nostro ordinamento, realizzato dal d.lgs. 27/2010, il presente lavoro si propone anzitutto di analizzare l'attuale ruolo della delega di voto - sollecitata e non - per poi verificare quale sia l'interesse concretamente sotteso a un voto così esercitato, con particolare attenzione alla sollecitazione di deleghe di voto, oggi destinata espressamente (per la prevalente dottrina) a consentire al promotore il perseguimento di interessi propri. Le considerazioni riguardo all'interesse concretamente sotteso al voto esercitato per delega portano a vagliarne la rilevanza ai fini della nozione di controllo, ex art. 2359 c.c., la quale esclude espressamente dai voti rilevanti esclusivamente quelli esercitati "per conto terzi", e non, dunque, anche quelli esercitati nell'interesse proprio da un soggetto non titolare della partecipazione. Viene quindi affrontata la principale critica ad un controllo raggiunto per tale via e, più in generale, attraverso una delle varie forme di dissociazione tra titolarità della partecipazione e legittimazione all'esercizio del voto ad essa relativo, ovvero la apparente mancanza di stabilità. Considerando tuttavia che ogni ipotesi di controllo c.d. di fatto per definizione non gode di stabilità se non si scelga di ammettere una valutazione di tale requisito necessariamente prognostica ed ex ante, si giunge alla conclusione che la fattispecie di un controllo acquisito tramite sollecitazione di deleghe si distingue da altre ipotesi di controllo di fatto esclusivamente per la maggiore difficoltà dell'accertamento in fatto del requisito della stabilità. Si affronta infine la possibilità di garantire il diritto di exit (ovvero una tutela risarcitoria) del socio di minoranza che veda modificate le condizioni di rischio del proprio investimento a causa di una modifica del soggetto controllante derivante da sollecitazione di deleghe, tramite applicazione diretta della disciplina OPA ovvero riconducendo la fattispecie all'art. 2497quater, lett. d, ove ne ricorrano i presupposti.
Resumo:
Tra il V ed il VI secolo, la città di Ravenna, per tre volte capitale, emerge fra i più significativi centri dell’impero, fungendo da cerniera tra Oriente e Occidente, soprattutto grazie ai mosaici parietali degli edifici di culto, perfettamente inseriti in una koinè culturale e artistica che ha come comune denominatore il Mar Mediterraneo, nel contesto di parallele vicende storiche e politiche. Rispetto ai ben noti e splendidi mosaici ravennati, che insieme costituiscono senza dubbio un unicum nel panorama artistico dell’età tardoantica e altomedievale, nelle decorazioni musive parietali dei coevi edifici di culto dei diversi centri dell’impero d’Occidente e d’Oriente, e in particolare in quelli localizzati nelle aree costiere, si possono cogliere divergenze, ma anche simmetrie dal punto di vista iconografico, iconologico e stilistico. Sulla base della letteratura scientifica e attraverso un poliedrico esame delle superfici musive parietali, basato su una metodologia interdisciplinare, si è cercato di chiarire l’articolato quadro di relazioni culturali, ideologiche ed artistiche che hanno interessato e interessano tuttora Ravenna e i vari centri della tarda antichità, insistendo sulla pluralità, sulla complessità e sulla confluenza di diverse esperienze artistiche sui mosaici di Ravenna. A tale scopo, i dati archeologici e artistici sono stati integrati con quelli storici, agiografici ed epigrafici, con opportuni collegamenti all’architettura, alla scultura, alle arti decorative e alle miniature, a testimonianza dell’unità di intenti di differenti media artistici, orientati, pur nella diversità, verso le medesime finalità dogmatiche, politiche e celebrative. Si tratta dunque di uno studio di revisione e di sintesi sui mosaici parietali mediterranei di V e VI secolo, allo scopo di aggiungere un nuovo tassello alla già pur vasta letteratura dedicata all’argomento.
Resumo:
Introduzione. Il rapido e globale incremento dell’utilizzo dei telefoni cellulari da parte degli adolescenti e dei bambini ha generato un considerevole interesse circa i possibili effetti sulla salute dell’esposizione a campi elettromagnetici a radiofrequenza. Perciò è stato avviato lo studio internazionale caso-controllo Mobi-kids, all’interno del quale si colloca quello italiano condotto in 4 Regioni (Piemonte, Lombardia, Toscana, Emilia-Romagna). Obiettivi. Lo studio ha come obiettivo quello di valutare la stima del rischio degli effetti potenzialmente avversi di queste esposizioni sul sistema nervoso centrale nei bambini e negli adolescenti. Materiali e Metodi. La popolazione include tutte le persone di età compresa tra 10 e 24 anni residenti nelle 4 Regioni, con una diagnosi confermata di neoplasia cerebrale primitiva, diagnosticata durante il periodo di studio (3 anni). Sono stati selezionati due controlli - ospedalizzati per appendicite acuta - per ciascun caso. I controlli sono stati appaiati individualmente a ciascun caso per età, sesso e residenza del caso. Risultati. In Italia sono stati intervistati a Giugno 2014, 106 casi e 191 controlli. In Emilia-Romagna i casi reclutati sono stati fino ad ora 21 e i controlli 20, con una rispondenza del’81% e dell’65% rispettivamente. Dei 41 soggetti totali, il 61% era di sesso maschile con un’età media generale pari a 16,5 (±4,5) anni. Inoltre il 44% degli intervistati proveniva dalla classe di età più giovane (10-14). In merito allo stato di appaiamento, nella nostra Regione sono state effettuate 7 triplette (33%) - 1 caso e 2 controlli - e 6 doppiette (29%) - 1 caso ed 1 controllo. Conclusioni. Nonostante le varie difficoltà affrontate data la natura del progetto, l’esperienza maturata fin ad ora ha comunque portato alla fattibilità dello studio e porterà probabilmente a risultati che contribuiranno alla comprensione dei potenziali rischi di neoplasie cerebrali associati all'uso di telefoni cellulari tra i giovani.
Resumo:
Coastal sand dunes represent a richness first of all in terms of defense from the sea storms waves and the saltwater ingression; moreover these morphological elements constitute an unique ecosystem of transition between the sea and the land environment. The research about dune system is a strong part of the coastal sciences, since the last century. Nowadays this branch have assumed even more importance for two reasons: on one side the born of brand new technologies, especially related to the Remote Sensing, have increased the researcher possibilities; on the other side the intense urbanization of these days have strongly limited the dune possibilities of development and fragmented what was remaining from the last century. This is particularly true in the Ravenna area, where the industrialization united to the touristic economy and an intense subsidence, have left only few dune ridges residual still active. In this work three different foredune ridges, along the Ravenna coast, have been studied with Laser Scanner technology. This research didn’t limit to analyze volume or spatial difference, but try also to find new ways and new features to monitor this environment. Moreover the author planned a series of test to validate data from Terrestrial Laser Scanner (TLS), with the additional aim of finalize a methodology to test 3D survey accuracy. Data acquired by TLS were then applied on one hand to test some brand new applications, such as Digital Shore Line Analysis System (DSAS) and Computational Fluid Dynamics (CFD), to prove their efficacy in this field; on the other hand the author used TLS data to find any correlation with meteorological indexes (Forcing Factors), linked to sea and wind (Fryberger's method) applying statistical tools, such as the Principal Component Analysis (PCA).
Resumo:
L'interrogativo da cui nasce la ricerca riguarda la possibilità di individuare, in controtendenza con la logica neoliberista, strategie per l'affermarsi di una cultura dello sviluppo che sia sostenibile per l'ambiente e rispettosa della dignità delle persone, in grado di valorizzarne le differenze e di farsi carico delle difficoltà che ognuno può incontrare nel corso della propria esistenza. Centrale è il tema del lavoro, aspetto decisivo delle condizioni di appartenenza sociale e di valorizzazione delle risorse umane. Vengono richiamati studi sulla realtà in cui siamo immersi, caratterizzata dal pensiero liberista diventato negli ultimi decenni dominante su scala globale e che ha comportato una concezione delle relazioni sociali basata su di una competitività esasperata e sull’esclusione di chi non sta al passo con le leggi di mercato: le conseguenze drammatiche dell'imbroglio liberista; la riduzione delle persone a consumatori; la fuga dalla comunità ed il rifugio in identità separate; il tempo del rischio, della paura e della separazione fra etica e affari. E gli studi che, in controtendenza, introducono a prospettive di ricerca di uno sviluppo inclusivo e umanizzante: le prospettive della decrescita, del business sociale, di una via cristiana verso un'economia giusta, della valorizzazione delle capacità delle risorse umane. Vengono poi indagati i collegamenti con le esperienze attive nel territorio della città di Bologna che promuovono, attraverso la collaborazione fra istituzioni, organizzazioni intermedie e cittadini, occasioni di un welfare comunitario che sviluppa competenze e diritti insieme a responsabilità: l'introduzione delle clausole sociali negli appalti pubblici per la realizzazione professionale delle persone svantaggiate; la promozione della responsabilità sociale d'impresa per l'inclusione socio-lavorativa; la valorizzazione delle risorse delle persone che vivono un’esperienza carceraria. Si tratta di esperienze ancora limitate, ma possono costituire un riferimento culturale e operativo di un modello di sviluppo possibile, che convenga a tutti, compatibile con i limiti ambientali e umanizzante.
Resumo:
Durante il periodo di dottorato, l’attività di ricerca di cui mi sono occupato è stata finalizzata allo sviluppo di metodologie per la diagnostica e l’analisi delle prestazioni di un motore automobilistico. Un primo filone di ricerca è relativo allo sviluppo di strategie per l’identificazione delle mancate combustioni (misfires) in un motore a benzina. La sperimentazione si è svolta nella sala prove della Facoltà di Ingegneria dell’Università di Bologna, nei quali è presente un motore Fiat 1.200 Fire, accoppiato ad un freno a correnti parassite, e comandato da una centralina virtuale, creata mediante un modello Simulink, ed interfacciata al motore tramite una scheda di input/output dSpace. Per quanto riguarda la campagna sperimentale, sono stati realizzati delle prove al banco in diverse condizioni di funzionamento (sia stazionarie, che transitorie), durante le quali sono stati indotti dei misfires, sia singoli che multipli. Durante tali test sono stati registrati i segnali provenienti sia dalla ruota fonica usata per il controllo motore (che, nel caso in esame, era affacciata al volano), sia da quella collegata al freno a correnti parassite. Partendo da tali segnali, ed utilizzando un modello torsionale del sistema motoregiunto-freno, è possibile ottenere una stima sia della coppia motrice erogata dal motore, sia della coppia resistente dissipata dal freno. La prontezza di risposta di tali osservatori è tale da garantirci la possibilità di effettuare una diagnosi misfire. In particolare, si è visto che l’indice meglio correlato ala mancata combustione risultaessere la differenza fra la coppia motrice e la coppia resistente; tale indice risulta inoltre essere quello più semplice da calibrare sperimentalmente, in quanto non dipende dalle caratteristiche del giunto, ma solamente dalle inerzie del sistema. Una seconda attività della quale mi sono occupato è relativa alla stima della coppia indicata in un motore diesel automobilistico. A tale scopo, è stata realizzata una campagna sperimentale presso i laboratori della Magneti Marelli Powertrain (Bologna), nella quale sono state effettuati test in molteplici punti motori, sia in condizioni di funzionamento “nominale”, sia variando artificiosamente alcuni dei fattori di controllo (quali Start of Injection, pressione nel rail e, nei punti ove è stato possibile, tasso di EGR e pressione di sovralimentazione), sia effettuando degli sbilanciamenti di combustibile fra un cilindro e l’altro. Utilizzando il solo segnale proveniente da una ruota fonica posta sul lato motore, e sfruttando un modello torsionale simile a quello utilizzato nella campagna di prove relativa alla diagnosi del misfire, è possibile correlare la componente armonica con frequenza di combustione della velocità all’armonica di pari ordine della coppia indicata; una volta stimata tale componente in frequenza, mediante un’analisi di tipo statistico, è possibile eseguire una stima della coppia indicata erogata dal motore. A completamento dell’algoritmo, sfruttando l’analisi delle altre componenti armoniche presenti nel segnale, è possibile avere una stima dello sbilanciamento di coppia fra i vari cilindri. Per la verifica dei risultati ottenuti, sono stati acquisiti i segnali di pressione provenienti da tutti e quattro i cilindri del motore in esame.
Resumo:
La terapia di resincronizzazione cardiaca (TRC) è un presidio non farmacologico che riduce la mortalità e la morbosità nei pazienti con scompenso refrattario alla terapia medica. La maggior parte dei dati riguardanti gli effetti della TRC coinvolgono i pazienti con le indicazioni consolidate seguenti: classe NYHA III-IV, ritardo della conduzione ventricolare (QRS>opp= 20 msec), disfunzione sistolica ventricolare sinistra (frazione di eiezione ventricolare sinistra >opp= 35%) e ritmo sinusale (RS). Mentre è noto che la fibrillazione atriale permanente (FA) sia presente in una porzione consistente dei pazienti con scompenso cardiaco, vi sono pochi dati riguardanti la sopravvivenza e gli effetti a lungo-termine della TRC in pazienti con scompenso cardiaco e fibrillazione atriale (FA); la maggior parte degli studi sono osservazionali ed hanno dimostrato che la TRC potrebbe conferire dei benefici a corto e medio termine anche in pazienti con FA permanente. Solo recentemente un ampio studio osservazionale ha descritto che, a lungo-termine, la TRC migliora significativamente la capacità funzionale, la frazione di eiezione e induce il rimodellamento inverso del ventricolo sinistro solamente in quei pazienti con FA dove la TRC viene combinata con l’ablazione del nodo atrio-ventricolare (NAV). La strategia ablativa del NAV infatti conferendo una stimolazione completa e costante, permette di eliminare gli effetti del ritmo spontaneo di FA (ritmo irregolare e tendenzialmente tachicardico) cheinterferisce in maniera importante con la stimolazione biventricolare in particolare durante gli sforzi fisici. Sulla base di queste premesse il presente studio si propone di valutare gli effetti a lungo-termine della TRC su pazienti con scompenso cardiaco e FA permanente focalizzando su due aspetti principali: 1) confrontando la sopravvivenza di pazienti con FA permanente rispetto ai pazienti in RS; 2) confrontando la sopravvivenza di pazienti in FA suddivisi secondo la modalità di controllo della frequenza con somministrazione di farmaci antiaritmici (gruppo FA-farm) oppure mediante controllo ablazione del NAV (gruppo FA-abl). Metodi e risultati: Sono presentati i dati di 1303 pazienti sottoposti consecutivamente ad impianto di dispositivo per la TRC e seguiti per un periodo mediano di 24 mesi. Diciotto pazienti sono stati persi durante il follow-up per cui la popolazione dello studio è rappresentata da una popolazione totale di 1295 pazienti di cui 1042 in RS e 243 (19%) in FA permanente. Nei pazienti con FA il controllo della frequenza cardiaca è stato effettuato mediante la somministrazione di farmaci anti-aritmici (gruppo FA-farm: 125 pazienti) oppure mediante ablazione del NAV (FA-abl: 118 pazienti). Rispetto ai pazienti in RS, i pazienti in FA permanente erano significativamente più vecchi, più spesso presentavano eziologia nonischemica, avevano una frazione di eiezione più elevata al preimpianto, una durata del QRS minore e erano più raramente trattati con un defibrillatore. Lungo un follow-up mediano di 24 mesi, 170/1042 pazienti in RS e 39/243 in FA sono deceduti (l’incidenza di mortalità a 1 anno era di 8,4% e 8,9%, rispettivamente). I rapporti di rischio derivanti dall’analisi multivariata con il 95% dell’intervallo di confidenza (HR, 95% CI) erano simili sia per la morte per tutte le cause che per la morte cardiaca (0.9 [0.57-1.42], p=0.64 e 1.00 [0.60-1.66] p=0.99, rispettivamente). Fra i pazienti con FA, il gruppo FA-abl presentava una durata media del QRS minore ed era meno frequentemente trattato con il defibrillatore impiantabile rispetto al gruppo FA-farm. Soli 11/118 pazienti del FA-abl sono deceduti rispetto a 28/125 nel gruppo FA-farm (mortalità cumulativa a 1 anno di 9,3% e 15,2% rispettivamente, p<0.001), con HR, 95% CI per FA-abl vs FA-farm di 0.15 [0.05-0.43],,p<0.001 per la mortalità per tutte le cause, di 0.18 [0.06-0.57], p=0.004 per la mortalità cardiaca, e di 0.09 [0.02-0.42], p<0.002 per la mortalità da scompenso cardiaco. Conclusioni: I pazienti con scompenso cardiaco e FA permanente trattati con la TRC presentano una simile sopravvivenza a lungo-termine di pazienti in RS. Nei pazienti in FA l’ablazione del NAV in aggiunta alla TRC migliora significativamente la sopravvivenza rispetto alla sola TRC; questo effetto è ottenuto primariamente attraverso una riduzione della morte per scompenso cardiaco.
Resumo:
Il presente lavoro comincia con una descrizione dettagliata del “McMaster Model of Family Functionig” (MMFF), modello che al suo interno integra una teoria multidimensionale sul funzionamento familiare, diversi strumenti di auto ed etero valutazione e chiare indicazioni terapeutiche racchiuse all’interno della “Problem Centered System Therapy of the Family” (PCSTF). Grazie alla sua completezza il Modello fornisce ai clinici metodi coerenti, pratici ed empiricamente validi per valutare e trattare le famiglie, essi inoltre, sono stati formulati in modo da essere adattabili a differenti setting clinici e di ricerca, applicabili ad un’ampia gamma di problematiche e verificabili empiricamente. Obiettivo finale della presente ricerca è stato quello di porre le basi per l’esportazione del MMFF in Italia e poter quindi procedere alla sua applicazione in ambito clinico. La ricerca è cominciata alla Brown University con la traduzione dall’inglese all’italiano del Family Assessment Device (FAD), uno degli strumenti di autovalutazione compresi nel MMFF, ed è in seguito continuata con la validazione del suddetto strumento in un campione di 317 soggetti appartenenti alla popolazione generale italiana. Il FAD si è dimostrato uno strumento valido ed affidabile, in grado quindi di fornire valutazioni stabili e coerenti anche nella sua versione italiana. Il passo successivo è stato caratterizzato dalla somministrazione di FAD, Symptom Questionnaire (SQ) e delle Psychological Well-Being scales (PWB) a 289 soggetti reclutati nella popolazione generale. In accordo con il modello bipsicosociale che vede l’ambiente familiare come il più immediato gruppo di influenza psicosociale dello stato di benessere o malessere dell’individuo, i nostri dati confermano una stretta relazione tra scarso funzionamento familiare, spesso espresso attraverso difficoltà di comunicazione, di problem solving e scarso coinvolgimento affettivo e distress psicologico esperito con sintomi depressivi, ansiogeni ed ostilità. I nostri dati sottoliano inoltre come un funzionamento familiare positivo sia altamente correlato ad elevati livelli di benessere psicologico. Obiettivo della parte finale del lavoro ed anche il più importante, è stato quello di esplorare l’efficacia della Problem Centered Systems Therapy of the Family nella gestione della perdita di efficacia degli antidepressivi nel trattamento della depressione ricorrente. 20 soggetti con diagnosi di depressione maggiore ricorrente secondo il DSM-IV sono stati randomizzati a due diverse condizioni di trattamento: 1) aumento del dosaggio dell’antidepressivo e clinical management, oppure 2) mantenimento dello stesso dosaggio di antidepressivo e PCSTF. I dati di questo studio mettono in evidenza come, nel breve termine, PCSTF e farmacoterapia sono ugualmente efficaci nel ridurre la sintomatologia depressiva. Diversamente, ad un follow-up di 12 mesi, la PCSTF si è dimostrata altamente superiore all’aumento del farmaco ner prevenire le ricadute. Nel gruppo sottoposto all’aumento del farmaco infatti ben 6 soggetti su 7 ricadono entro l’anno. Nel gruppo assegnato a terapia familiare invece solo 1 soggetto su 7 ricade. Questi risultati sono in linea con i dati della letteratura che sottolineano l’elevata probabilità di una seconda ricaduta dopo l’aumento dell’antidepressivo all’interno di una farmacoterapia di mantenimento e suggeriscono l’efficacia dell’utilizzo di strategie psicoterapiche nella prevenzione della ricaduta in pazienti con depressione ricorrente.
Resumo:
L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.
Resumo:
La variabilità genetica è un importante strumento per lo studio e la conservazione della biodiversità in specie rare e minacciate di estinzione. Durante il mio dottorato mi sono quindi occupata di mettere a punto diverse metodologie molecolari al fine di valutare la diversità genetica in due specie rare della flora italiana che presentano problematiche diverse e specifiche. I marcatori arbitrari RAPD e i marcatori semi-arbitrari ISSR sono stati utilizzati per valutare la diversità genetica in Quercus crenata Lam. e per confermare l’ipotesi della sua origine ibridogena dalle due specie presunte parentali Quercus cerris L. e Quercus suber L., essendo Q. crenata presente in Italia settentrionale dove Q. suber è attualmente assente. I marcatori SSR o microsatelliti sono invece stati messi a punto su una specie a rischio di estinzione, endemica dell’Appennino Tosco-Emiliano, Primula apennina Widmer, applicando una metodologia specifica, basata sulla costruzione di una libreria genomica arricchita per l’isolamento di primer specifici. I marcatori RAPD e ISSR, utilizzati su un totale di 85 campioni, hanno mostrato alti livelli di diversità molecolare entro le specie studiate, eccetto per Q. suber le cui popolazioni rappresentano il margine orientale di distribuzione della specie, per questo più sottoposte ad impoverimento genetico. Oltre alla cluster analysis (UPGMA) e alla Analisi delle Componenti Principali effettuate per entrambi i marcatori, che confermano l’ipotesi dell’origine ibrida degli individui di Q. crenata diffusi in Italia Settentrionale, sono stati calcolati l’indice di ibridità basato sul maximum likelihood, che dimostra una introgressione asimmetrica di Q. crenata verso il parentale caratterizzato da superiorità demografica (Q. cerris) e il test di Mantel. Quest’ultimo ha permesso di confrontare i due marcatori RAPD e ISSR utilizzati ottenendo una bassa correlazione, a conferma del fatto che, amplificando tratti differenti del DNA nucleare, i dati non sono sovrapponibili, sebbene forniscano risultati analoghi. Per l’isolamento di loci microsatelliti ipervariabili ho utilizzato il protocolllo FIASCO (Fast isolation by AFLP of sequences containing repeats- Zane et al. 2002) che permette di costruire una libreria genomica arricchita partendo dal DNA estratto da P. apennina. Tale procedura ha previsto la digestione del DNA genomico per la produzione di una miscela di frammenti di DNA. Tramite ibridazione con opportune sonde sono stati isolati i frammenti contenenti i microsatelliti. Sequenziando i cloni ricombinanti, ho ottenuto sequenze contenenti repeats sulle cui regioni fiancheggianti sono stati costruiti 15 coppie di primer che potranno, in seguito, essere utilizzate per definire la quota di riproduzione clonale in P. apennina e per valutare la diversità genetica delle popolazioni che coprono l’areale di distribuzione della specie. Data la loro natura altamente variabile e la loro abbondanza nel DNA, gli SSR saranno, come i marcatori RAPD e gli ISSR, ugualmente validi per lo studio della variabilità genetica e per l’analisi di problematiche specifiche legate alle specie rare.
Resumo:
Negli ultimi anni la longevità è divenuto un argomento di notevole interesse in diversi settori scientifici. Le ricerche volte ad indagare i meccanismi che regolano i fattori della longevità si sono moltiplicate nell’ultimo periodo interessando, in maniera diversa, alcune regioni del territorio italiano. Lo studio presentato nella tesi ha l’obiettivo di identificare eventuali aggregazioni territoriali caratterizzate da una significativa propensione alla longevità nella regione Emilia-Romagna mediante l’impiego di metodologie di clustering spaziale, alcune delle quali di recente implementazione. La popolazione in esame è costituita dagli individui residenti in Emilia- Romagna nel quinquennio 2000-2004 suddivisa in classi di età, sesso e comune. L’analisi è di tipo puramente spaziale, in cui l’unità geografica elementare è identificata dal comune, ed è stata condotta separatamente per i due sessi. L’identificazione delle aree regionali ad elevata longevità è avvenuta utilizzando quattro metodologie di clustering spaziale, basate sulla teoria della massima verosimiglianza, che si differenziano tra loro per la modalità di ricerca dei potenziali clusters. La differenza consiste nella capacità di identificare aggregazioni territoriali di forma regolare (spatial scan statistic, Kulldorff e Nagarwalla,1995; Kulldorff,1997, 1999) o dall’andamento geometrico “libero” (flexible scan statistic, Tango e Takahashi,2005; algoritmo genetico, Duczmal et al.,2007; greedy growth search, Yiannakoulias et al.,2007). Le caratteristiche di ciascuna metodologia consentono, in tal modo, di “catturare” le possibili conformazioni geografiche delle aggregazioni presenti sul territorio e la teoria statistica di base, comune ad esse, consente di effettuare agevolmente un confronto tra i risultati ottenuti. La persistenza di un’area caratterizzata da un’elevata propensione alla longevità consente, infatti, di ritenere il cluster identificato di notevole interesse per approfondimenti successivi. Il criterio utilizzato per la valutazione della persistenza di un cluster è stato derivato dalla teoria dei grafi, con particolare riferimento ai multigrafi. L’idea è confrontare, a parità di parametri di ricerca, i grafi associati alle aggregazioni spaziali identificate con le diverse metodologie attraverso una valutazione delle occorrenze dei collegamenti esistenti tra le coppie di vertici. Alcune valutazioni di carattere demografico ed un esame della letteratura esistente sugli studi di longevità, hanno indotto alla definizione di una classe (aperta) di età per rappresentare il fenomeno nella nostra ricerca: sono stati considerati gli individui con età superiore o uguale a 95 anni (indicata con 95+). La misura di sintesi utilizzata per descrivere il fenomeno è un indicatore specifico di longevità, mutuato dalla demografia, indicato con Centenarian Rate (CR) (Robine e Caselli, 2005). Esso è definito dal rapporto tra la popolazione 95+ e la popolazione residente, nello stesso comune, al censimento del 1961. L’idea alla base del CR è confrontare gli individui longevi di un istante temporale con quelli presenti, nella stessa area, circa 40 anni prima dell’osservazione, ipotizzando che l’effetto migratorio di una popolazione possa ritenersi trascurabile oltre i 60 anni di età. La propensione alla longevità coinvolge in maniera diversa le aree del territorio dell’Emilia-Romagna. Le province della regione caratterizzate da una maggiore longevità sono Bologna, Ravenna e parte di Forlì-Cesena mentre la provincia di Ferrara si distingue per un livello ridotto del fenomeno. La distinzione per sesso non appare netta: gli uomini con età 95+, numericamente inferiori alle donne, risiedono principalmente nei comuni delle province di Bologna e Ravenna, con qualche estensione nel territorio forlivese, analogamente a quanto accade per la popolazione femminile che mostra, tuttavia, una maggiore prevalenza nei territori di Bologna e Forlì-Cesena, includendo alcune aree del riminese. Le province occidentali della regione, invece, non risultano interessate significativamente da questo fenomeno. Le metodologie di cluster detection utilizzate nello studio hanno prodotto risultati pressoché simili seppur con criteri di ricerca differenti. La spatial scan statistic si conferma una metodologia efficace e veloce ma il vincolo geometrico regolare imposto al cluster condiziona il suo utilizzo, rivelando una scarsa adattabilità nell’identificazione di aggregazioni irregolari. La metodologia FSC ha evidenziato buone capacità di ricerca e velocità di esecuzione, completata da una descrizione chiara e dettagliata dei risultati e dalla possibilità di poter visualizzare graficamente i clusters finali, anche se con un livello minimo di dettaglio. Il limite principale della metodologia è la dimensione ridotta del cluster finale: l’eccessivo impegno computazionale richiesto dalla procedura induce a fissare il limite massimo al di sotto delle 30 aree, rendendola così utilizzabile solo nelle indagini in cui si ipotizza un’estensione limitata del fenomeno sul territorio. L’algoritmo genetico GA si rivela efficace nell’identificazione di clusters di qualsiasi forma ed estensione, seppur con una velocità di esecuzione inferiore rispetto alle procedure finora descritte. Senza un’adeguata selezione dei parametri di ricerca,la procedura può individuare clusters molto irregolari ed estesi, consigliando l’uso di penalizzazione non nulla in fase di ricerca. La scelta dei parametri di ricerca non è comunque agevole ed immediata e, spesso, è lasciata all’esperienza del ricercatore. Questo modo di procedere, in aggiunta alla mancanza di informazioni a priori sul fenomeno, aumenta il grado di soggettività introdotto nella selezione dei parametri influenzando i risultati finali. Infine, la metodologia GGS richiede un carico computazionale nettamente superiore rispetto a quello necessario per le altre metodologie utilizzate e l’introduzione di due parametri di controllo favorisce una maggiore arbitrarietà nella selezione dei valori di ricerca adeguati; inoltre, la recente implementazione della procedura e la mancanza di studi su dati reali inducono ad effettuare un numero maggiore di prove durante la fase di ricerca dei clusters.
Resumo:
Nel presente lavoro di tesi sono state messe a confronto le ATP sintasi wild-type e γM23-K in cromatofori del batterio fotosintetico Rhodobacter capsulatus sotto gli aspetti funzionale e regolatorio. Si pensava inizialmente che la mutazione, in base a studi riportati in letteratura condotti sull’omologa mutazione in E. coli, avrebbe indotto disaccoppiamento intrinseco nell’enzima. Il presente lavoro ha chiarito che il principale effetto della mutazione è un significativo aumento dell’affinità dell’enzima per l’ADP inibitorio, che ne determina il ridotto livello di ATP idrolisi e la rapidissima reinattivazione in seguito ad attivazione da forza protonmotiva. Il residuo 23 della subunità γ si trova posizionato in prossimità della regione conservata DEELSED carica negativamente della subunità β, e l’introduzione nel mutante di una ulteriore carica positiva potrebbe determinare una maggiore richiesta di energia per indurre l’apertura del sito catalitico. Un’analisi quantitativa dei dati di proton pumping condotta mediante inibizione parziale dell’idrolisi del wildtype ha inoltre mostrato come il grado di accoppiamento del mutante in condizioni standard non differisca sostanzialmente da quello del wild-type. D’altro canto, è stato recentemente osservato come un disaccoppiamento intrinseco possa venire osservato in condizioni opportune anche nel wild-type, e cioè a basse concentrazioni di ADP e Pi. Nel presente lavoro di tesi si è dimostrato come nel mutante l’osservazione del fenomeno del disaccoppiamento intrinseco sia facilitata rispetto al wild-type. È stato proprio nell’ambito delle misure condotte sul mutante che è stato possibile dimostrare per la prima volta il ruolo fondamentale della componente elettrica della forza protonmotiva nel mantenere lo stato enzimatico ad elevato accoppiamento. Tale ruolo è stato successivamente messo in luce anche nel wild-type, in parte anche grazie all’uso di inibitori specifici di F1 e di FO. Il disaccoppiamento intrinseco nel wild-type è stato ulteriormente esaminato anche nella sua dipendenza dalla rimozione di ADP e Pi; in particolare, oltre all’amina fluorescente ACMA, è stata utilizzata come sonda di ΔpH anche la 9-aminoacridina e come sonda di Δψ l’Oxonolo VI. In entrambi i casi il ruolo accoppiante di questi due ligandi è stato confermato, inoltre utilizzando la 9-aminoacridina è stato possibile calibrare il segnale di fluorescenza con salti acido-base, dando quindi una base quantitativa ai dati ottenuti. Noi riteniamo che il più probabile candidato strutturale coinvolto in questi cambiamenti di stato enzimatici sia la subunità ε, di cui è noto il coinvolgimento in processi di regolazione e in cambiamenti strutturali indotti da nucleotidi e dalla forza protonmotiva. In collaborazione con il Dipartimento di Chimica Fisica dell’Università di Friburgo è in atto un progetto per studiare i cambiamenti strutturali presumibilmente associati al disaccoppiamento intrinseco tramite FRET in singola molecola di complessi ATP-sintasici marcati con fluorofori sia sulla subunità ε che sulla subunità γ. Nell’ambito di questa tesi sono stati creati a questo fine alcuni doppi mutanti cisteinici ed è stato messo a punto un protocollo per la loro marcatura con sonde fluorescenti.