15 resultados para Mortalité proportionnelle

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I fattori che, nei primi anni dell'aviazione, contribuivano al verificarsi o meno di una sciagura aerea erano principalmente di natura meccanica, mentre oggi la maggior parte degli incidenti è attribuibile all’errore umano. Nel corso del tempo sono stati sviluppati modelli per l’analisi del fattore umano ed ha assunto un ruolo fondamentale lo studio del crashworthiness allo scopo di sviluppare tecnologie che contribuiscano alla riduzione di incidenti aerei e del tasso di mortalità. In questo studio è stata analizzata la resistenza della fusoliera di un aliante DG-100G Elan nelle principali tipologie di impatto. Le statistiche evidenziano, come cause principali di incidente, la caduta in vite e lo stallo in prossimità del suolo. Dall’analisi dei risultati ottenuti con la configurazione di base dell’aliante è stata delineata una possibile modifica per migliorarne la resistenza ad impatto. Obiettivo dello studio è la verifica in prima approssimazione della bontà o meno dei risultati ottenuti attraverso l’introduzione delle modifiche, valutando la differenza di quest’ultimi fra le due configurazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il BPA è un composto aromatico precursore di materiali plastici e additivi chimici, ed è entrato a far parte della categoria dei contaminanti che alterano il sistema endocrino con molteplici effetti negativi sulla salute umana (azione di mimesi estrogenica, alterazioni della funzione tiroidea e dei sistemi riproduttivo, nervoso ed immunitario). Nella fase produttiva industriale si hanno emissioni accidentali di BPA durante il trattamento e la lavorazione dei monomeri plastici. Piccole frazioni di BPA possono essere ingerite dall’uomo poiché la sostanza migra nel tempo dal contenitore alimentare al contenuto (es. bevanda in lattina o contenitore per microonde) soprattutto se esposto ad alte temperature. Anche il contatto con composti acidi o basici, la presenza di elevati livelli di cloruro di sodio o di oli vegetali, è in grado di provocare un incremento del rilascio di BPA dai materiali polimerici. Il BPA viene rilasciato dai biberon in policarbonato, che in molti Paesi sono stati ritirati dal commercio nel 2011, e da bottiglie di acqua riutilizzabili. Infine, la carta termica degli scontrini e delle fotocopie rilasciano BPA. Nell’adulto la tossicità del BPA sembra modesta, tuttavia l'esposizione nel feto e nel neonato può risultare deleteria. Al di là della tossicità, l'aspetto che al momento preoccupa maggiormente è l'effetto che il BPA ha anche a basse dosi sul metabolismo: diversi studi in tutto il mondo correlano questa sostanza all'incidenza di diabete, ipertensione, obesità e problemi cardiaci. L’attenzione per il BPA è piuttosto recente a livello umano, mentre è assai ridotta per la salute dell’ecosistema. Tuttavia è noto che il BPA è presente anche come contaminante dei suoli, e pur essendo stato documentato il suo bioaccumulo negli organismi vegetali, non sono disponibili informazioni precedenti relativi agli effetti del BPA sugli organismi animali del suolo, in linea con il fatto che il suolo è stato una matrice ambientale molto trascurata. Il presente lavoro di tesi quindi si pone come uno studio pilota per valutare la possibile tossicità del BPA su organismi modello che vivono in questa matrice. In questo studio è stato scelto come bioindicatore “sentinella” il lombrico Eisenia andrei, il comune verme rosso, come suggeriscono le linee guida internazionali (OECD, OCSE). I possibili effetti biologici del Bisfenolo A nei lombrichi sono stati indagati sia attraverso endpoint del ciclo vitale (accrescimento, riproduzione e mortalità), sia attraverso una batteria di biomarker (generali e specifici). Data la mancanza di osservazioni precedenti si è scelto un approccio integrato tra i parametri del ciclo vitale, in genere meno sensibili ma ecologicamente più rilevanti, e i biomarker, risposte più sensibili che possono rappresentare segnali precoci di allarme inerenti l’esposizione a contaminanti ambientali o l’effetto di questi ultimi sugli organismi indagati, ma non necessariamente predittivi sulla salute della comunità. Al momento non esistono batterie di biomarker specifiche per questa sostanza, quindi un ulteriore scopo della ricerca è stato quello di evidenziare biomarker utili ad indagare eventuali alterazioni biochimiche e funzionali nei lombrichi in risposta all’esposizione a dosi crescenti di bisfenolo A. Le risposte biologiche indagate sono: - la diminuzione della stabilità delle membrane lisosomiali, che indica una riduzione dello stato di salute generale degli organismi; - l’alterazione dell’attività degli enzimi catalasi e glutatione-S-trasferasi, indice di stress ossidativo o induzione di meccanismi di detossificazione; - la diminuzione dell’attività dell’enzima acetilcolinesterasi, la quale indica neurotossicità; - l’accumulo di lipofuscine o lipidi neutri, che è sintomo rispettivamente di stress ossidativo o alterazioni del metabolismo; - la variazione della malondialdeide, composto intermedio della perossidazione lipidica, indica un stress ossidativo in corso. Sulla base dei dati ottenuti possiamo dire che il BPA, alle concentrazioni ambientali, non costituisce un elemento di rischio ecologico per gli organismi sentinella Eisenia andrei. Alle concentrazioni più elevate (che superano quelle ambientali di almeno 10 volte) si osservano delle alterazioni sui livelli di lipidi neutri e lipofuscine che pur non essendo preoccupanti dal punto di vista ecologico sono indice di vulnerabilità, dato che si tratta di alterazioni del metabolismo in conseguenza delle quali gli animali accumulano residui normalmente degradati a livello lisosomiale. Questo accumulo nei lisosomi delle cellule del tessuto cloragogeno dei vermi, che rivestono il tubo digerente, sembrano indicare una esposizione attraverso la dieta a seguito della ingestione del terreno. E’interessante il fatto che l’accumulo di lipidi è in linea con le caratteristiche obesogene del BPA, ben manifestate nei mammiferi, uomo compreso. Tuttavia non ci sono ancora conoscenze sufficienti per stabilire se questo accumulo nei vermi sia dovuto ad una specifica alterazione degli enzimi di sintesi dei lipidi oppure più genericamente ad un aumento dello stress ossidativo. Molti studi stanno valutando la capacità del BPA di alterare la sintesi e il rilascio di lipidi in cellule umane e di ratto, ma non ci sono ancora studi di questo tipo per gli organismi edafici. E’ auspicabile che questo aspetto venga approfondito, ed eventualmente venga identificato un nuovo biomarker specifico dell’azione del BPA sull’accumulo di lipidi. Un altro aspetto che sarà interessante approfondire è il bioaccumulo: la valutazione del rischio ecotossicologico di una sostanza si basa anche sul potenziale di BCF che può essere pericoloso per il biota (incluso l’uomo) per trasferimento nella catena trofica. Considerando che non esistono ancora studi specifici del bioaccumulo del BPA in organismi del suolo, ed avendo messo in luce che l’assunzione della sostanza è avvenuta (probabilmente per via alimentare) ci si pone l’obiettivo futuro di valutare questo parametro nei lombrichi, in modo da avere un quadro più ampio degli effetti associati a questo interferente endocrino nei suoli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La carbamazepina fu commercializzata a partire dagli anni Sessanta; è un analgesico anticonvulsivante e specifico per la nevralgia del trigemino ed è uno dei principali farmaci usati nel trattamento dell’epilessia. La sua azione più nota a livello del sistema nervoso è quella di rallentare il recupero dei canali al sodio, sebbene abbia anche effetti metabolici importanti interferendo con il ciclo degli inositoli e con la GSK-3 (glicogeno sintasi-chinasi 3). Tale sostanza è sotto la lente d’ingrandimento sia per le sue caratteristiche chimico-fisiche (vedi la sua alta persistenza in ambiente) sia per la sua alta tossicità per la salute umana. Le sue proprietà terapeutiche spesso sono accompagnate da effetti collaterali sia nei pazienti che assumono direttamente il medicinale, sia negli organismi non-bersaglio che vengono a contatto con i residui ed i metaboliti del farmaco in ambiente. Le principali fonti di contaminazione dell’ambiente sono rappresentate dagli scarichi domestici, urbani, ospedalieri ed industriali e dagli effluenti di impianti di depurazione. Inoltre, l’uso irriguo di acque contenenti residui del farmaco oppure fenomeni di esondazione di corpi idrici contaminati contribuiscono ampiamente alla distribuzione di questo composto nei suoli. La matrice suolo ha avuto relativamente poca attenzione per quanto riguarda gli effetti dell’inquinamento sugli organismi in generale, ed in particolare non vi sono studi sui farmaci. Il presupposto di questo studio dunque è stato quello di mettere a punto una metodologia volta a valutare gli effetti all’esposizione del farmaco carbamazepina su organismi bioindicatori, i lombrichi della specie Eisenia andrei. Il seguente progetto è durato da Maggio 2012 a Febbraio 2013, periodo in cui sono stati effettuati saggi sub cronici per valutare l’effetto di suoli sperimentalmente contaminati con il farmaco sui parametri del ciclo vitale del lombrico (accrescimento, mortalità e riproduzione) e su una serie di biomarker cellulari (neutral red retention assay, accumulo lisosomiale di lipofuscine, accumulo lisosomiale di lipidi neutri insaturi, attività dell’enzima acetilcolinsterasi, attività dell’enzima catalasi, attività dell’ enzima glutatione-S-transferasi e concentrazione di malondialdeide). I risultati ottenuti mostrano che la carbamazepina non ha effetti sui parametri del ciclo vitale. Per quanto riguarda i parametri fisiologici si notano tuttavia dei risultati diversi. L’accumulo lisosomiale di lipofuscine e lipidi neutri indica che il metabolismo dei vermi risulta in qualche modo alterato dall’esposizione alla carbamazepina alle concentrazioni saggiate. Queste alterazioni potrebbero essere spiegate da un effetto di tipo ossidante; infatti i due biomarker oltre a rappresentare un segnale di alterazione metabolica rappresentano anche un indicazione di perossidazione lipidica. Queste osservazioni meritano di essere approfondite studiando il bioaccumulo e la degradazione della carbamazepina nei suoli, che potrebbero essere alla base della diversità di risultati rispetto alla tossicità evidenziata negli organismi acquatici. A fronte della consapevolezza dei rischi potenziali dovuti alla presenza di farmaci nelle acque e nel suolo, molto resta da fare per ampliare le conoscenze su questa tipologia di contaminazione, in particolare nei campi del monitoraggio e del comportamento ambientale, degli studi ecotossicologici e delle procedure e tecnologie idonee a limitare la loro immissione nell’ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel 2011 si sono registrati in Italia 205.638 incidenti stradali con lesioni a persone. Il numero dei morti (entro il 30° giorno) è stato di 3.860, quello dei feriti ammonta a 292.019.Rispetto all’obiettivo fissato dall’Unione Europea nel Libro Bianco del 2001, che prevedeva la riduzione della mortalità del 50% entro il 2010, benché sia vicina a questo traguardo, l’Italia non ha ancora raggiunto tale livello (Figura I.1). Sulle strade urbane si sono verificati 157.023 incidenti, con 213.001 feriti e 1.744 morti. Sulle Autostrade gli incidenti sono stati 11.007, con 18.515 feriti e 338 decessi. Sulle altre strade extraurbane, ad esclusione delle Autostrade, si sono verificati 37.608 incidenti, con 65.503 feriti e 1.778 morti. L’indice di mortalità mostra che gli incidenti più gravi avvengono sulle strade extraurbane (escluse le autostrade), dove si registrano 4,7 decessi ogni 100 incidenti. Gli incidenti sulle strade urbane sono meno gravi, con 1,1 morti ogni 100 incidenti. Sulle Autostrade tale indice è pari a 3,1. L’indice di mortalità si mantiene superiore alla media giornaliera (1,9 decessi ogni 100 incidenti) per tutto l’arco di tempo che va dalle 21 alle 7 del mattino, raggiungendo il valore massimo intorno alle 5 del mattino (6,0 decessi ogni 100 incidenti). La domenica è il giorno nel quale si registra il livello più elevato dell’indice di mortalità (2,8 morti per 100 incidenti). In 7 casi su 10 (69,7%) le vittime sono i conducenti di veicoli, nel 15,3% i passeggeri trasportati e nel 15,1% i pedoni. La categoria di veicolo più coinvolta in incidente stradale è quella delle autovetture(66,1%), seguono motocicli (14,0%), i ciclomotori (5,4%) e le biciclette (4,5%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’organizzazione mondiale della sanità stima che il 10% della popolazione nel mondo presenta una malattia epatica cronica. L’insufficienza epatica fulminante porta alla morte entro novantasei ore in assenza di trapianto. Questa patologia colpisce circa 2500 persone l’anno e il trapianto di fegato è l’unico trattamento efficiente, ma la mancanza di donatori ha causato un elevato tasso di mortalità in pazienti in lista di attesa per l’organo compatibile. Negli ultimi anni è cresciuta sempre più la lista d’attesa per il trapianto, mentre il numero degli innesti disponibili rimane ridotto. Non tutti i pazienti sono candidati al trapianto. Questo tipo di intervento è rischioso e richiede un trattamento d’immunosoppressione per tutta la vita. Si cercano quindi soluzioni sostitutive, ma lo sviluppo di dispositivi efficaci di assistenza epatica rimane uno dei più alti sforzi dell’ingegneria biomedica. Il fegato, infatti, svolge più di 500 funzioni diverse che sono difficili da riprodurre artificialmente. Un dispositivo di assistenza epatica deve sostituire o integrare la funzione epatica quando scende al di sotto della soglia critica del 30% del normale funzionamento. Per garantire il normale funzionamento dell’organismo, la massa di epatociti disponibile in un paziente adulto deve essere approssimativamente di circa 400g. Se questa massa è disponibile si può avere rigenerazione epatica spontanea. Questo spiega la necessità di raggiungere e garantire, comunque, un livello minimo di funzionalità epatica, al di sotto del quale non si ha né rigenerazione di epatociti (impossibilità di ripristinare l’attività metabolica del fegato), né funzionamento di altri organi del corpo, che dipendono dall’attività epatica. La ricerca e lo sviluppo di dispositivi di assistenza epatica è tesa al raggiungimento e al mantenimento della soglia minima di funzionalità; in questo modo si permette al paziente di sopravvivere fino al trapianto, quando questo è l’unica terapia possibile, oppure di poter raggiungere le condizioni di autorigenerazione spontanea nelle patologie meno gravi. La ricerca sui dispositivi di assistenza epatica risale agli anni 50, e sin da allora sono state sviluppate diverse soluzioni, che possiamo distinguere in sistemi meccanici (sistemi non biologici) e sistemi biochimici o biomeccanici (sistemi biologici). I sistemi non biologici possono avere un ruolo nel trattamento di forme specifiche d’insufficienza epatica. L’obiettivo è di fornire purificazione del sangue, ossia rimuovere tutte le sostanze che si accumulano nel sangue durante la disfunzione epatica, causando anomalie neurologiche, lesioni del fegato e di altri organi e inibizione della rigenerazione epatica. I sistemi biologici possono essere utili nel trattamento d’insufficienza epatica, in cui l’obiettivo primario è quello di fornire tutte le funzioni del fegato che sono state compromesse o perse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La necessità di indagine sul fronte dell’insufficienza cardiaca deriva dall’elevato impatto sociale della patologia, non soltanto per l’effetto invalidante sulla condizione del paziente che ne è affetto, bensì anche per la notevole incidenza sui servizi sanitari nazionali, per l’importante valore di mortalità e morbilità che ne è associato. Il numero di ospedalizzazioni per scompenso cardiaco è consistente; ciò rende ragione dell’elevato assorbimento di risorse dovuto a questa patologia. Il razionale dell’impiego della Terapia di Resincronizzazione Cardiaca (CRT) consiste nella correzione della dissincronia cardiaca come causa di disfunzione meccanica atriale e ventricolare. Il metodo analitico sviluppato origina dalle indagini sugli spostamenti dell’elettrocatetere posizionato in Seno Coronarico, sulla base del fatto che il sito di stimolazione risulta un fattore determinante per la buona risposta alla terapia. Dovendo studiare le posizioni nel tempo del catetere, si è pensato di valutarne le variazioni nel periodo pre e post attivazione della CRT ricostruendone la traiettoria in 3D. Lo studio parametrico di quest’ultima ha permesso di individuare un indice predittore della risposta alla CRT al follow-up a sei mesi. La prosecuzione della ricerca presentata ha l’intento di migliorare gli algoritmi di elaborazione dei dati per rendere più robuste le misure, sfruttando tecniche che possano aumentare riproducibilità, ripetibilità, e ininfluenza rispetto alla variabilità delle condizioni analitiche. Sviluppando nuovi modelli si è eliminata l'interazione dell'operatore nelle fasi d'indagine, rendendo le analisi completamente automatiche. I metodi sono stati testati e applicati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le infezioni ospedaliere (o nosocomiali) sono le complicanze più frequenti e gravi nell’ambito dell’assistenza sanitaria, e costituiscono una delle maggiori cause di morbilità e mortalità. Tale denominazione comprende un insieme piuttosto eterogeneo di condizioni diverse sotto il profilo sia microbiologico che epidemiologico, ma accomunate dall’elevato impatto sulla salute dei pazienti e sui costi sanitari. Molti fattori contribuiscono a condizionare la frequenza delle infezioni nosocomiali, tra cui la compromissione delle difese immunitarie dei pazienti, l’invasività delle nuove tecnologie e pratiche sanitarie in campo diagnostico/terapeutico, l’esecuzione di procedure assistenziali nel non rispetto delle norme igieniche da parte degli operatori sanitari, l’utilizzo estensivo degli antibiotici con conseguente insorgenza di ceppi batterici resistenti; per ultimo, non a caso, l’inquinamento dell’ambiente ospedaliero. Ad oggi, infatti, la contaminazione microbica dell’ambiente (aria e superfici) è ritenuto un fattore di rischio secondario, rispetto alla correttezza dei comportamenti degli operatori (rispetto delle procedure di asepsi, delle precauzioni di isolamento, adeguate tecniche operatorie, ecc), per la quale si sono concentrati gran parte degli sforzi in materia di prevenzione. Ciò probabilmente è anche dovuto al fatto che finora nessuna tecnologia è stata in grado di intervenire in maniera adeguata sulla decontaminazione microbica di aria e superfici. I dati allarmanti sulle infezioni ospedaliere a livello mondiale sono la prova che le misure adottate finora per contrastare il problema non sono sufficienti; inoltre il monito lanciato dall’Organizzazione Mondiale della Sanità riguardo alla progressiva perdita d’efficacia delle terapie antibiotiche impone di trovare al più presto nuove armi per la lotta alle infezioni. Una via sperimentale e innovativa, volta alla riduzione della frequenza d’infezioni ospedaliere, potrebbe essere proprio il disinquinamento dell’aria indoor negli ambienti ospedalieri e delle superfici a contatto diretto con il paziente, ottenibile per mezzo di una tecnologia ad hoc: la “Tecnologia Nano-Safe Koala®” (brevettata da D.A.TECH., azienda specializzata nel disinquinamento dell’aria indoor). Per l’applicazione di tale tecnologia in ambito ospedaliero è stata progettata una "cappa disinquinante", pensata per essere installata al di sopra del posto letto, al fine di fornire al paziente aria incontaminata e di sanificare le superfici a contatto con esso. Una volta realizzato il prototipo, sono state condotte delle sperimentazioni per testarne l’efficacia e l’efficienza, per mezzo di strumenti specifici per quanto riguarda l’analisi dell’aria, e con test biologici per quanto riguarda l’analisi delle superfici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli squali bianchi sono tra i più importanti predatori dei Pinnipedi (Klimley et al., 2001; Kock, 2002). La loro principale strategia di caccia consiste nel pattugliare le acque circostanti ad una colonia di otarie e nell’attaccarle quando queste sono in movimento, mentre si allontanano o avvicinano all’isola (Klimley et al., 2001; Kock, 2002). Tuttavia, la strategia e la dinamica della predazione osservate anche in relazione al ciclo riproduttivo della preda e le tattiche comportamentali messe in atto dalla preda per ridurre la probabilità di predazione, e quindi diminuire la sua mortalità, sono ancora poco conosciute. Con questo studio, effettuato nell’area di Seal Island all’interno della baia di Mossel Bay in Sud Africa, abbiamo cercato di definire proprio questi punti ancora poco conosciuti. Per studiare la strategia e le dinamica di predazione dello squalo bianco abbiamo utilizzato il sistema di monitoraggio acustico, in modo da poter approfondire le conoscenze sui loro movimenti e quindi sulle loro abitudini. Per dare un maggiore supporto ai dati ottenuti con la telemetria acustica abbiamo effettuato anche un monitoraggio visivo attraverso l’attrazione (chumming) e l’identificazione fotografica degli squali bianchi. Per comprendere invece i loro movimenti e le tattiche comportamentali messi in atto dalle otarie orsine del capo per ridurre la probabilità di predazione nella baia di Mossel Bay, abbiamo utilizzato il monitoraggio visivo di 24 ore, effettuato almeno una volta al mese, dalla barca nell’area di Seal Island. Anche se gli squali bianchi sono sempre presenti intorno all’isola i dati ottenuti suggeriscono che la maggior presenza di squali/h si verifica da Maggio a Settembre che coincide con l’ultima fase di svezzamento dei cuccioli delle otarie del capo, cioè quando questi iniziano a foraggiare lontano dall'isola per la prima volta; durante il sunrise (alba) durante il sunset (tramonto) quando il livello di luce ambientale è bassa e soprattutto quando la presenza delle prede in acqua è maggiore. Quindi possiamo affermare che gli squali bianchi a Seal Island prendono delle decisioni che vanno ad ottimizzare la loro probabilità di catturare una preda. I risultati preliminari del nostro studio indicano anche che il numero di gruppi di otarie in partenza dall'isola di notte sono di gran lunga maggiori di quelle che partono durante il giorno, forse questo potrebbe riflettere una diminuzione del rischio di predazione; per beneficiare di una vigilanza condivisa, le otarie tendono in media a formare gruppi di 3-5 o 6-9 individui quando si allontanano dall’isola e questo probabilmente le rende meno vulnerabili e più attente dall’essere predate. Successivamente ritornano all’isola da sole o in piccoli gruppi di 2 o 3 individui. I gruppi più piccoli probabilmente riflettono la difficoltà delle singole otarie a riunirsi in gruppi coordinati all'interno della baia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fratture vertebrali sono tra le principali cause dell’incremento della mortalità. Queste sono dovute principalmente a traumi, tumori o particolari patologie metaboliche che colpiscono l’osso. Il tratto maggiormente interessato è quello toraco-lombare in quanto deve sopportare la maggior parte dei carichi. Risulta quindi necessario comprendere come la colonna vertebrale risponde ai carichi così da studiare e sviluppare nuovi protocolli e trattamenti per disordini del tratto spinale. Informazioni quantitative possono essere ottenute mediante test in vitro. Questi hanno alcune limitazioni dovute principalmente alla difficoltà di misurare le tensioni e le deformazioni in zone diverse dalla superficie, alla complessità e al costo delle prove. Un altro limite delle prove in vitro è rappresentato dal fatto che ciascun campione può essere testato a rottura una volta sola. Queste problematiche possono essere superate con l’utilizzo contemporaneo di modelli matematici e test in vitro. In particolare i test in vitro sono utilizzati in fase di validazione del modello matematico, ovvero nella determinazione di quanto il modello è una rappresentazione del comportamento reale che si sta simulando. Il presente lavoro di tesi si inserisce in un progetto di caratterizzazione di vertebre toraco-lombari utilizzate per la validazione di un modello agli elementi finiti. In particolare l’obiettivo dello studio è stata la realizzazione di prove meccaniche in modo da replicare l’anterior wedge fracture. Tali prove sono state effettuate presso il Laboratorio di Biomeccanica del Dipartimento di Ingegneria Industriale dell’Università di Bologna. Gli spostamenti registrati durante le prove sono stati utilizzati dal Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli come condizioni al contorno per la realizzazione di un modello FE. Una volta validato e messo a punto, il modello sarà utilizzato per valutare lo stato di salute della colonna vertebrale in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I pattern di espressione genica permettono di valutare se gli organismi siano soggetti a stress ambientali, spesso associati a stress ossidativo e produzione di specie reattive dell’ossigeno, che possono essere analizzate per studiare gli effetti sub-letali indotti dall’ambiente negli organismi. Scopo di questa ricerca è stato valutare la possibilità di utilizzo dell’ascidia coloniale B. schlosseri come biomarker in ambiente lagunare. Le colonie, esposte a diverse condizioni ambientali nella Laguna di Venezia, sono state confrontate con esemplari allevati in condizioni di controllo. La ricerca si è concentrata in 2 siti con diverso grado di idrodinamicità e impatto antropico. Mentre nel sito 1, più vicino alla bocca di porto, si è rilevata la presenza di Tunicati, il sito 2 ne è privo. Il sito 2 ha registrato valori di pH e temperatura più alti. Inoltre, nel sito 2 è stata rilevata una mortalità maggiore delle colonie e alterazioni della morfologia nelle colonie sopravvissute. Ciò suggerisce che il sito 2 presenti condizioni avverse per B. schlosseri. Sui campioni di B. schlosseri sono state eseguite PCR semiquantitative per analizzare l’espressione di un gruppo di geni coinvolto nella risposta allo stress ossidativo: la glutammato cistein ligasi la glutatione sintetasi, 2 isoforme di glutatione perossidasi e la superossido dismutasi (SOD). Tutti i geni presentano livelli di trascrizione doppi nelle colonie del sito 1 rispetto al controllo. Viceversa, il sito 2 mostra livelli di espressione di poco superiori al controllo. Analisi spettrofotometriche evidenziano che le attività enzimatiche di SOD e catalasi sono più alte nel sito 2 rispetto al sito 1. Si può pertanto ipotizzare che le colonie esposte al sito 2 siano soggette a un maggiore stress. B. schlosseri appare dunque un buon indicatore dello stato ecologico dell’ambiente lagunare, entro parametri di pH e temperatura in cui abitualmente vive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Siracusa, importante città della Sicilia sud orientale, si affaccia sul Mar Ionio ed è situata in una zona altamente esposta al pericolo di tsunami, di tipo locale e non: fra i numerosi eventi che hanno colpito quest’area si ricordano i maremoti dell’11 gennaio 1693 e del 28 dicembre 1908. L’obiettivo di questa Tesi è studiare la vulnerabilità sociale, esposizione e rischio legati a un’eventuale inondazione di Siracusa dovuta a tsunami. Il presente lavoro è strutturato come segue. Innanzitutto, si fornisce una descrizione della regione interessata illustrandone gli aspetti geografici e geologici e tracciando una breve sintesi della sequenza degli tsunami che l’hanno colpita. Successivamente si prende in esame la vulnerabilità, in particolare la vulnerabilità sociale, facendo un breve excursus dei concetti e delle metodologie di analisi. Nella Tesi lo studio della vulnerabilità sociale sarà diviso in tre fasi che si differenziano sia per l’approccio utilizzato che per le dimensioni dell’area in esame. Nella prima fase viene studiata tutta la costa orientale della Sicilia con l’obiettivo di calcolare la vulnerabilità sociale su base comunale. Per ogni comune della costa verrà calcolato un indice di vulnerabilità noto nella letteratura specialistica come SoVI (Social Vulnerability Index). Nella seconda fase ci si concentra sul comune di Siracusa e si stima il numero di persone potenzialmente colpite da tsunami sulla base di dati statistici disponibili a livello municipale. La terza fase consiste in un’analisi ancora più dettagliata che studia puntualmente le strutture che si trovano nella zona inondata e quantifica il danno sia per le persone che per le costruzioni considerando per queste ultime anche il loro valore economico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la mia tesi mi sono occupata di una grave patologia, l’Aneurisma Cerebrale, che rappresenta una delle principali cause di ospedalizzazione provocando il 10/12% della mortalità globale annua nei paesi industrializzati. In Italia , l’incidenza di aneurismi cerebrali è di 100.000 nuovi casi all’anno. In generale , nei paesi industrializzati, la prevalenza è stimata a circa 600 per 100.000 abitanti . Tuttavia la prevalenza degli aneurismi cerebrali nelle popolazioni in generale , è molto più elevato stimato intorno al 2,3%,il che suggerisce indirettamente che la maggior parte degli aneurismi non va mai incontro a rottura. Negli ultimi vent’anni lo sviluppo della tecnologia ha visto significativi progressi che ci hanno permesso di agire sul problema in modo sempre migliore. Nei primi capitoli ho descritto alcune apparecchiature biomediche che sono di fondamentale importanza nello studio degli aneurismi cerebrali, mettendo in evidenza le varie peculiarità che le contraddistinguono. A seguire, ho parlato del trattamento endovascolare, che consiste nell’esclusione della cavità aneurismatica dal flusso di sangue, il quale viene incanalato in una protesi posizionata all’interno del lume vasale eliminando il rischio di rottura o di embolizzazione di materiale trombotico proveniente dalla sacca aneurismatica. I vantaggi della tecnica endovascolare consistono nella minore invasività rispetto alla tecnica chirurgica standard, la craniotomia. A fronte di ciò, si deduce quanto l’ingegneria biomedica sia una disciplina in evoluzione. Le condizioni di vita delle persone che subiscono questi tipi di interventi sono notevolmente migliorate ottenendo risultati di completa o semi-completa guarigione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.