1000 resultados para Fattori di condizione
Resumo:
Lo scopo di questa tesi è lo studio degli aspetti procedurali e dosimetrici in angiografie periferiche che utilizzano la CO2 come mezzo di contrasto. La tecnica angiografica consiste nell’imaging radiologico di vasi sanguigni tramite l’iniezione di un mezzo di contrasto, e il suo uso è in costante incremento a causa dell’aumento di pazienti con malattie vascolari. I mezzi di contrasto iodati sono i più comunemente utilizzati e permettono di ottenere immagini di ottima qualità, ma presentano il limite di una elevata nefrotossicità. La CO2 è considerata un’interessante alternativa al mezzo iodato, per la sua acclarata biocompatibilità, soprattutto per pazienti con elevati fattori di rischio (diabete e/o insufficienza renale). Il suo utilizzo presenta comunque alcuni aspetti problematici, dovuti allo stato gassoso e al basso contrasto intrinseco rispetto alla soluzione iodata. Per quest’ultimo motivo si ritiene generalmente che l’utilizzo della CO2 comporti un aumento di dose rispetto ai mezzi di contrasto tradizionali. Il nostro studio, effettuato su diversi apparati radiologici, ha dimostrato che i parametri di emissione radiologica sono gli stessi per i protocolli di angiografia tradizionale, con iodio, e quelli che utilizzano CO2. Questa evidenza suggerisce che i protocolli CO2 operino solo sul trattamento delle immagini ottenute e non sulla modalità di acquisizione, e dal punto di vista dosimetrico l’angiografia con CO2 è riconducibile all’angiografia tradizionale. L’unico fattore che potrebbe portare a un effettivo incremento di dose al paziente è un allungamento dei tempi di scopia e di procedura, che andrebbe verificato con una campagna di misure in ambito clinico. Sulla base della stessa evidenza, si ritiene che la visualizzazione della CO2 possa essere ulteriormente migliorata attraverso l’ottimizzazione dei parametri di emissione radiologica (kVp, frame rate e durata degli impulsi) attualmente predisposti per l’uso di mezzi di contrasto iodati.
Resumo:
Obiettivo della tesi è riconoscere i fattori di successo e i principali limiti legati all’implementazione dei progetti di recupero degli oli domestici sul territorio italiano. Il problema nasce dall’ esigenza di gestire in modo efficiente la raccolta differenziata di questo rifiuto che, se gettato nello scarico di casa o nel lavandino, provoca impatti ambientali rilevanti rendendo particolarmente difficoltoso e dispendioso il trattamento delle acque reflue e causa gravi danni agli ecosistemi naturali. La questione è da tempo inquadrata e disciplinata dalle direttive comunitarie in materia di rifiuti e dalla strategia “Europa2020” che ha come obiettivo principale una crescita intelligente, sostenibile ed inclusiva. A livello nazionale, invece, il Testo Unico Ambientale assolve alla funzione principale di riordino e coordinamento della disciplina, dando attuazione ai principi comunitari in materia e conformando l’ordinamento nazionale agli obiettivi e alle priorità individuate dal legislatore europeo. Gli oli esausti domestici sono un rifiuto scomodo e complesso da gestire ma la valorizzazione energetica può essere una valida alternativa ai sistemi di smaltimento classici. Infatti, attraverso un semplice processo chimico l’olio da cucina usato può essere trasformato in biodiesel. Questo particolare biocombustibile rispetta tutti i criteri di sostenibilità imposti dalla Comunità Europea e riduce, inoltre, l’impatto della produzione di biocarburanti sull’agricoltura.
Resumo:
Il crescente utilizzo di sistemi di analisi high-throughput per lo studio dello stato fisiologico e metabolico del corpo, ha evidenziato che una corretta alimentazione e una buona forma fisica siano fattori chiave per la salute. L'aumento dell'età media della popolazione evidenzia l'importanza delle strategie di contrasto delle patologie legate all'invecchiamento. Una dieta sana è il primo mezzo di prevenzione per molte patologie, pertanto capire come il cibo influisce sul corpo umano è di fondamentale importanza. In questo lavoro di tesi abbiamo affrontato la caratterizzazione dei sistemi di imaging radiografico Dual-energy X-ray Absorptiometry (DXA). Dopo aver stabilito una metodologia adatta per l'elaborazione di dati DXA su un gruppo di soggetti sani non obesi, la PCA ha evidenziato alcune proprietà emergenti dall'interpretazione delle componenti principali in termini delle variabili di composizione corporea restituite dalla DXA. Le prime componenti sono associabili ad indici macroscopici di descrizione corporea (come BMI e WHR). Queste componenti sono sorprendentemente stabili al variare dello status dei soggetti in età, sesso e nazionalità. Dati di analisi metabolica, ottenuti tramite Magnetic Resonance Spectroscopy (MRS) su campioni di urina, sono disponibili per circa mille anziani (provenienti da cinque paesi europei) di età compresa tra i 65 ed i 79 anni, non affetti da patologie gravi. I dati di composizione corporea sono altresì presenti per questi soggetti. L'algoritmo di Non-negative Matrix Factorization (NMF) è stato utilizzato per esprimere gli spettri MRS come combinazione di fattori di base interpretabili come singoli metaboliti. I fattori trovati sono stabili, quindi spettri metabolici di soggetti sono composti dallo stesso pattern di metaboliti indipendentemente dalla nazionalità. Attraverso un'analisi a singolo cieco sono stati trovati alti valori di correlazione tra le variabili di composizione corporea e lo stato metabolico dei soggetti. Ciò suggerisce la possibilità di derivare la composizione corporea dei soggetti a partire dal loro stato metabolico.
Resumo:
L’idrotermocarbonizzazione è un processo che permette di convertire un’elevata quantità di materie prime solide in carbone. Ciò viene realizzato inserendo come sostanza in input, oltre alla materia prima iniziale, acqua liquida e, successivamente, riscaldando fino a 180°C, temperatura alla quale inizia la reazione esotermica ed il processo diventa di tipo stand-alone. Tale reazione presenta un tempo di reazione variabile nel range di 4÷12 h. I prodotti in uscita sono costituiti da una sostanza solida che ha le caratteristiche del carbone marrone naturale e un’acqua di processo, la quale è altamente inquinata da composti organici. In questo elaborato viene illustrata una caratterizzazione dei prodotti in uscita da un impianto di idrotermo carbonizzazione da laboratorio, il quale utilizza in input pezzi di legno tagliati grossolanamente. Inizialmente tale impianto da laboratorio viene descritto nel dettaglio, dopodiché la caratterizzazione viene effettuata attraverso DTA-TGA dei materiali in ingresso ed uscita; inoltre altre sostanze vengono così analizzate, al fine di confrontarle col char ed i pezzi di legno. Quindi si riporta anche un’analisi calorimetrica, avente l’obiettivo di determinare il calore di combustione del char ottenuto; attraverso questo valore e il calore di combustione dei pezzi di legno è stato possibile calcolare l’efficienza di ritenzione energetica del processo considerato, così come la densificazione energetica riscontrata nel materiale in uscita. In aggiunta, è stata eseguita un’analisi delle specie chimiche elementari sul char ed il legno in modo da determinare i seguenti parametri: fattori di ritenzione e fattori di ritenzione pesati sulla massa in termini di concentrazione di C, H, N e S. I risultati ottenuti da tale analisi hanno permesso di effettuare una caratterizzazione del char. Un tentativo di attivazione del char viene riportato, descrivendo la procedura di attivazione seguita e la metodologia utilizzata per valutare il buon esito o meno di tale tentativo di attivazione. La metodologia consiste di uno studio isotermo dell’adsorbimento di acido acetico sul char “attivato” attraverso una titolazione. I risultati sperimentali sono stati fittati usando le isoterme di Langmuir e Freundlich e confrontati con le capacità di adsorbimento del semplice char e di un campione di carbone attivo preso da un’azienda esterna. Infine si è considerata l’acqua di processo, infatti un’analisi fotometrica ne ha evidenziato le concentrazioni di TOC, COD, ioni nitrato e ioni fosfato. Questi valori sono stati conseguentemente confrontati con i limiti italiani e tedeschi massimi ammissibili per acque potabili, dando quindi un’idea quantitativa della contaminazione di tale acqua di processo.
Resumo:
This dissertation discusses the professional figure of interpreters working for the International Criminal Tribunal for Rwanda (ICTR). The objective is to investigate specific job-related stress factors, particularly the psychological consequences interpreters may have to face, the so-called vicarious trauma. People working for the ICTR are exposed to genocide victims’ violent and shocking testimonies, a situation that could have negative psychological impacts. Online interviews with some interpreters working for the ICTR were carried out in order to arrive at a more thorough understanding of this topic. The study is divided into four chapters. Chapter I outlines the historical aspects of the simultaneous interpreting service in the legal field at the International Military Tribunal, in the trials of the Nazi leaders, and then it analyses a modern international criminal jurisdiction, the ICTR. Chapter II firstly discusses the differences between conference interpreting and court interpreting and in the second part it investigates job-related stress factors for interpreters, focusing on the legal field. Chapter III contains a detailed analysis of vicarious trauma: the main goal is to understand what psychological consequences interpreters have to cope with as a result of translating abused people’s accounts. Chapter IV examines the answers given by ICTR interpreters to the online interviews. The data collected from the interview was compared with the literature survey and the information derived from their comparison was used to put forward some suggestions for studies to be carried out in the future.
Resumo:
Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.
Resumo:
La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.
Resumo:
L'obiettivo di questo lavoro è quello di analizzare la stabilità di uno spettro raggi X emesso da un tubo usurato per analisi cardiovascolari, in modo da verificare il suo comportamento. Successivamente questo tipo di analisi sarà effettuata su tubi CT. Per raggiungere questo scopo è stato assemblato un particolare set-up con un rivelatore al germanio criogenico in modo da avere la miglior risoluzione energetica possibile ed alcuni particolari collimatori così da ridurre il flusso fotonico per evitare effetti di pile-up. Il set-up è stato costruito in modo da avere il miglior allineamento possibile nel modo più veloce possibile, e con l'obiettivo di rendere l'intero sistema portabile. Il tubo usato è un SRM Philips tube per analisi cardiovascolari; questa scelta è stata fatta in modo da ridurre al minimo i fattori esterni (ottica elettromagnetica, emettitori) e concentrare l'attenzione solo sugli effetti, causati dalle varie esposizioni, sull'anodo (roughness e bending) e sul comportamento di essi durante il surriscaldamento e successivo raffreddamento del tubo. I risultati mostrano come durante un'esposizione alcuni fattori di usura del tubo possono influire in maniera sostanziale sullo spettro ottenuto e quindi alterare il risultato. Successivamente, nell'elaborato, mediante il software Philips di ricostruzione e simulazione dello spettro si è cercato di riprodurre, variando alcuni parametri, la differenza riscontrata sperimentalmente in modo da poter simulare l'instabilità e correggere i fattori che la causano. I risultati sono interessanti non solo per questo esperimento ma anche in ottica futura, per lo sviluppo di applicazioni come la spectral CT. Il passo successivo sarà quello di spostare l'attenzione su un CT tube e verificare se l'instabilità riscontrata in questo lavoro è persiste anche in una analisi più complessa come quella CT.
Resumo:
Helicobacter pylori è un batterio Gram-negativo in grado di colonizzare la mucosa gastrica umana e persistere per l'intero arco della vita dell'ospite. E' associato a patologie gastrointestinali, quali gastrite cronica, ulcere gastriche e duodenali, adenocarcinomi e linfomi gastrici. Si tratta di uno dei patogeni più diffusi, presente in circa metà della popolazione mondiale, e il solo che si è adattato a vivere nell'ambiente ostile dello stomaco umano. Molteplici sono i fattori di virulenza che permettono al batterio la colonizzazione della nicchia gastrica e contribuiscono, anche attraverso l' induzione di una risposta infiammatoria, a profonde modificazioni dell' omeostasi gastrica. Queste ultime si associano, ad esempio, all'iperproduzione di fattori proinfiammatori, ad alterazioni sia della regolazione della secrezione acida gastrica sia del ciclo cellulare e della morte cellulare programmata (apoptosi) delle cellule epiteliali gastriche, a disordini nel metabolismo del ferro e a carenze di elementi essenziali. Studi sulla diversità genetica di H. pylori osservata in ceppi isolati da varie regioni del mondo, dimostrano che tale batterio ha avuto una coevoluzione col genere umano attraverso la storia, ed è verosimile che H. pylori sia stato un costituente del microbiota gastrico per almeno 50.000 anni. Scopo della tesi è stato quello di identificare e caratterizzare proteine importanti per la colonizzazione e l'adattamento di H. pylori alla nicchia gastrica. In particolare gli sforzi si sono concentrati su due proteine periplasmatiche, la prima coinvolta nella difesa antiossidante (l'enzima catalasi-like, HP0485), e la seconda nel trasporto di nutrienti presenti nell'ambiente dello stomaco all'interno della cellula (la componente solubile di un ABC transporter, HP0298). La strategia utilizzata prevede un'analisi bioinformatica preliminare, l'ottenimento del gene per amplificazione, mediante PCR, dal genoma dell'organismo, la costruzione di un vettore per il clonaggio, l'espressione eterologa in E. coli e la successiva purificazione. La proteina così ottenuta viene caratterizzata mediante diverse tecniche, quali spettroscopia UV, dicroismo circolare, gel filtrazione analitica, spettrometria di massa. Il capitolo 1 contiene un'introduzione generale sul batterio, il capitolo 2 e il capitolo 3 descrivono gli studi relativi alle due proteine e sono entrambi suddivisi in un abstract iniziale, un'introduzione, la presentazione dei risultati, la discussione di questi ultimi, i materiali e i metodi utilizzati. La catalasi-like (HP0485) è una proteina periplasmatica con struttura monomerica, appartenente ad una famiglia di enzimi a funzione per la maggior parte sconosciuta, ma evolutivamente correlati alla ben nota catalasi, attore fondamentale nella difesa di H. pylori, grazie alla sua azione specifica di rimozione dell'acqua ossigenata. HP0485, pur conservando il fold catalasico e il legame al cofattore eme, non può compiere la reazione di dismutazione dell'acqua ossigenata; possiede invece un'attività perossidasica ad ampio spettro, essendo in grado di accoppiare la riduzione del perossido di idrogeno all'ossidazione di diversi substrati. Come la catalasi, lavora ad alte concentrazioni di aqua ossigenata e non arriva a saturazione a concentrazioni molto elevate di questo substrato (200 mM); la velocità di reazione catalizzata rimane lineare anche a questi valori, aspetto che la differenzia dalle perossidasi che vengono in genere inattivate da concentrazioni di perossido di idrogeno superiori a 10-50 mM. Queste caratteristiche di versatilità e robustezza suggeriscono che la catalasi-like abbia un ruolo di scavenger dell'acqua ossigenata e probabilmente anche un'altra funzione connessa al suo secondo substrato, ossia l'ossidazione di composti nello spazio periplasmatico cellulare. Oltre alla caratterizzazione dell'attività è descritta anche la presenza di un ponte disolfuro, conservato nelle catalasi-like periplasmatiche, con un ruolo nell'assemblaggio dell'eme per ottenere un enzima attivo e funzionale. La proteina periplasmatica HP0298, componente di un sistema di trasporto ABC, è classificata come trasportatore di dipeptidi e appartiene a una famiglia di proteine in grado di legare diversi substrati, tra cui di- e oligopeptidi, nichel, eme, glutatione. Benchè tutte associate a trasportatori di membrana batterici, queste proteine presentano un dominio di legame al substrato che risulta essere conservato nei domini extracellulari di recettori specifici di mammifero e uomo. Un esempio sono i recettori ionotropici e metabotropici del sistema nervoso. Per caratterizzare questa proteina è stato messo a punto un protocollo di ligand-fishing accoppiato alla spettrometria di massa. La proteina purificata, avente un tag di istidine, è stata incubata con un estratto cellulare di H. pylori per poter interagire con il suo substrato specifico all'interno dell'ambiente naturale in cui avviene il legame. Il complesso proteina-ligando è stato poi purificato per cromatografia di affinità e analizzato mediante HPLC-MS. L'identificazione dei picchi differenziali tra campioni con la proteina e 5 campioni di controllo ha portato alla caratterizzazione di pentapeptidi particolarmente ricchi in aminoacidi idrofobici e con almeno un residuo carico negativamente. Considerando che H. pylori necessita di alcuni aminoacidi essenziali, per la maggior parte idrofobici, e che lo stomaco umano è particolarmente ricco di peptidi prodotti dalla digestione delle proteine introdotte con il cibo, il ruolo fisiologico di HP0298 potrebbe essere l'internalizzazione di peptidi, con caratteristiche specifiche di lunghezza e composizione, che sono naturalmente presenti nella nicchia gastrica.
Resumo:
L’intento di questa ricerca è stato quello di cercare di riordinare ed approfondire il settore delle demolizioni, campo vasto e in costante crescita, dove saranno necessari tecnici sempre più specializzati in materia di statica, ambiente, sicurezza ed esplosivistica civile. Nella prima parte della ricerca è stata analizzata l'errata concezione odierna delle demolizioni viste solamente come un mero intervento di distruzione e sono state descritte le principali tecniche di demolizione tradizionali per costruzioni in calcestruzzo armato, suddividendole nelle due famiglie riguardanti le demolizioni parziali e le demolizioni totali, analizzando i vantaggi e gli svantaggi di ognuna di esse e nello specifico evidenziando il grado di compatibilità della singola tecnica in relazione all'intervento da svolgere. Descritte le tecniche sono state studiate le principali verifiche statiche che vengono solitamente effettuate per le demolizioni con esplosivo e le demolizioni meccaniche. Nella seconda parte della tesi si è voluto prestare attenzione riguardo alle origini della demolizione guardando in che modo si sia evoluta sino ad oggi, in particolare le imprese odierne le quali sono attualmente in grado di affrontare qualsiasi problema seguendo il programma del processo demolitivo. L'ultima parte della ricerca consiste nella valutazione e descrizione dei principali fattori di rischio di questi interventi sottolineando ogni tipo di soluzione per poterli evitare, è stato inoltre analizzato molto schematicamente il caso di studio del Palazzo di Giustizia dell'Aquila distrutto a causa del sisma e rinnovato grazie ad interventi demolitivi.
Resumo:
Background: Le early-onset sepsis (EOS) sono infezioni batteriche invasive definite dalla presenza di batteri nel sangue e/o nel liquor cefalorachidiano che esordiscono nelle prime 72 ore di vita e causano in epoca neonatale mortalità e morbilità importanti. Scopo: Determinare l’eccesso di trattamento antibiotico (Overtreatment index=OI) nei neonati di EG ≥34 settimane con sospetta sepsi ad esordio precoce. Metodi: Tutti i nati dal 1.01.2014 al 31.12.2018 di EG ≥34 settimane presso IRCCS Azienda Ospedaliero-Universitaria e l’Ospedale Maggiore di Bologna che hanno ricevuto terapia antibiotica endovenosa nelle prime 168 ore di vita nel sospetto di EOS. Sono stati identificati 2 gruppi: EOS provata (N=7) ed EOS sospetta (N=465). Risultati: L’incidenza di EOS è stata 0.22 su 1000 nati vivi, rispettivamente 0.12/1000 per Streptococcus agalactiae (GBS) e 0.06/1000 per Escherichia coli (E.coli). L’1.75% dei neonati ha ricevuto terapia antimicrobica empirica a largo spettro. L’OI è risultato 68. L’esposizione al trattamento antibiotico nella popolazione è stata di 85 giorni/1000 nati vivi. Tra i fattori di rischio materni, il tampone vagino-rettale (TVR) e l’urinocoltura positiva sono risultati associati al rischio di EOS provata (p=.017, p =.000). I valori di proteina C reattiva (PCR) al T0, T1 e T2 tra i due gruppi sono risultati significativi (p=.000). All’analisi multivariata è stata confermata la significatività delle variabili descritte. (TVR non noto OR=15.1, 95%CI 1.98-115.50, p =.009, urinocoltura positiva OR=30.1, 95%CI 3.6-252.1, p = .002, PCR T0 OR=1.6, 95% CI 1.29-2.07, p = .000.) Conclusioni: L’individuazione precoce di fattori di rischio e la valutazione degli indici di flogosi in neonati sintomatici può ridurre l’OI e la durata della terapia antibiotica in casi di sepsi non confermata. L’uso appropriato degli antibiotici in questa popolazione è particolarmente importante poichè riduce lo sviluppo di germi multiresistenti. Nelle Terapie Intensive Neonatali, i programmi di stewardship antimicrobica dovrebbero guidare la gestione delle sepsi.
Resumo:
Negli ultimi decenni, l’outcome dei pazienti sottoposti a chirurgia dell’aorta toracica è migliorato grazie ai progressi ottenuti nella gestione della circolazione extracorporea, della protezione miocardica e cerebrale e del monitoraggio intra- e postoperatorio dei pazienti. Malgrado questo però, la chirurgia dell’arco aortico è ancora gravata da una significativa mortalità e morbilità dovute principalmente alle complicanze neurologiche conseguenti all’interruzione temporanea della circolazione cerebrale. Nel presente studio sono stati analizzati 364 pazienti trattati per sostituzione dell’arco aortico con l’ausilio della perfusione cerebrale selettiva anterograda, presso l’Unità Operativa di Cardiochirurgia dell’Ospedale di Sant’Orsola di Bologna dal 1° gennaio 2015 al 31 maggio 2020.Le disfunzioni neurologiche permanenti sono state diagnosticate in 33 dei 364 pazienti (9.1%) operati, utilizzando la perfusione cerebrale selettiva anterograda come tecnica di perfusione cerebrale. Pertanto abbiamo confrontato due gruppi di pazienti: un gruppo di 33 pazienti con deficit permanenti con il resto dei pazienti (331) che non aveva alcun deficit. Tra le variabili intraoperatorie, i tipi di cannulazione arteriosa, in particolare la cannulazione dell’arteria femorale (109 [32.9%] vs 17 [51.5%], p-value=0.032) e dell’aorta ascendente (56 [16.9%] vs 0, p-value=0.010), presentano delle differenze statisticamente significative tra i due gruppi. Per quanto riguarda la perfusione cerebrale selettiva anterograda, i valori del flusso medio (899.63 ± 214.12 vs 952.52 ± 160.72, p-value=0.051) presentano una differenza statisticamente significativa tra i due campioni. All’analisi multivariata, la dissezione aortica di tipo A (p = 0.010), la cannulazione femorale (p = 0.033) e l’arresto di circolo totale (p = 0.046) si confermano dei fattori di rischio statisticamente significativi per l’insorgenza di disfunzioni neurologiche permanenti
Resumo:
L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.
Resumo:
Negli ultimi anni, a causa della crescente tendenza verso i Big Data, l’apprendimento automatico è diventato un approccio di previsione fondamentale perché può prevedere i prezzi delle case in modo accurato in base agli attributi delle abitazioni. In questo elaborato, verranno messe in pratica alcune tecniche di machine learning con l’obiettivo di effettuare previsioni sui prezzi delle abitazioni. Ad esempio, si può pensare all’acquisto di una nuova casa, saranno tanti i fattori di cui si dovrà preoccuparsi, la posizione, i metri quadrati, l’inquinamento dell’aria, il numero di stanze, il numero dei bagni e così via. Tutti questi fattori possono influire in modo più o meno pesante sul prezzo di quell’abitazione. E’ proprio in casi come questi che può essere applicata l’intelligenza artificiale, nello specifico il machine learning, per riuscire a trovare un modello che approssimi nel miglior modo un prezzo, data una serie di caratteristiche. In questa tesi verrà dimostrato come è possibile utilizzare l’apprendimento automatico per effettuare delle stime il più preciso possibile dei prezzi delle case. La tesi è divisa in 5 capitoli, nel primo capitolo verranno introdotti i concetti di base su cui si basa l’elaborato e alcune spiegazioni dei singoli modelli. Nel secondo capitolo, invece, viene trattato l’ambiente di lavoro utilizzato, il linguaggio e le relative librerie utilizzate. Il terzo capitolo contiene un’analisi esplorativa sul dataset utilizzato e vengono effettuate delle operazioni per preparare i dati agli algoritmi che verranno applicati in seguito. Nel capitolo 4 vengono creati i diversi modelli ed effettuate le previsioni sui prezzi mentre nel capitolo 5 vengono analizzati i risultati ottenuti e riportate le conclusioni.
Resumo:
Introduzione: I disturbi muscoloscheletrici (DMS) nella Grande Distribuzione Organizzata rappresentano una problematica a eziologia multifattoriale che compromette il benessere psicofisico. Negli anni l’attenzione in ambito di sicurezza e tutela della salute del lavoro si è evoluta, ma continuano a esserci fattori di rischio. Dati tali presupposti risulta utile un’azione di collaborazione tra azienda, dipendente e figure specializzate in ambito di salute. Questo studio si è posto come obiettivo quello di indagare se determinati accorgimenti del lavoratore (interruzione di gesti ripetitivi, utilizzo di tutori, consulto fisioterapico ed esecuzione di attività sportiva), possano influire sull’insorgenza di DMS. Materiale e Metodi: È stato somministrato ai lavoratori dei supermercati un questionario in forma mista, dal 24.05.2022 al 31.07.2022. Si è indagato se vi fosse una differenza statisticamente significativa sull’incidenza, la risoluzione e/o le tempistiche di recupero dei DMS rispetto a ognuno degli accorgimenti citati in precedenza. Risultati: Dallo studio è emerso che il 72.1% è stato soggetto a un DMS nei 12 mesi precedenti e di questi il 26% del totale ha risolto grazie al trattamento fisioterapico. In ambito di prevenzione sul lavoro solo il 28.3% dei lavoratori non poteva compiere alcuna variazione a un’attività ripetitiva, mentre i restanti potevano fare una o più. Il tutore più usato è risultato essere la polsiera 32.6% e gli sport più praticati quelli di resistenza e/o di potenza, ma solo il 46.5% pratica attività sportiva secondo ai parametri OMS. Conclusione: Dallo studio si deduce che la fisioterapia, le attività di interruzione di gesti ripetitivi e l’utilizzo di tutori (fatta eccezione per la fascia lombare) non siano fattori di tipo preventivo ai disturbi muscoloscheletrici. Tuttavia, l’esecuzione di attività sportiva sembra rappresentare un fattore preventivo all’incidenza di DMS e la fisioterapia un fattore influente sulla loro risoluzione.