1000 resultados para Cardiotossicità, Biomarcatori, Frazione di eiezione, Imaging, Affidabilità
Resumo:
Così concepito il riduttore rispetta i requisiti richiesti in termini di peso, affidabilità, realizzabilità e costi contenuti. Per quanto riguarda la realizzabilità e i costi, si sono progettati due componenti che possono essere ottenuti da barre commerciali in un'unica lavorazione al tornio, se munito di creatore per le ruote dentate: questo ci consente di contenere i costi di produzione, costi che erano stati già abbattuti in partenza utilizzando i carter Simonini, evitando di dover progettare e costruire dei carter ad hoc.
Resumo:
Studio di fattibilità di un generatore trasportabile di energia elettrica da fonte solare.
Resumo:
In questo elaborato viene presentato lo studio ed ottimizzazione della geometria del serpentino di uno scambiatore di calore per la produzione di acqua sanitaria di tipo Puffer. L’analisi volta all’ottimizzazione del serpentino è stata eseguita con l’obiettivo di soddisfare i vincoli di progetto dello scambiatore, ovvero la portata elaborata e la temperatura di uscita dell’acqua sanitaria dallo scambiatore, ma cercando di ridurre la superficie del serpentino e quindi il costo dello scambiatore stesso, in particolare agendo su parametri geometrici quali il passo dell’elica H, il diametro dell’avvolgimento Db ed il diametro del tubo d. A tal fine è stato sviluppato un modello del processo di scambio termico all’interno dello scambiatore Puffer basato sulle equazioni di bilancio di energia e raffinato attraverso correlazioni teorico/sperimentali reperite in letteratura. In una prima fase l’ottimizzazione è stata svolta con l’ulteriore vincolo progettuale d=41mm e Db=510mm, al fine di garantire maggiore flessibilità nell’utilizzo del serpentino per altre tipologie di scambiatori. In questo caso, si è giunti ad un risparmio del 14% sull’area di scambio termico del serpentino rispetto al modello tuttora in produzione, quantificabile in una riduzione dei costi del 19% sul costo totale del Puffer. In una seconda fase si è proceduto ad una ottimizzazione libera dai vincoli d e Db, con l’obiettivo di valutare la massima riduzione di area di scambio termico del serpentino, stimata in circa il 23% nel caso in cui sia possibile in futuro valutare modifiche sostanziali alla geometria dello scambiatore. Lo studio completato dall’analisi dell’isolamento del corpo dello scambiatore, finalizzata a ridurre le dispersioni verso l’ambiente esterno. In particolare è stato valutato l’utilizzo di Isolmix, in alternativa all’esistente isolamento in pannelli di poliuretano, dimostrando come sia possibile ottenere una ulteriore riduzione del materiale impiegato e quindi dei costi di realizzazione dello scambiatore.
Resumo:
Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Al fine di migliorare le tecniche di coltura cellulare in vitro, sistemi a bioreattore sono sempre maggiormente utilizzati, e.g. ingegnerizzazione del tessuto osseo. Spinner Flasks, bioreattori rotanti e sistemi a perfusione di flusso sono oggi utilizzati e ogni sistema ha vantaggi e svantaggi. Questo lavoro descrive lo sviluppo di un semplice bioreattore a perfusione ed i risultati della metodologia di valutazione impiegata, basata su analisi μCT a raggi-X e tecniche di modellizzazione 3D. Un semplice bioreattore con generatore di flusso ad elica è stato progettato e costruito con l'obiettivo di migliorare la differenziazione di cellule staminali mesenchimali, provenienti da embrioni umani (HES-MP); le cellule sono state seminate su scaffold porosi di titanio che garantiscono una migliore adesione della matrice mineralizzata. Attraverso un microcontrollore e un'interfaccia grafica, il bioreattore genera tre tipi di flusso: in avanti (senso orario), indietro (senso antiorario) e una modalità a impulsi (avanti e indietro). Un semplice modello è stato realizzato per stimare la pressione generata dal flusso negli scaffolds (3•10-2 Pa). Sono stati comparati tre scaffolds in coltura statica e tre all’interno del bioreattore. Questi sono stati incubati per 21 giorni, fissati in paraformaldehyde (4% w/v) e sono stati soggetti ad acquisizione attraverso μCT a raggi-X. Le immagini ottenute sono state poi elaborate mediante un software di imaging 3D; è stato effettuato un sezionamento “virtuale” degli scaffolds, al fine di ottenere la distribuzione del gradiente dei valori di grigio di campioni estratti dalla superficie e dall’interno di essi. Tale distribuzione serve per distinguere le varie componenti presenti nelle immagini; in questo caso gli scaffolds dall’ipotetica matrice cellulare. I risultati mostrano che sia sulla superficie che internamente agli scaffolds, mantenuti nel bioreattore, è presente una maggiore densità dei gradienti dei valori di grigio ciò suggerisce un migliore deposito della matrice mineralizzata. Gli insegnamenti provenienti dalla realizzazione di questo bioreattore saranno utilizzati per progettare una nuova versione che renderà possibile l’analisi di più di 20 scaffolds contemporaneamente, permettendo un’ulteriore analisi della qualità della differenziazione usando metodologie molecolari ed istochimiche.
Resumo:
Lo studio ha consentito la valutazione delle potenzialità di utilizzo di informazioni telerilevate da satellite, al fine di ottenere un DEM utilizzabile per simulazioni numerico - idrauliche. In particolare è stato utilizzato il DEM a scala globale fornito dalla missione SRTM (Shuttle Radar Topography Mission), per acquisire la geometria del tratto medio inferiore del fiume Po. Ottenuto l'andamento plano altimetrico del corso d'acqua sono state effettuate simulazioni in condizioni di piena eccezionale e deflusso medio allo scopo di valutarne affidabilità e precisione. Vengono infine proposti tre metodi di modifica della geometria, fornita da SRTM, in modo tale da migliorare la rappresentazione dell'alveo di magra ed incrementarne le performance.
Resumo:
La previsione dei temporali rappresenta una delle operazioni più impegnative e complesse per chi svolge il mestiere di meteorologo, soprattutto se effettuata con molte ore di anticipo rispetto all'evento; ciò è riconducibile alla molteplicità di parametri da cui questi fenomeni dipendono ed all'incertezza che si riscontra nella simulazione degli indici di instabilità. In questo elaborato viene presentata ed approfondita una tecnica di elaborazione dei dati provenienti da radiosondaggi previsti, con lo scopo di migliorare la previsione dei temporali relativa al giorno successivo. Nel 1987 Colquhoun elaborò un albero decisionale per la previsione di temporali in Australia, basato sul superamento di soglie degli indici di instabilità. Qui di seguito, si propone di testare la validità dello stesso schema decisionale alla previsione di temporali in Pianura Padana ed in particolare in Emilia Romagna, procedendo ad un confronto tra gli eventi previsti ed i fenomeni osservati; la previsione si basa sull'output dell'albero decisionale utilizzando gli indici di instabilità previsti dai LAM COSMO-I7 e COSMO-I2 nel periodo +24/+48 ore, mentre l'osservazione dei temporali viene ricavata tramite consultazione quotidiana di METAR,SYNOP,SYREP, e mappe di fulminazioni relative al quadriennio 2010-2013. L'indice assunto per valutare l'affidabilità delle previsioni fornite è il Threat Score che presenta due limiti fondamentali: la dipendenza dal numero di eventi e l'incapacità di differenziare i falsi allarmi dai mancati allarmi. Ciò nonostante, questo indice rappresenta il miglior modo per ricavare una informazione complessiva e definire se la previsione fornita corrisponde ad una buona previsione. Lo stesso test viene effettuato sull'albero decisionale in uso presso la sala operativa di ARPA-SIM e dal confronto con l'albero di Colquhoun si deducono i limiti legati alla modellistica numerica che fornisce i dati in input. Infine il test sui parametri termodinamici previsti dai modelli COSMO-I2 e COSMO-I7 dimostra gli errori commessi sulla previsione a +24 e +36 ore dalle simulazioni. Questo lavoro si pone all'interno di un progetto più ampio di verifica della modellistica numerica sviluppata dal consorzio COSMO, al quale l'Italia aderisce attraverso la collaborazione di ARPA Emilia Romagna, ARPA Piemonte ed Aeronautica Militare. In particolare sono sottoposte a test le performances dei due modelli LAM sviluppati completamente in Italia ed utilizzati anche dal Dipartimento della protezione civile nazionale.
Towards the 3D attenuation imaging of active volcanoes: methods and tests on real and simulated data
Resumo:
The purpose of my PhD thesis has been to face the issue of retrieving a three dimensional attenuation model in volcanic areas. To this purpose, I first elaborated a robust strategy for the analysis of seismic data. This was done by performing several synthetic tests to assess the applicability of spectral ratio method to our purposes. The results of the tests allowed us to conclude that: 1) spectral ratio method gives reliable differential attenuation (dt*) measurements in smooth velocity models; 2) short signal time window has to be chosen to perform spectral analysis; 3) the frequency range over which to compute spectral ratios greatly affects dt* measurements. Furthermore, a refined approach for the application of spectral ratio method has been developed and tested. Through this procedure, the effects caused by heterogeneities of propagation medium on the seismic signals may be removed. The tested data analysis technique was applied to the real active seismic SERAPIS database. It provided a dataset of dt* measurements which was used to obtain a three dimensional attenuation model of the shallowest part of Campi Flegrei caldera. Then, a linearized, iterative, damped attenuation tomography technique has been tested and applied to the selected dataset. The tomography, with a resolution of 0.5 km in the horizontal directions and 0.25 km in the vertical direction, allowed to image important features in the off-shore part of Campi Flegrei caldera. High QP bodies are immersed in a high attenuation body (Qp=30). The latter is well correlated with low Vp and high Vp/Vs values and it is interpreted as a saturated marine and volcanic sediments layer. High Qp anomalies, instead, are interpreted as the effects either of cooled lava bodies or of a CO2 reservoir. A pseudo-circular high Qp anomaly was detected and interpreted as the buried rim of NYT caldera.
Resumo:
La tecnologia rende ormai disponibili, per ogni tipologia di azienda, dispositivi elettronici a costo contenuto in grado di rilevare il comportamento dei propri clienti e quindi permettere di profilare bacini di utenza in base a comportamenti comuni. Le compagnie assicurative automobilistiche sono molto sensibili a questo tema poiché, per essere concorrenziali, il premio assicurativo che ogni cliente paga deve essere abbastanza basso da attirarlo verso la compagnia ma anche abbastanza alto da non diventare una voce negativa nel bilancio di quest'ultima. Negli ultimi anni vediamo dunque il diffondersi delle scatole nere, che altro non sono che dispositivi satellitari che aiutano le compagnie assicurative a definire più nel dettaglio il profilo del proprio cliente. Una migliore profilatura porta vantaggi sia all'assicurato che alla compagnia assicurativa, perché da un lato il cliente vede il premio dell'assicurazione abbassarsi, dall'altro la compagnia assicuratrice si sente rassicurata sull'affidabilità del cliente. Questi dispositivi sono costruiti per svolgere principalmente due compiti: raccogliere dati sulla guida dell'automobilista per una profilatura e rilevare un incidente. Come servizio aggiuntivo può essere richiesto supporto al primo soccorso. L'idea di questa tesi è quella di sviluppare un'applicazione per smartphone che funzioni da scatola nera e analizzare i vantaggi e i limiti dell'hardware. Prima di tutto l'applicazione potrà essere installata su diversi dispositivi e potrà essere aggiornata di anno in anno senza dover eliminare l'hardware esistente, d'altro canto lo smartphone permette di poter associare anche funzionalità di tipo client-care più avanzate. Queste funzionalità sarebbero di notevole interesse per l'automobilista, pensiamo ad esempio al momento dell'incidente, sarebbe impagabile un'applicazione che, rilevato l'incidente in cui si è rimasti coinvolti, avverta subito i soccorsi indicando esplicitamente l'indirizzo in cui è avvenuto.
Resumo:
Oggetto della tesi e' l'approfondimento su tecniche e metodiche di preservazione del polmone isolato per lo studio ecografico. E' discussa l'appropriatezza sull'uso degli ultrasuoni in corso di chirurgia mini invasiva polmonare, obiettivo di una ricerca sperimentale. Il razionale dello studio si fonda sull'indicazione all'exeresi chirurgica di noduli polmonari di diametro inferiore al centometro, ovvero di diametro superiore ma localizzati in aree centrali del polmone. Queste lesioni sono sempre piu' frequentente diagnosticate per mezzo di avanzate tecniche di imaging. L'atto chirurgico ha scopo terapeutico quando sia stata posta la diagnosi di neoplasia maligna, diagnostico-terapeutico quando non sia ancora ottenuta la tipizzazione istologica della lesione. La tecnica toracoscopica offre numerosi vantaggi rispetto alle tecniche chirurgiche tradizionali ma presenta il grave limite di non permettere la palpazione diretta del tessuto polmonare e la localizzazione della formazione tumorale quando essa non sia visibile macroscopicamente. Gli ultrasuoni sono stati utilizzati con successo per indirizzare la localizzazione del nodulo polmonare. Scopo dello studio sperimentale e' quello di confrontare tecniche diverse di preservazione del polmone isolato in un modello animale, comparando catatteristiche e prestazioni di sonde ecografiche differenti per tipologia. Del tutto recentemente, in ambito trapiantologico, sono state proposte tecniche di preservazione organica utili ai fini di uno studio anatomico sperimentale particolareggiato (EVLP) e moderna e' da considerarsi la concezione di mezzi tecnici specifici per la localizzazione di bersagli intrapolmonari. La tecnica clinica applicata allo studio del particolare ecografico, nel modello animale, ha reso comprensibile e meglio definito il ruolo delle sonde ecografiche nell'individuazione di forme tumorali suscettibili di exeresi definitiva.
Resumo:
Nei Roditori e nei Primati, studi di immunoistochimica condotti sulla formazione ippocampale hanno dimostrato che le proteine leganti il calcio (parvalbumina, calbindina-D28k e calretinina) sono dei marker che consentono di identificare differenti sottopopolazioni di neuroni. Nel presente studio è stata analizzata la distribuzione di queste proteine nella formazione ippocampale di cane. L’immunoreattività per la parvalbumina è stata localizzata in neuroni multipolari presenti nello strato polimorfo e nei campi CA3-CA1, così come in alcuni neuroni presumibilmente inibitori localizzati nel campo CA1 e nel subicolo. I granuli e le fibre muschiate presentavano una forte immunoreattività per la calbindina-D28k. Tale immunoreattività era evidente anche nei neuroni piramidali del campo CA1 e del subicolo ed in alcuni interneuroni, presumibilmente inibitori, distribuiti nella formazione ippocampale. L’immunoreatività per la calretinina era relativamente bassa in tutta la formazione ippocampale. Le analisi immunoistochimiche hanno evidenziato, nel giro dentato e nel campo CA1, una riduzione età-dipendente dell’immunoreattività per la parvalbumina e la calretinina. Le analisi condotte mediante risonanza magnetica hanno inoltre dimostrato una riduzione volumetrica età-dipendente della formazione ippocampale di cane.
Resumo:
Le nanoparticelle polimeriche offrono grandi vantaggi nella nanomedicina in quanto fungono da carrier per il Drug Delivery e possono essere molto utili per le malattie ancor oggi difficili da trattare quali le neurodegenerative come l’Alzheimer. In questo progetto di tesi sono stati creati nanocarrier polimerici utilizzando come polimero un copolimero a blocchi anfifilico noto come PLGA-b-PEG: con varie tecniche si sono ottenute micelle polimeriche nelle quali sono stati intrappolati come principi attivi sia un farmaco, il liraglutide, sia nanoparticelle di magnesio; il primo può ridurre le placche β-amiloidee, tipiche cause dell’Alzheimer, mentre le seconde possono aumentare la plasticità sinaptica anch’essa legata all’Alzheimer. Inoltre è stato sintetizzato e intrappolato anche un promettente agente diagnostico, ovvero nanoparticelle di ferro, utile per aumentare la sensibilità di tecniche di imaging quali MRI e per la rivelazione precoce di malattie. Tutti i sistemi sono stati caratterizzati con tecniche specifiche per valutare i parametri chiave quali dimensione, polidispersità, carica superficiale e concentrazione dei componenti e successivamente sono state utilizzate per studi biologici effettuati da collaboratori esterni. Tutto questo ha come obiettivo futuro la creazione di un carrier teranostico che racchiuderà al suo interno l’agente terapeutico e l’agente diagnostico per combinare i due effetti principali in un unico carrier.
Sistemi a microonde dedicati all'imaging della mammella: prototipi sperimentali e risultati clinici.
Resumo:
In questo lavoro si è voluto mostrare lo sviluppo di nuove tecniche per la diagnosi del tumore alla mammella, in particolare la tecnica di imaging a microonde. Fra le varie metodologie di imaging della mammella, la Microwave Imaging è particolarmente interessante in quanto sfrutta il contrasto nelle proprietà elettromagnetiche dei tessuti. Questa emergente tecnica offre numerosi vantaggi per le pazienti eliminando la compressione della mammella tipica delle mammografie a raggi-X, e l'uso di radiazioni ionizzanti e dannose per l'uomo. Per tali motivi, la ricerca in campo biomedico, dal 2000 in poi, si è interessata particolarmente all' uso delle onde elettromagnetiche nel range delle microonde per ottenere immagini diagnostiche. Il presente lavoro si propone di illustrare lo stato dell'arte attuale nel campo dell'imaging a microonde, descrivendo dettagliatamente i vari prototipi sviluppati in tutto il mondo, e infine esporre i risultati che i vari gruppi di ricerca hanno ottenuto. Anche se la tecnica, per le sue potenzialità, dovrebbe avere un largo uso clinico, solo pochi dei sistemi realizzati sono stati testati su pazienti a scopo diagnostico.
Resumo:
Cancer is one of the principal causes of death in the world; almost 8.2 million of deaths were counted in 2012. Emerging evidences indicate that most of the tumors have an increased glycolytic rate and a detriment of oxidative phosphorylation to support abnormal cell proliferation; this phenomenon is known as aerobic glycolysis or Warburg effect. This switching toward glycolysis implies that cancer tissues metabolize approximately tenfold more glucose to lactate in a given time and the amount of lactate released from cancer tissues is much greater than from normal ones. In view of these fundamental discoveries alterations of the cellular metabolism should be considered a crucial hallmark of cancer. Therefore, the investigation of the metabolic differences between normal and transformed cells is important in cancer research and it might find clinical applications. The aim of the project was to investigate the cellular metabolic alterations at single cell level, by monitoring glucose and lactate, in order to provide a better insight in cancer research. For this purpose, electrochemical techniques have been applied. Enzyme-based electrode biosensors for lactate and glucose were –ad hoc- optimized within the project and used as probes for Scanning Electrochemical Microscopy (SECM). The UME biosensor manufacturing and optimization represented a consistent part of the work and a full description of the sensor preparation protocols and of the characterization methods employed is reported. This set-up (SECM used with microbiosensor probes) enabled the non-invasive study of cellular metabolism at single cell level. The knowledge of cancer cell metabolism is required to design more efficient treatment strategies.