525 resultados para Luso-brésilienité
Resumo:
La Tesi analizza le relazioni tra i processi di sviluppo agricolo e l’uso delle risorse naturali, in particolare di quelle energetiche, a livello internazionale (paesi in via di sviluppo e sviluppati), nazionale (Italia), regionale (Emilia Romagna) e aziendale, con lo scopo di valutare l’eco-efficienza dei processi di sviluppo agricolo, la sua evoluzione nel tempo e le principali dinamiche in relazione anche ai problemi di dipendenza dalle risorse fossili, della sicurezza alimentare, della sostituzione tra superfici agricole dedicate all’alimentazione umana ed animale. Per i due casi studio a livello macroeconomico è stata adottata la metodologia denominata “SUMMA” SUstainability Multi-method, multi-scale Assessment (Ulgiati et al., 2006), che integra una serie di categorie d’impatto dell’analisi del ciclo di vita, LCA, valutazioni costi-benefici e la prospettiva di analisi globale della contabilità emergetica. L’analisi su larga scala è stata ulteriormente arricchita da un caso studio sulla scala locale, di una fattoria produttrice di latte e di energia elettrica rinnovabile (fotovoltaico e biogas). Lo studio condotto mediante LCA e valutazione contingente ha valutato gli effetti ambientali, economici e sociali di scenari di riduzione della dipendenza dalle fonti fossili. I casi studio a livello macroeconomico dimostrano che, nonostante le politiche di supporto all’aumento di efficienza e a forme di produzione “verdi”, l’agricoltura a livello globale continua ad evolvere con un aumento della sua dipendenza dalle fonti energetiche fossili. I primi effetti delle politiche agricole comunitarie verso una maggiore sostenibilità sembrano tuttavia intravedersi per i Paesi Europei. Nel complesso la energy footprint si mantiene alta poiché la meccanizzazione continua dei processi agricoli deve necessariamente attingere da fonti energetiche sostitutive al lavoro umano. Le terre agricole diminuiscono nei paesi europei analizzati e in Italia aumentando i rischi d’insicurezza alimentare giacché la popolazione nazionale sta invece aumentando.
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.
Resumo:
La presente dissertazione investiga la possibilità di ottimizzare l’uso di energia a bordo di una nave per trasporto di prodotti chimici e petrolchimici. Il software sviluppato per questo studio può essere adattato a qualsiasi tipo di nave. Tale foglio di calcolo fornisce la metodologia per stimare vantaggi e miglioramenti energetici, con accuratezza direttamente proporzionale ai dati disponibili sulla configurazione del sistema energetico e sui dispositivi installati a bordo. Lo studio si basa su differenti fasi che permettono la semplificazione del lavoro; nell’introduzione sono indicati i dati necessari per svolgere un’accurata analisi ed è presentata la metodologia adottata. Inizialmente è fornita una spiegazione sul layout dell’impianto, sulle sue caratteristiche e sui principali dispositivi installati a bordo. Vengono dunque trattati separatamente i principali carichi, meccanico, elettrico e termico. In seguito si procede con una selezione delle principali fasi operative della nave: è seguito tale approccio in modo da comprendere meglio la ripartizione della richiesta di potenza a bordo della nave e il suo sfruttamento. Successivamente è svolto un controllo sul dimensionamento del sistema elettrico: ciò aiuta a comprendere se la potenza stimata dai progettisti sia assimilabile a quella effettivamente richiesta sulla nave. Si ottengono in seguito curve di carico meccanico, elettrico e termico in funzione del tempo per tutte le fasi operative considerate: tramite l’uso del software Visual Basic Application (VBA) vengono creati i profili di carico che possono essere gestiti nella successiva fase di ottimizzazione. L’ottimizzazione rappresenta il cuore di questo studio; i profili di potenza ottenuti dalla precedente fase sono gestiti in modo da conseguire un sistema che sia in grado di fornire potenza alla nave nel miglior modo possibile da un punto di vista energetico. Il sistema energetico della nave è modellato e ottimizzato mantenendo lo status quo dei dispositivi di bordo, per i quali sono considerate le configurazioni di “Load following”, “two shifts” e “minimal”. Una successiva investigazione riguarda l’installazione a bordo di un sistema di accumulo di energia termica, così da migliorare lo sfruttamento dell’energia disponibile. Infine, nella conclusione, sono messi a confronto i reali consumi della nave con i risultati ottenuti con e senza l’introduzione del sistema di accumulo termico. Attraverso la configurazione “minimal” è possibile risparmiare circa l’1,49% dell’energia totale consumata durante un anno di attività; tale risparmio è completamente gratuito poiché può essere raggiunto seguendo alcune semplici regole nella gestione dell’energia a bordo. L’introduzione di un sistema di accumulo termico incrementa il risparmio totale fino al 4,67% con un serbatoio in grado di accumulare 110000 kWh di energia termica; tuttavia, in questo caso, è necessario sostenere il costo di installazione del serbatoio. Vengono quindi dibattuti aspetti economici e ambientali in modo da spiegare e rendere chiari i vantaggi che si possono ottenere con l’applicazione di questo studio, in termini di denaro e riduzione di emissioni in atmosfera.
Resumo:
Questo lavoro di tesi si è svolto in collaborazione con le Unità Operative di Cardiologia e di Radiologia dell’ospedale “M. Bufalini” di Cesena e della St. Jude Medical, Inc., con l’obiettivo di sviluppare e implementare un metodo per l’identificazione e la valutazione della fibrosi atriale mediante risonanza magnetica in pazienti con fibrillazione atriale, candidati a procedura di ablazione. I pazienti sono stati sottoposti all’esame di risonanza magnetica (RM) angio per la valutazione della morfologia atriale e alla DE-MRI per l’identificazione e la visualizzazione delle zone di alto enhancement sulla struttura 3D dell’atrio sinistro, ossia le zone di alta intensità corrispondenti alla fibrosi. La struttura anatomica è utile all’elettrofisiologo per conoscere la morfologia dell’atrio e delle vene polmonari, permettendo quindi di minimizzare l’uso della fluoroscopia durante la procedura di ablazione. La conoscenza dei siti e della quantificazione della fibrosi è vantaggiosa per il medico per la pianificazione preoperatoria, in quanto nei pazienti con molta fibrosi non è sufficiente l’isolamento delle vene polmonari, ma si ottengono risultati migliori effettuando un’ablazione estensiva della parete atriale. Inoltre gli studi in letteratura hanno dimostrato che i pazienti con un’estensione di fibrosi superiore al 35% della superficie atriale, hanno una probabilità superiore al 50% di soffrire nuovamente di fibrillazione atriale dopo la procedura di ablazione; lo studio della fibrosi atriale vuole quindi essere un metodo per predire se l’ablazione avrà successo, oppure se è preferibile seguire indicazioni terapeutiche diverse. Il primo passo di questo lavoro è stata la registrazione delle immagini angio-RM e DE-MR mediante il software VolView. Successivamente si è implementato un programma in Matlab per segmentare in modo automatico l’atrio sinistro e si è visualizzata la struttura tridimensionale con la mappa cromatica della fibrosi utilizzando il software ParaView. Infine per validare questo lavoro si è effettuato un confronto qualitativo dei risultati ottenuti con il mappaggio elettro-anatomico acquisito mediante il sistema EnSite Velocity della St. Jude Medical, Inc. durante la procedura di ablazione transcatetere. Per eseguire questo confronto è stato necessario interfacciare il nostro lavoro con il sistema EnSite Velocity, con lo scopo di riuscire a visualizzare le mappe elettro-anatomiche sul nostro sistema e di importare la nostra struttura anatomica nel loro.
Resumo:
La rottura del Legamento Crociato Craniale (LCCr) rappresenta una delle patologie ortopediche di maggiore riscontro clinico nella specie canina. In seguito a rottura del LCCr si presenta un continuo slittamento craniale della tibia il quale esita in un processo osteoartrosico. La risoluzione chirurgica rappresenta la migliore soluzione terapeutica. Le tecniche chirurgiche extra-articolari con sfruttamento dei punti isometrici del ginocchio si presentano come delle procedure molto diffuse e utilizzate. Questa tesi propone di validare l’uso di un nuovo sistema di navigazione computerizzato-assistito per la valutazione cinematica durante la ricostruzione del LCCr nel cane, ma soprattutto di studiare e confrontare il comportamento e l’efficacia dopo ricostruzione TightRope (TR) in due diverse coppie di punti isometrici. Abbiamo effettuato due analisi in parallelo. La prima eseguendo interventi chirurgici con tecnica TR su 18 casi clinici e sfruttando il punto isometrico del femore (F2) e due diversi punti isometrici della tibia (T2 o T3). L’analisi prevedeva dei controlli postoperatori a 1, 3 e 6 mesi. Ad ogni controllo veniva effettuata una visita ortopedica, esami radiografici, un questionario di valutazione clinico e di soddisfazione del proprietario. Mentre nella ricerca Ex-Vivo abbiamo eseguito dei test su 14 preparati anatomici con l’utilizzo di un sistema di navigazione computerizzato per la rilevazione dei dati. L’analisi prevedeva la valutazione dell’articolazione in diversi stadi: LCCr intatto; LCCr rotto; dopo ricostruzione con TR in F2-T2 e tensionato a 22N, 44N e 99N; dopo ricostruzione con TR in F2-T3 e tensionato a 22N, 44N e 99N. Ad ogni stadio si eseguivano cinque test di valutazione, tra cui: Test del Cassetto, Test di compressione tibiale (TCT), Rotazione Interna/Esterna, Flesso/Estensione e Varo/Valgo. Lo scopo di tale studio è quello di confrontare tra loro i punti isometrici del ginocchio e di analizzare l’efficacia della tecnica TR nelle due differenti condizioni di isometria (F2-T2 e F2-T3).
Resumo:
L’uso di materiali compositi nel rinforzo delle strutture in legno sotto l’azione dei carichi, richiede particolare attenzione ad importanti aspetti. Per esempio, è molto importante pianificare il tipo di intervento da realizzare. Infatti esistono varie tecniche per rinforzare elementi lignei usando diversi “layouts” degli FRP, ognuno dei quali può conferire risultati diversi. Come riporta la figura 55 [31], ci possono essere diverse tipologie di applicazione dei rinforzi.
Resumo:
Il mantenimento delle condizioni termoigrometriche ottimali all’interno di edifici mediante l’uso di unità di trattamento dell'aria comporta generalmente consumi energetici notevoli. Ciò che determina il livello entalpico di immissione dell’aria è il fabbisogno energetico dell’involucro edilizio: la geometria, i materiali di costruzione, unitamente ai carichi interni, alle infiltrazioni d’aria indesiderate, e ovviamente, alla zona climatica in cui l’edificio sorge, giocano un ruolo fondamentale nel computo dei consumi energetici. Nella pratica, esistono diverse soluzioni tecniche volte alla riduzione dei consumi e quindi dei costi di gestione di queste tipologie di impianto. Tra queste, occorre senz’altro ricordare l’inserimento del “cappotto termico” e delle cosiddette facciate ventilate. Ciascuna di queste due soluzioni interviene direttamente sull’involucro edilizio, riducendone il fabbisogno energetico. Si trovano poi soluzioni che non interessano direttamente l’involucro, ma che sono inserite all’interno dell’impianto in modo da ridurne i consumi. E’ il caso dei recuperatori di calore, scambiatori di calore che utilizzano l’aria prelevata dal locale condizionato per preriscaldare o preraffreddare l’aria esterna. Lo scopo di questo elaborato è quello di analizzare le prestazioni energetiche di un impianto di condizionamento che utilizzi, combinandole, due di queste soluzioni: l’intercapedine ventilata, con convezione di tipo forzata, e il recuperatore di calore. In particolare, si è fatto in modo che la facciata ventilata sia una sorta di componente dell’impianto, che risulta quindi “integrato nell’involucro”: l’idea è quella di studiare l’effetto della frazione di portata elaborata dall’impianto che viene inviata alla parete sui consumi energetici. Si è posta l’attenzione principalmente sulla stagione estiva, nella quale l’impianto studiato fa anche uso della tecnica del cosiddetto mist cooling: umidificando la portata d’aria di ripresa sia a monte che all’interno dell’intercapedine ventilata, si abbatte la temperatura dell’aria, con un conseguente abbattimento della temperatura di parete e con un notevole miglioramento delle prestazioni del recuperatore di calore.
Resumo:
La tesi riguarda la concessione di spazi di proprietà pubblica a privati, intesi come singole persone o enti, quali ad esempio i collegi, da parte delle autorità cittadine. Le fonti a disposizione per indagare tale pratica burocratica sono quasi totalmente di natura epigrafica, per lo più attestanti l’espressione locus datus decreto decurionum, variamente abbreviata, o formule similari. Questo aspetto della vita civica è stata cursoriamente oggetto di studio in diversi contributi, ma si tratta di articoli che circoscrivono il tema, analizzandolo in relazione a ristrette aree geografiche, oppure considerandone determinati aspetti (ad esempio l’ambito sacro o quello funerario). Si è perciò ritenuto utile proseguire questa linea di ricerca affrontando uno studio di più ampio raggio, che comprenda la documentazione epigrafica dell’intero territorio italico (costituito dalle undici regioni augustee ad esclusione di Roma), per tutte le tipologie testuali (iscrizioni sacre, funerarie, onorarie, su opera pubblica, exempla decreti), allo scopo di formulare osservazioni più precise e puntuali sulla procedura burocratica in esame, pur con tutti i limiti noti a chi affronti questo genere di indagine. Tra le conclusioni raggiunte, è emerso come durante il I-II sec. d.C. vi fosse la tendenza a concedere, sporadicamente, dei loca sepulturae extraurbani a membri delle famiglie delle élites cittadine, anche donne e fanciulli, mentre il foro e le altre aree pubbliche interne alla città erano soprattutto utilizzate direttamente dai decurioni per l’elevazione di dediche e statue. Nel corso del II sec. d.C., con massima diffusione nell’età antonina e poi in quella severiana, prese invece piede l’uso privato a scopo onorario degli spazi pubblici siti all’interno delle città, ovvero in aree prima pressoché precluse all’intervento di singoli cittadini: familiari e liberti, collegi e altri organismi commissionavano statue dedicate prevalentemente agli amministratori locali, magistrati cittadini spesso divenuti anche cavalieri.
Resumo:
Alcune patologie dell’occhio come la retinopatia diabetica, il pucker maculare, il distacco della retina possono essere curate con un intervento di vitrectomia. I rischi associati all’intervento potrebbero essere superati ricorrendo alla vitrectomia enzimatica con plasmina in associazione o in sostituzione della vitrectomia convenzionale. Inoltre, l’uso di plasmina autologa eviterebbe problemi di rigetto. La plasmina si ottiene attivando il plasminogeno con enzimi quali l’attivatore tissutale (tPA) e l’urochinasi ( uPA ) . La purificazione del plasminogeno dal sangue avviene normalmente attraverso cromatografia di affinità con resina. Tuttavia, le membrane di affinità costituiscono un supporto ideale per questa applicazione poiché possono essere facilmente impaccate prima dell’intervento, permettendo la realizzazione di un dispositivo monouso che fornisce un processo rapido ed economico. Obiettivo di questo lavoro è la preparazione di membrane di affinità per la purificazione del plasminogeno utilizzando L-lisina come ligando di affinità. Per questo scopo sono state usate membrane in cellulosa rigenerata ad attivazione epossidica, modificate con due diversi protocolli per l’immobilizzazione di L-lisina. La densità ligando è stata misurata mediante un saggio colorimetrico che usa l’acido arancio 7 come indicatore. La resa di immobilizzazione è stata studiata in funzione del tempo di reazione e della concentrazione di L-lisina. Le membrane ottimizzate sono state caratterizzate con esperimenti dinamici usando siero bovino e umano, i risultati sono stati confrontati con quelli ottenuti in esperimenti paralleli condotti con una resina commerciale di affinità con L-lisina. Durante gli esperimenti con siero, le frazioni provenienti da ogni fase cromatografica sono state raccolte e analizzate con HPLC ed elettroforesi SDS-PAGE. In particolare, l’elettroforesi dei campioni eluiti presenta una banda del plasminogeno ben definita indicando che le membrane di affinità con L-lisina sono adatte alla purificazione del plasminogeno. Inoltre, è emerso che le membrane hanno maggiore produttività della resina commerciale di riferimento.
Resumo:
I processi microbiologici rivestono una grande importanza nello sviluppo di combustibili e sostanze chimiche da fonti rinnovabili (biomassa), quali: il biometano e le bioplastiche, come i poli(idrossialcanoati), PHA. I PHA sono poliesteri ottenuti per condensazione di 3-idrossiacidi, il più comune dei quali è il poli(3-idrossibutirrato, PHB). Gli alti costi di produzione del PHA da colture microbiche singole ha portato a valutare nuove strategie, tra cui l’utilizzo di colture microbiche miste (MMC) e substrati di scarto. Il bio-olio ottenuto dalla pirolisi di biomassa potrebbe essere un substrato interessante per la produzione di biogas e PHA. Gli acidi a catena corta (acidi grassi volatili, VFA), infatti, sono i prodotti intermedi nella produzione sia di biogas che di PHA. L’analisi di questi ultimi viene normalmente effettuata tramite GC-FID o GC-MS. La degradazione termica (pirolisi, Py) di PHA produce acidi alchenoici caratteristici, come l’acido crotonico. Il metodo tradizionale per la determinazione del PHA è la metanolisi seguita da un’analisi GC-MS, una procedura laboriosa con uso di solventi clorurati e sostanze corrosive. Lo scopo principale di questa tesi è stato quello di sviluppare un nuovo metodo di analisi dei PHA. Il metodo studiato si basa sulla pirolisi diretta della biomassa e determinazione degli acidi alchenoici prodotti dalla degradazione del PHA in GC-FID. La pirolisi analitica è stata studiata tramite analisi di polimeri puri (per la calibrazione) e poi è stata applicata a campioni batterici derivanti da MMC e a ceppi selezionati. Il confronto con il metodo convenzionale ha dimostrato che la Py/GC-FID è un metodo valido per l’identificazione dei PHA e per la loro quantificazione nelle matrici batteriche. Il pre-trattamento del campione è minimo e non richiede l’uso di solventi e reagenti chimici. Inoltre, è stata applicata una tecnica di analisi dei VFA nei test di biometanazione basata sull’estrazione con una microquantità di dimetilcarbonato.
Resumo:
L’obiettivo di questa tesi è stato quello di migliorare l’efficacia e l’efficienza di una proposta allo stato dell’arte per l’individuazione di punti salienti in immagini digitali [1]. Questo algoritmo sfrutta le proprietà dell’equazione alle derivate parziali che modella l’evoluzione di un’onda. Per migliorarlo sono stati implementati alcuni schemi numerici di risoluzione dell’equazione delle onde bidimensionale e sono stati valutati rispetto allo schema già utilizzato. Sono stati implementati sia schemi impliciti sia schemi espliciti, tutti in due versioni: con interlacciamento con l’equazione del calore (diffusivi) e senza. Lo studio dei migliori schemi è stato approfondito e questi ultimi sono stati confrontati con successo con la versione precedentemente proposta dello schema esplicito INT 1/4 con diffusione [1]. In seguito è stata realizzata una versione computazionalmente più efficiente dei migliori schemi di risoluzione attraverso l’uso di una struttura piramidale ottenuta per sotto-campionamento dell’immagine. Questa versione riduce i tempi di calcolo con limitati cali di performance. Il tuning dei parametri caratteristici del detector è stato effettuato utilizzando un set di immagini varianti per scala, sfocamento (blur), punto di vista, compressione jpeg e variazione di luminosità noto come Oxford dataset. Sullo stesso sono stati ricavati risultati sperimentali che identificano la proposta presentata come il nuovo stato dell’arte. Per confrontare le performance di detection con altri detector allo stato dell’arte sono stati utilizzati tre ulteriori dataset che prendono il nome di Untextured dataset, Symbench dataset e Robot dataset. Questi ultimi contengono variazioni di illuminazione, momento di cattura, scala e punto di vista. I detector sviluppati risultano i migliori sull’Untextured dataset, raggiungono performance simili al miglior detector disponibile sul Symbench dataset e rappresentano il nuovo stato dell’arte sul Robot dataset.
Resumo:
Il mercato agroalimentare sta conoscendo, soprattutto negli ultimi anni, una evoluzione sia dal punto di vista normativo sia legato alla crescente richiesta da parte dell’opinione pubblica di caratteristiche di trasparenza, tracciabilità e sostenibilità ambientale, economica e sociale. La sostenibilità della Food Supply Chain rappresenta una problematica di grande interesse in termini di ricadute di impatto ambientale e depauperamento delle risorse. L’obiettivo di fornire strumenti decisionali utili per tutti gli operatori della Food Supply Chain ha comportato lo sviluppo di specifiche metodologie e di supporto alle decisioni. L'introduzione di una maggiore integrazione tra gli attori coinvolti nella FSC può portare a migliorare la sostenibilità dei sistemi alimentari. Nel presente lavoro è stato preso in considerazione un caso concreto in cui si è analizzata la filiera dei prodotti ortofrutticoli afferenti al centro di distribuzione di una catena della GDO, con un focus sui prodotti trattati e destinati all’area della provincia di Ravenna. La mappatura dei flussi di provenienza e destinazione delle merci ha permesso di analizzare strutturalmente i canali dei fornitori. Le informazioni acquisite sono state implementate su un database per consentirne la modellizzazione e l’analisi quantitativa dei flussi di prodotto ortofrutticolo. I dati sono stai elaborati attraverso l’uso della piattaforma software che ha collocato nello spazio i vari nodi logistici in modo da calcolarne le distanze reciproche e pianificare gli itinerari di viaggio. In questo modo è stato possibile simulare ogni singola spedizione a partire dall’aggregazione della domanda alle singole missioni di consegna, tenendo in considerazione i mezzi di trasporto selezionati. La scelta di un particolare tipo di veicolo, la sua velocità, la capacità massima del mezzo in termini di kg e m3, ha determinato il numero di spedizioni. Su queste basi è stato possibile eseguire il calcolo dell’impatto ambientale della distribuzione logistica e formulare quindi ipotesi di sviluppo futuro.
Resumo:
Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Il metodo agli elementi finiti è stato utilizzato per valutare la distribuzione dei carichi e delle deformazioni in numerose componenti del corpo umano. L'applicazione di questo metodo ha avuto particolare successo nelle articolazioni con geometria semplice e condizioni di carico ben definite, mentre ha avuto un impatto minore sulla conoscenza della biomeccanica delle articolazioni multi-osso come il polso. Lo scopo di questo lavoro è quello di valutare gli aspetti clinici e biomeccanici dell’articolazione distale radio-ulnare, attraverso l’utilizzo di metodi di modellazione e di analisi agli elementi finiti. Sono stati progettati due modelli 3D a partire da immagini CT, in formato DICOM. Le immagini appartenevano ad un paziente con articolazione sana e ad un paziente con articolazione patologica, in particolare si trattava di una dislocazione ulnare traumatica. Le componenti principali dei modelli presi in considerazione sono stati: radio, ulna, cartilagine, legamento interosso, palmare e distale. Per la realizzazione del radio e dell’ulna sono stati utilizzati i metodi di segmentazione “Thresholding” e “RegionGrowing” sulle immagini e grazie ad operatori morfologici, è stato possibile distinguere l’osso corticale dall’osso spongioso. Successivamente è stata creata la cartilagine presente tra le due ossa, attraverso operazioni di tipo booleano. Invece, i legamenti sono stati realizzati prendendo i punti-nodo del radio e dell’ulna e formando le superfici tra di essi. Per ciascuna di queste componenti, sono state assegnate le corrispondenti proprietà dei materiali. Per migliorare la qualità dei modelli, sono state necessarie operazioni di “Smoothing” e “Autoremesh”. In seguito, è stata eseguita un’analisi agli elementi finiti attraverso l’uso di vincoli e forze, così da simulare il comportamento delle articolazioni. In particolare, sono stati simulati lo stress e la deformazione. Infine, grazie ai risultati ottenuti dalle simulazioni, è stato possibile verificare l’eventuale rischio di frattura in differenti punti anatomici del radio e dell’ulna nell’articolazione sana e patologica.