316 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale
Resumo:
L'elimodellismo è una passione che lega un numero sempre maggiore di persone: nuove manifestazioni vengono organizzate in tutto il mondo e nuove discipline vengono continuamente proposte. Questo è il caso della disciplina speed in cui i piloti si sfidano a far volare i propri elimodelli alle massime velocità. L'azienda SAB Heli Division s.r.l., come produttore di pale per elimodelli e della serie di elicotteri Goblin, ha interesse a sostenere i propri piloti con le proprie macchine, facendo sì che siano veloci e competitive. Per questo ha voluto sviluppare una pala che, montata sul proprio elicottero specifico per questa disciplina, possa vincere la concorrenza con l'ambizione di stabilire un primato di velocità a livello internazionale. Il problema è quindi quello di sviluppare una pala che ottimizzasse al meglio le caratteristiche dell'elimodello Goblin Speed, in modo da sfruttare al meglio la potenza installata a bordo. Per via dei limiti sui mezzi a disposizione l'ottimizzazione è stata portata avanti mediante la teoria dell'elemento di pala. Si è impostato il calcolo determinando la potenza media su una rotazione del rotore in volo avanzato a 270 km/h e quindi attraverso gli algoritmi di ottimizzazione globale presenti nel codice di calcolo MATLAB si è cercato il rotore che permettesse il volo a tale velocità al variare del raggio del disco del rotore, dello svergolamento della pala e della distribuzione di corda lungo la pala. Per far sì che si abbiano risultati più precisi si sono sfruttati alcuni modelli per stimare il campo di velocità indotta o gli effetti dello stallo dinamico. Inoltre sono state stimate altre grandezze di cui non sono noti i dati reali o di cui è troppo complesso, per le conoscenze a disposizione, avere un dato preciso. Si è tuttavia cercato di avere stime verosimili. Alcune di queste grandezze sono le caratteristiche aerodinamiche del profilo NACA 0012 utilizzato, ottenute mediante analisi CFD bidimensionale, i comandi di passo collettivo e ciclico che equilibrano il velivolo e la resistenza aerodinamica dell'intero elimodello. I risultati del calcolo sono stati confrontati innanzitutto con le soluzioni già adottate dall'azienda. Quindi si è proceduto alla realizzazione della pala e mediante test di volo si è cercato di valutare le prestazioni della macchina che monta la pala ottenuta. Nonostante le approssimazioni adottate si è osservato che la pala progettata a partire dai risultati dell'ottimizzazione rispecchia la filosofia adottata: per velocità paragonabili a quelle ottenute con le pale prodotte da SAB Heli Division, le potenze richieste sono effettivamente inferiori. Tuttavia non è stato possibile ottenere un vero e proprio miglioramento della velocità di volo, presumibilmente a causa delle stime delle caratteristiche aerodinamiche delle diverse parti del Goblin Speed.
Resumo:
All'interno della tesi si tratta il modello del calore, di cui si trova una rappresentazione integrale della soluzione fondamentale e da questa, attraverso la seconda identità di Green, vengono ricavate le formule di media superficiali e di volume sugli insiemi di livello su cui è definita la soluzione fondamentale.
Resumo:
L'elaborato illustra una serie di modelli termici, che si differenziano principalmente per la loro accuratezza e velocità di calcolo, per essere in grado di scegliere il modello più adatto da utilizzare in relazione all'applicazione prevista e alle esigenze richieste. Per una migliore comprensione del problema, vengono introdotti inizialmente alcuni concetti generali legati alle temperature in gioco nei componenti elettronici di potenza e alla trasmissione del calore, poi si passa alla determinazione della sorgente del calore (ovvero le perdite) in un modulo IGBT. Vengono quindi descritti alcuni modelli che siano in grado di rappresentare il sistema in esame dal punto di vista termico. Infine viene implementato in Simulink uno dei modelli proposti, mettendo così in pratica gran parte dei concetti esposti. Per il calcolo delle perdite, per i modelli e per la simulazione ci si è concentrati su un determinato componente elettronico di potenza per entrare nel cuore di un problema termico. È stato scelto l’IGBT perché è un dispositivo relativamente nuovo, in continuo miglioramento ed è sempre più utilizzato.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
Comprensione delle formulazioni analitiche e dei metodi tradizionali per il calcolo puntuale dello Sky View Factor (SVF), un parametro adimensionale in grado di esprimere con un singolo valore l’influenza dei fattori morfologici sulla porzione di volta celeste visibile da un punto. Valutazione delle performance dei software di mappatura dello SVF in area urbana al variare di tipologia e qualità del dato di input e dei parametri utilizzati. Al fine di studiare degli aspetti algoritmici dei modelli esistenti, è stato sviluppato uno script in linguaggio MATLAB per apportare miglioramenti alle tecniche esaminate.
Resumo:
La minaccia derivante da fattori di rischio esterni, come gli eventi catastrofici naturali, è stata recentemente riconosciuta come una questione importante riguardo la sicurezza degli impianti chimici e di processo. Gli incidenti causati dal rilascio di sotanze pericolose in seguito al danneggiamento di apparecchiature per effetto di eventi naturali sono stati definiti eventi NaTech, data la doppia componente naturale e tecnologica. È proprio la simultaneità del disastro naturale e dell’incidente tecnologico il problema principale di questo tipo di eventi, che, oltre a generare elevate difficoltà nella gestione delle emergenze, sono caratterizzati da un’elevata criticità in quanto la catastrofe naturale può essere la causa del cedimento contemporaneo di più apparecchiature in zone diverse dell’impianto. I cambiamenti climatici in corso porteranno inoltre ad un incremento della frequenza degli eventi idrometerologici estremi, con un conseguente aumento del rischio Natech. Si tratta quindi di un rischio emergente la cui valutazione deve essere effettuata attraverso metodologie e strumenti specifici. Solo recentemente è stato proposto un framework per la valutazione quantitativa di questo tipo di rischio. L’applicazione di tale procedura passa attraverso l’utilizzo di modelli di vulnerabilità che relazionano la probabilità di danneggiamento di una specifica apparecchiatura all’intensità dell’evento naturale di riferimento. Questo elaborato, facendo riferimento ai modelli di vulnerabilità e alle cartteristiche delle apparecchiature prese in esame, avrà inizialmente lo scopo di sviluppare una procedura a ritroso, calcolando l’intensità degli eventi di riferimento (terremoti e alluvioni) capace di causare un incremento di rischio non accettabile, al fine di poter determinare a priori se una data apparecchiatura con determinate condizioni operative e caratteristiche strutturali possa o meno essere installata in una zona specifica.
Resumo:
L'avvento di strumenti di osservazione sempre più potenti ha permesso negli ultimi decenni di studiare a fondo gli oggetti che compongono l'universo nonchè di giungere a stabilirne una possibile geometria. Se da un lato i dati di WMAP supportano un determinato scenario ``di consenso'', questo non esclude, tuttavia che anche altre possibili soluzioni cosmologiche possano entrare in gioco una volta che una o più delle assunzioni portanti del modello ΛCDM vengano aggiornate o risultino, alla prova di nuovi fatti, inconsistenti. Ecco quindi che può essere interessante investigare quali implicazioni possano nascere da una scelta diversa del modello. Prenderemo in considerazione cinque modelli: oltre al modello di consenso (ΛCDM), valuteremo anche tre casi limite nel contesto della metrica di Friedmann. Dedicheremo particolare attenzione, infine, al modello dello Stato Stazionario. Studieremo, al variare di questi scenari, la formazione stellare cosmica e con l'utilizzo dei modelli di SSP di Buzzoni (2005) otterremo le proprietà fotometriche di una meta galassia, le quali verranno confrontate con osservazioni recenti (e.g. Madgwick et al. 2002).
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
L'integrazione multisensoriale è la capacità da parte del sistema nervoso centrale di integrare informazioni provenienti da diverse sorgenti sensoriali. In particolare, l'integrazione audio-visiva avviene anche nelle cortecce visive e acustiche, in principio ritenute puramente unisensoriali. L'integrazione audio-visiva non è un'abilità innata, ma si sviluppa progressivamente nel tempo sulla base dell'esperienza. In questa Tesi viene presentato un modello matematico di rete neurale in grado di simulare lo sviluppo in un ambiente multisensoriale dei neuroni delle cortecce primarie visive e uditive nei primi mesi di vita di un neonato, e gli effetti dell'integrazione audio-visiva successivi a tale addestramento. In particolare il modello vuole mostrare, a partire da una condizione basale in cui i neuroni visivi e acustici non sono in grado di discriminare spazialmente la posizione degli input esterni e in cui non sussiste alcuna correlazione tra le due aree corticali primarie visive e uditive, come l'addestramento migliori la precisione della percezione spaziale degli stimoli esterni e come si stabiliscano tra le due aree in esame dei collegamenti stabili a lungo termine. Terminato l'addestramento, si verifica se la rete sia in grado di riprodurre gli effetti di integrazione audio-visiva nella corteccia primaria, quali la "cattura" dello stimolo acustico da parte di quello visivo (ventriloquismo) e il rafforzamento della risposta neurale allo stimolo acustico se contemporaneamente accompagnato da uno stimolo visivo nella stessa posizione spaziale (enhancement). Il modello potrebbe essere utilizzato in futuro anche per simulare altri fenomeni illusori come il fenomeno offline del ventriloquismo e il ventriloquismo a livello temporale.
Resumo:
Descrizione dei vantaggi della tecnologia delle fondazioni da pozzo per le pile da ponte. Analisi dei carichi di un viadotto esistente a struttura mista e studio agli stati limite delle più svantaggiose condizioni di carico. Analisi sismica della pila. Progetto e verifica della pila, del plinto e del pozzo nelle diverse fasi di realizzazione e per le combinazioni di carico considerate. Verifiche del terreno, con riferimento ai criteri di dimensionamento del Prof. Jamiolkowski. Analisi tenso-deformativa del terreno con software Plaxis2D e Midas-GTS (3D). Confronti fra il metodo analitico adottato nelle verifiche ed i risultati numerici. Norme di riferimento: NTC2008, Istruzione N°I/SC/PS-OM/2298, Ordinanza 3274 come modificato dall'OPCM 3431
Resumo:
Scopo dell'elaborato è quello di verificare l'applicabilità del modello di qualità fluviale, monodimensionale, QUAL2K al sistema idrico del CER. Il risultato conseguito rispecchia le ipotesi iniziali dello studio. Il modello sotto determinate ipotesi bene si presta a modellare le caratteristiche idrauliche e di qualità del Canale Emiliano Romagnolo.
Resumo:
Il presente lavoro di tesi affronta il problema della calibrazione dei modelli idrologici afflussi-deflussi tramite un nuovo approccio basato sull'utilizzo di funzioni di utilità. L'approccio classico nella calibrazione dei modelli idrologici prevede la definizione di una misura di discrepanza tra dato osservato e simulato (definizione della funzione obiettivo) per poi procedere ad una sua minimizzazione o massimizzazione. Tradizionalmente, questo processo viene eseguito considerando l'idrogramma nella sua globalità, senza concentrarsi su quegli intervalli dell'idrogramma più utili all'utilizzatore del modello idrologico. Ad esempio, se il modello idrologico viene impiegato in un'ottica di gestione delle risorse idriche, l'utilizzatore sarà interessato ad una “migliore” riproduzione dei deflussi medio/bassi piuttosto che una corretta riproduzione dei colmi di piena. D'altra parte, se l'obiettivo è la riproduzione dei colmi di piena, un modello con alte prestazioni nella riproduzione dei deflussi medi risulta essere di scarsa utilità all'utilizzatore. Calibrando il modello tramite la funzione di utilità più adatta al caso pratico in esame, si può pertanto consentire all'utilizzatore del modello di guidare il processo di calibrazione in modo da essere coerente con il proprio schema decisionale e con le proprie esigenze, e di migliorare le performances del modello (cioè la riproduzione delle portate osservate) negli intervalli di portata per lui di maggiore interesse.
Resumo:
Il presente elaborato tratta l'analisi del collasso sismico del Santuario della Beata Vergine della Coronella sito a Galliera (Bo).Partendo dalla progettazione e verifica di una nuova copertura in legno lamellare si procede realizzando, per mezzo del software Straus7, due modelli del Santuario,uno con la nuova copertura e uno con la copertura crollata. Questi verranno poi, analizzati staticamente e dinamicamente e dal confronto dei risultati delle analisi verranno valutate le criticità e le migliorie apportate alla muratura, a seguito della realizzazione del nuovo tetto.
Resumo:
Imprese di piccole e grandi dimensioni hanno dovuto convivere con il ritmo di uscita di nuovi e più potenti modelli di PC, consolle per videogiochi, telefoni cellulari, tablet, fotocamere digitali. I cicli di vita si sono ridotti drasticamente, tanto da far sembrare un’emergenza il rilascio di un nuovo prodotto quasi ogni anno. Le aziende, se ancora non lo hanno fatto, sono chiamate ad affrontare una transizione interna per aggiornare le politiche aziendali in modo da stare al passo con il progresso tecnologico. Se un tempo le regole interne vietavano o scoraggiavano l’utilizzo di dispositivi personali nell’ambiente di lavoro, nell’era moderna sono costrette ad accettarlo se non addirittura ad incoraggiarlo ed il fenomeno che mi accingerò ad analizzare in questo elaborato, denominato Bring Your Own Device (BYOD), punta proprio all’esplorazione degli sforzi progettuali che sono richiesti ad una grande azienda multinazionale per poter recepire i trend informatici. Con più di cinque miliardi di dispositivi mobili in tutto il mondo – e solo 2 miliardi di computer – il passaggio al ‘mobile’ come forma principale di collegamento alle reti aziendali procede con sempre maggiore rapidità. Negli anni recenti si è potuto assistere all’evoluzione del panorama di dispositivi portatili che ha permesso ad un pubblico di users sempre più vasto di potersi permettere l’acquisto di dispositivi di ultima generazione a prezzi non proibitivi. I fornitori di tecnologie hanno confezionato prodotti sempre più pensati per un uso privato, fornendo un’ampia scelta di soluzioni non solo a livello enterprise, come accadeva agli albori del boom tecnologico, ma maggiormente rivolte al singolo consumatore. Guardando ai trend sviluppatisi negli anni recenti, è possibile riconoscere una scia di segnali che preannunciavano quanto sta avvenendo adesso con il BYOD.