682 resultados para Traffic jam, transizioni di fase, optimal velocity
Resumo:
I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
Il presente lavoro di Tesi è stato incentrato sul dimensionamento di un sistema wireless epidermico abile a monitorare parametri fisiologici. La fase iniziale del lavoro è stata spesa per indagare le varie tipologie di sorgenti utili ad effettuare Energy Harvesting in contesti applicativi biomedicali, ed analizzare lo stato dell’arte in merito ai sistemi miniaturizzati, passivi, interfacciabili alla superficie corporea, configurabili nel settore di ricerca e-skin. Il corpo centrale del lavoro è stato quello di dimensionare un nuovo sistema wireless epidermico, energeticamente autonomo. Tale sistema è stato strutturato in tre catene costitutive. La prima di queste definita di Energy Harvesting e storage, presenta una cella solare, un boost converter –charger per il management della potenza ed una thin film battery come elemento di storage. La seconda catena è configurabile come quella di ricezione, in cui l’elemento cruciale è una Wake-Up Radio (WUR), la cui funzione è quella di abilitare il sistema di misura costituito da Microcontroller e sensore solo quando un Reader comunicherà la corretta sequenza di bit abilitanti alla lettura. La presente scelta ha mostrato vantaggi in termini di ridotti consumi. La terza ed ultima catena del sistema per mezzo di Microcontrollore e Transceiver consentirà di trasmettere via RF il dato letto al Reader. Una interfaccia grafica utente implementata in Matlab è stata ideata per la gestione dei dati. La sezione ultima della Tesi è stata impostata analizzando i possibili sviluppi futuri da seguire, in particolare integrare il sistema completo utilizzando un substrato flessibile così come il Kapton e dotare il sistema di sensoristica per misure biomediche specialistiche per esempio la misura del SpO2.
Resumo:
Studio di fattibilità della conversione del Vought V-173 per il volo ad alta quota. Per realizzare l'intero lavoro si è adoperato il software di fluidodinamica computazionale Flow Simulation di SolidWorks e si è scelto l'ambiente Matlab per la fase di elaborazione e presentazione dati. A partire dal modello tridimensionale in SolidWorks del V-173 si sono ricreate le curve CL e CD a partire dai punti ottenuti dalle simulazioni per diverse configurazioni del velivolo. Si è valutata l'aerodinamica del velivolo senza la presenza di eliche e di ipersostentatori e successivamente si sono seguite due strade diverse per valutare il comportamento del velivolo: nel primo caso si sono eseguiti studi dell'aerodinamica del Pancake in presenza degli ipersostentatori già presenti sul velivolo originario (i plain flap). In secondo luogo, tenendo in considerazione che il Pancake è un aeroplano bielica, si è voluta studiare l'influenza delle due eliche sulla sua aerodinamica: dopo aver riprodotto nel modo più verosimile entrambe le eliche utilizzando SolidWorks si è fatto uno studio di massima ricavando risultati che potessero indicare la compatibilità tra elica e velivolo a seguito dei risultati sperimentali ottenuti con Flow Simulation. Questa parte è stata realizzata per lo stesso tipo di elica tripala, ma prendendo in considerazione due diversi diametri, una di 4:9m e una da 2:5m.
Resumo:
Studio di una macchina automatica adibita all’avvolgimento ed al packaging di bobine di tubo corrugato flessibile in materiale plastico, denominata FLASH 700, finalizzato alla definizione dei principali parametri funzionali, degli attuali limiti di funzionamento ed alla soluzione di alcuni problemi. L’attività ha comportato un’iniziale studio dettagliato della macchina, indirizzato all’acquisizione delle necessarie competenze tecniche di costruzione e funzionamento, per poterne successivamente definire i parametri funzionali e comprenderne gli attuali limiti e margini di miglioramento, definiti i quali si è passati ad un'accurata fase di studio riguardante il ciclo di funzionamento del gruppo avvolgitore (che arrotola il tubo in bobine), eseguita durante i collaudi pre-vendita, con lo scopo di delineare i tempi necessari ad eseguire ogni operazione e ad evidenziare i punti critici (tempi morti) del sistema che caratterizzano l’attuale tempo ciclo. Infine, determinate le principali cause dei limiti di funzionamento e definite le principali funzioni di macchina causa del tempo ciclo, sono state proposte alcune possibili modifiche costruttive finalizzate all’abbattimento degli attuali limiti. Alcune delle soluzioni proposte sono state infine realizzate e collaudate in macchina, al fine di verificarne il reale miglioramento apportato.
Resumo:
L’obiettivo di questa tesi è la valutazione dell’influenza nell’incollaggio di aderendi di alluminio di un tappetino di nanofibre nylon 6.6 utilizzato come carrier della resina, mediante prove DCB. Dopo una prima fase di studio degli argomenti di base, è stato predisposto un piano delle attività comprendente il dimensionamento e la realizzazione dei provini e dell'attrezzatura per l'incollaggio, la produzione dei nanotappetini, la tenacizzazione dell'adesivo, l'incollaggio e infine la realizzazione delle prove DCB. Successivamente sono stati elaborati i dati forniti dalle prove e confrontati i valori della tenacità a frattura dei giunti realizzati con e senza l'inserimento dei nanotappetini.
Resumo:
Si vuole dimostrare la fattibilità di realizzazione di una serie di misuratori di portata fluidi da applicare principalmente per le misure di portata dei fluidi di un motore in prova al banco. Queste portate di interesse riguardano: liquido di raffreddamento, tipicamente acqua a una temperatura prossima ai 100°C, olio lubrificante, tipicamente ad una temperatura di 150°C, aria di aspirazione, BlowBy, aria che filtra dalle fasce elastiche e dalla camera di combustione passa in coppa e quindi presenta goccioline e vapori d'olio, e possibilmente EGR. La prima fase consiste nel valutare ciò che offre il mercato per rendersi conto di quali sono i livelli di prestazione di misura dei sensori commerciali e il loro prezzo. Dunque, oltre alla consultazione di datasheet, segue una richiesta di preventivi ai fornitori di tali prodotti. Conclusa la fasce di analisi di mercato sopra descritta si avvia la fase di design del misuratore. Dopo l'analisi il principio di misura ottimale risulta quello ultrasonico. In particolare è opportuno effettuare una prima distinzione fra misuratori per liquidi e per gas, i quali naturalmente presenteranno differenze geometriche sia per la compatibilità con l'impianto nel quale verranno montati sia per le caratteristiche del fluido di cui interessa la misura. Disegnata a CAD la geometria i due tubi vengono stampati in 3D, dopodichè vengono montati i trasduttori per la generazione e la ricezione degli ultrasuoni. Si effettuano le prove di laboratorio, per liquidi e poi per gas, nel primo caso misurando la portata acqua messa in circolo da una pompa, nel secondo caso misurando la portata aria di un Ducati al banco motori. I dati acquisiti da varie prove vengono poi elaborati tramite Matlab, e si ricavano conclusioni in termini di rumore, accuratezza, ripetibilità ed infine di conferma che è fattibile realizzarli ad un costo contenuto ma che per riuscirci è necessario molto più sviluppo e ottimizzazione.
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
L’analisi morfologia e delle dinamiche evolutive di un alveo fluviale rappresenta una componente fondamentale per la gestione e riqualificazione dei corsi d’acqua naturali. Il presente elaborato tratta i principali aspetti dell’analisi geomorfologica fluviale e della modellazione numerico-idraulica per ciò che riguarda la gestione fluviale e la difesa del suolo, in relazione ad un tratto del torrente Ghiaia nei pressi dell’abitato di Monteveglio, seguendo una linea concettuale conforme alle norme regionali e territoriali. La prima fase del lavoro ha messo in evidenza le dinamiche evolutive del corso d’acqua in riferimento ad una scala temporale di circa 30 anni. È stata effettuata un’accurata indagine geomorfologica, confrontando diversi tipi di materiale disponibile: ortofoto e rilievi topografici relativi alla planimetria dell’alveo, alle sezioni trasversali e ai profili longitudinali. La seconda fase del lavoro ha messo in evidenza lo stato di fatto dell’area in studio, avvalendosi di un modello idraulico generato con l’utilizzo del software HEC – RAS 4.2.0. Sono stati simulati differenti scenari di analisi in moto permanente, i quali hanno permesso di verificare l’officiosità idraulica delle sezioni, il conseguente rischio idraulico, quindi di stimare quei valori di portata associati al Tempo di Ritorno che mettono in crisi il sistema, esponendo il centro abitato a situazioni di potenziale allagamento. Lo studio così effettuato ha permesso di ottenere un quadro preliminare delle condizioni idrauliche dell’area in esame, potendo indicare alcune ipotesi di intervento per mettere in sicurezza il territorio ed in particolare il centro abitato di Monteveglio. Gli interventi proposti sono stati mirati al contenimento almeno della piena trentennale e consistono nel risezionamento del tratto in studio e nella gestione della vegetazione, entrambi volti a migliorare il deflusso idrico e garantire l’officiosità idraulica del tratto in studio.
Resumo:
Il calore contenuto in profondità negli ammassi rocciosi può essere estratto attraverso un sistema geotermico che prevede l’inserimento di tubazioni in corrispondenza del rivestimento del tunnel, all'interno del quale circola un fluido termovettore che assorbe calore dalle pareti circostanti. Il caso di studio analizzato è la Galleria di Mules, un tunnel scavato in metodo tradizionale all'interno del Granito di Bressanone, che funge come unica finestra di accesso sul lato italiano alla Galleria di Base del Brennero (BBT). Essa si sviluppa in direzione ovest-est per una lunghezza pari circa a 1780 m. In fase di esercizio. Attraverso una caratterizzazione geologica e idrogeologica dell’area di interesse, prove di laboratorio su campioni e rilevazioni delle temperature all’interno della galleria, è stato possibile delineare un quadro geotermico dell’area di interesse. I dati raccolti hanno permesso di ricavare un modello 3D delle temperature dell’area e, attraverso un’apposita procedura di calcolo, quantificare il potenziale energetico estraibile dal tratto di galleria considerato. Sulla base dei risultati ottenuti, è stato realizzato uno schema dettagliato della disposizione del circuito sorgente, adattato sul progetto definitivo del rivestimento interno alla Galleria di Mules. In assenza di potenziali utenze termiche nelle vicinanze del portale di accesso, si è ipotizzato di destinare la risorsa geotermica ad una pavimentazione stradale dotata di sistema snow and ice melting. La pavimentazione permetterà il collegamento fra la strada SS12 e l’imbocco del tunnel. E’ stata effettuata una stima dei costi di investimento dell’intero sistema a pompa di calore e, sulla base del fabbisogno energetico dell’utenza considerata, sono stati valutati i costi di esercizio, confrontandoli con altre possibili soluzioni. Lo studio ha dimostrato la fattibilità tecnico-economica di soluzioni di questo tipo e si pone come primo passo per approfondimenti futuri.
Resumo:
In questa tesi, sono esposti i sistemi di navigazione che si sono evoluti, parimenti con il progresso scientifico e tecnologico, dalle prime misurazioni della Terra, per opera della civiltà ellenica, circa 2.500 anni fa, sino ai moderni sistemi satellitari e ai mai tramontati sistemi di radionavigazione. I sistemi di navigazione devono rispondere alla sempre maggiore richiesta di precisione, affidabilità, continuità e globalità del servizio, della società moderna. È sufficiente pensare che, attualmente, il solo traffico aereo civile fa volare 5 miliardi di passeggeri ogni anno, in oltre 60 milioni di voli e con un trasporto cargo di 85 milioni di tonnellate (ACI - World Airports Council International, 2012). La quota di traffico marittimo mondiale delle merci, è stata pari a circa 650 milioni di TEU (twenty-foot equivalent unit - misura standard di volume nel trasporto dei container ISO, corrisponde a circa 40 metri cubi totali), nel solo anno 2013 (IAPH - International Association of Ports and Harbors, 2013). Questi pochi, quanto significativi numeri, indicano una evidente necessità di “guidare” questo enorme flusso di aerei e navi in giro per il mondo, sempre in crescita, nella maniera più opportuna, tracciando le rotte adeguate e garantendo la sicurezza necessaria anche nelle fasi più delicate (decollo e atterraggio per gli aeroplani e manovre in porto per le grandi navi). Nello sviluppo della tesi si proverà a capire quali e quanto i sistemi di navigazione possono assolvere al ruolo di “guida” del trasporto aereo e marittimo.
Resumo:
L'attività di tesi è stata svolta presso la divisione System Ceramics della società System Group S.p.A. di Fiorano Modenese (MO) che si occupa dello sviluppo di soluzioni per l'industria ceramica, tra cui la decorazione delle piastrelle. Tipicamente nelle industrie ceramiche la movimentazione dei pezzi è effettuata tramite nastro trasportatore e durante il trasporto i pezzi possono subire leggeri movimenti. Se il pezzo non viene allineato alla stampante prima della fase di decorazione la stampa risulta disallineata e vi possono essere alcune zone non stampate lungo i bordi del pezzo. Perciò prima di procedere con la decorazione è fondamentale correggere il disallineamento. La soluzione più comune è installare delle guide all'ingresso del sistema di decorazione. Oltre a non consentire un’alta precisione, questa soluzione si dimostra inadatta nel caso la decorazione venga applicata in fasi successive da stampanti diverse. Il reparto di ricerca e sviluppo di System Ceramics ha quindi ideato una soluzione diversa e innovativa seguendo l'approccio inverso: allineare la grafica via software a ogni pezzo in base alla sua disposizione, invece che intervenire fisicamente modificandone la posizione. Il nuovo processo di stampa basato sull'allineamento software della grafica consiste nel ricavare inizialmente la disposizione di ogni piastrella utilizzando un sistema di visione artificiale posizionato sul nastro prima della stampante. Successivamente la grafica viene elaborata in base alla disposizione del pezzo ed applicata una volta che il pezzo arriva presso la zona di stampa. L'attività di tesi si è focalizzata sulla fase di rotazione della grafica ed è consistita nello studio e nell’ottimizzazione del prototipo di applicazione esistente al fine di ridurne i tempi di esecuzione. Il prototipo infatti, sebbene funzionante, ha un tempo di esecuzione così elevato da risultare incompatibile con la velocità di produzione adottata dalle industrie ceramiche.
Resumo:
La tesi, svolta per il completamento della Laurea Magistrale in Ingegneria Informatica, tratta la realizzazione di un progetto prototipo di Computer Vision (CV) e Realtà Aumentata (RA) per la manutenzione tecnica di macchinari industriali attraverso l'utilizzo di dispositivi mobili See-Through. Lo scopo è stato, oltre lo studio dello stato dell'arte in materia, provare con mano e rendere maggiormente visibili al pubblico questi nuovi rami dell'informatica. Il prototipo creato è stato inserito in un contesto aziendale, con misurazioni e prove sul campo. Partendo da una breve introduzione sulla realtà aumentata, nel primo capitolo viene descritto il progetto sviluppato, diviso in due sottoprogetti. Il primo, svolto solamente in una fase iniziale e presentato nel secondo capitolo, espone la realizzazione di un'applicazione mobile per lo streaming video con l'aggiunta di contenuti grafici aumentati. Il secondo, progettato e sviluppato in totale autonomia, rappresenta un prototipo demo di utilizzo della RA. La realizzazione viene illustrata nei capitoli successivi. Nel terzo capitolo si introducono gli strumenti che sono stati utilizzati per lo sviluppo dell'applicazione, in particolare Unity (per il development multi-piattaforma), Vuforia (per gli algoritmi di CV) e Blender (per la realizzazione di procedure di manutenzione). Il quarto capitolo, la parte più rilevante della trattazione, descrive, passo dopo passo, la creazione dei vari componenti, riassumendo in modo conciso e attraverso l'uso di figure i punti cardine. Infine, il quinto capitolo conclude il percorso realizzato presentando i risultati raggiunti e lasciando spunto per possibili miglioramenti ed aggiunte.