973 resultados para studio implementazione modelli continui deflusso
Resumo:
Progetto di tesi svolto in azienda. Studio dei principali concetti di Business Intelligence (BI) e degli strumenti per la BI. Confronto tra i principali vendor nel mercato dell'analisi dei dati e della Business Intelligence. Studio e reigegnerizzazione di un modello per l'analisi economico finanziaria dei fornitori/clienti di un'azienda. Realizzazione di un prototipo del modello utilizzando un nuovo strumento per la reportistica: Tableau. Il prototipo si basa su dati economici finanziari estratti da banche dati online e forniti dall'azienda cliente. Implementazione finale del database e di un flusso automatico per la riclassificazione dei dati di bilancio.
Resumo:
I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.
Resumo:
La tesi tratta della modellazione tridimensionale attraverso software di rilievo fotografico Agisoft Photoscan di alcuni portici della città di Bologna, della successiva segmentazione dei modelli tridimensionali e della classificazione e identificazione delle componenti architettoniche dei casi studio analizzati andando a definire un nuovo approccio di studio semantico al sistema porticato della città di Bologna.
Resumo:
In questa tesi si andrà a presentare la realizzazione di un sistema che permette di autenticare la sim di un cellulare, quindi di verificare che un determinato numero di telefono sia realmente nelle mani dell'utente, attraverso servizi di messaggistica online come WhatsApp o Telegram. Il bisogno di questo progetto nasce dal fatto che molte delle attuali applicazioni presenti sul mercato utilizzano sms per autenticare la reale appartenenza di un numero telefonico ad un determinato utente, ma questo comporta un notevole dispendio di soldi, dato che per inviare un gran numero di sms, bisogna sottoscrivere un abbonamento a servizi Gateway Sms che permettono di inviare sms ad un determinato numero dopo aver ricevuto i relativi dati dal mittente.
Resumo:
In questo elaborato di tesi, viene progettata ed implementata una soluzione per gestire il processo di handover in ambiente Android. Tale proposta, è costituita da un algoritmo in grado di gestire automaticamente le interfacce di connessione dei dispostivi, in relazione alle preferenze e agli spostamenti effettuati dall'utente. Le prove sperimentali effettuate, confermano che tale proposta è una buona base per risolvere il problema dell'handover e si presta bene a cooperare con altri protocolli quali ABPS (Always Best Packet Switching). Inoltre l'applicazione si presta bene ad un semplice utilizzo e può essere impiegata anche come servizio eseguito in background, non richiedendo frequenti interazioni da parte dell'utente. Oltre all'algoritmo citato in precedenza, sono stati proposti altri dettagli implementativi, non presenti in letteratura. In particolare, vengono modificate alcune impostazioni di sistema, accedendo agli opportuni file, in modo tale che Android gestisca correttamente le scansioni delle interfacce e la loro attivazione/disattivazione.
Resumo:
Il lavoro di tesi si basa sull'analisi del database pubblico ReconX, il quale costituisce lo stato dell'arte della ricostruzione in silico del metabolismo umano. Il modello che se ne può estrarre è stato impiegato per simulazioni di metabolismo cellulare in condizioni di ossigeno variabile, valutando l'impatto della carenza di ossigeno sulle reazioni e su i pathways metabolici. Le tecniche impiegate appartengono alla systems biology e sono di tipo bioinformatico e riguardano flux balance analysis e flux variability analysis. I risultati trovati vengono quindi confrontati con la letteratura di settore. E' stato inoltre possibile estrarre dei sotto network dal modello principale, analizzando la rete di connessioni esistente fra i metaboliti e fra le reazioni separatamente. Viene estratto e studiato anche il network di interazione fra pathways, su cui è introdotta una misura ad hoc per valutare la forza di connessione fra i vari processi. Su quest'ultimo network viene anche effettuata un'analisi di tipo stocastico, mostrando che tecniche di tipo markoviano possono essere applicate per indagini diverse da quelle più in uso basate sui flussi. Infine viene mostrata una possibile soluzione per visualizzare graficamente i network metabolici così costituiti.
Resumo:
L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.
Resumo:
L'obiettivo di questo lavoro di tesi è quello di implementare un codice di calcolo, attraverso l'algoritmo di Lubachevsky-Stillinger, in modo da poter prevedere la frazione volumetrica occupata dalle particelle solide che costituiscono il grain negli endoreattori a propellente solido. Particolare attenzione verrà rivolta al problema dell'impacchettamento sferico random (Random-Close Packing) che tale algoritmo cerca di modellare, e le ipotesi per cui tale modellazione può essere applicata al tipo di problema proposto. Inoltre saranno descritte le procedure effettuate per l'ottenimento dei risultati numerici delle simulazioni e la loro motivazione, oltre ai limiti del modello utilizzato e alle migliorie apportate per un'esecuzione più efficiente e veloce.
Resumo:
La previsione della copertura RF in ambiente urbano è oggi comunemente considerato un problema risolto, con decine di modelli proposti in letteratura che mostrano una buona approssimazione rispetto alle misure. Tra questi, il ray tracing è considerato come uno dei più accurati tra i modelli disponibili. In questo lavoro si dimostra però come sia ancora necessario parecchio lavoro per fare in modo che il ray tracing possa essere effettivamente impiegato per scopi pratici.
Resumo:
Descrizione della valutazione del livello di servizio in ambito urbano per infrastrutture pedonali e confronto dei principali modelli di ritardo pedonale alle intersezioni rispetto ai dati raccolti per una intersezione semaforizzata reale
Resumo:
Questa analisi è volta a esaminare le perturbazioni che, in date diverse (5/6 Febbraio 2015, 19-22 dicembre 2009, 1 febbraio 2012), hanno portato piovosità diffusa e nevicate intense nell'Emilia-Romagna. Il primo caso preso in esame, ossia quello relativo al periodo suddetto, ha rivestito grande importanza nello scenario dell’inverno scorso, in quanto ha provocato numerosi disagi alla viabilità, interruzione della distribuzione di acqua potabile e black-out elettrici nelle zone interessate da precipitazioni nevose; in Romagna invece sono stati numerosi gli allagamenti soprattutto nel Cesenate e nel Riminese. Nel secondo caso analizzato, invece, assistiamo al fenomeno non troppo comune del gelicidio. Provoca, infatti, anch’esso disagi gravi alla viabilità stradale e autostradale, nonché il pericolo di interruzione della corrente nelle linee elettriche, dovuta al peso del ghiaccio depositato sui conduttori che fa crollare i cavi dell’alta tensione. L’ultimo caso, infine, è stato trattato poiché rientrante nella famosa ondata di gelo della prima metà del Febbraio 2012. Vedremo, infatti, un quadro generale dell’ondata, dopodiché un “focus” sulle importanti nevicate del primo Febbraio in regione.
Resumo:
Il presente lavoro di tesi si inserisce all'interno di uno studio dal titolo: "Strategia di posizionamento multi-step come approccio pragmatico per ridurre il rischio di encefalopatia epatica post-TIPS (shunt trans-giugulare porto-sistemico intraepatico) in pazienti cirrotici con ascite refrattaria". Il progetto di tesi si è concentrato sull'analisi dei segnali ottenuti tramite DCE MRI, con lo scopo di implementare in ambiente MatLab due modelli differenti (Dual input - Mono compartment e Dual input - Dual compartment) che descrivono la cinetica del tracciante all'interno del sistema vascolare epatico e valutare l'efficacia dei parametri di perfusione associati nella descrizione delle variazioni in termini di microcircolazione introdotte dall'inserimento del TIPS. Inizialmente si sono voluti valutare, tramite simulazione, gli effetti in termini di amplificazione del rumore e stima dei parametri perfusionali dell'approssimazione lineare nella conversione da intensità di segnale MR a concentrazione di mezzo di contrasto. Successivamente, sempre attraverso simulazioni, per entrambi i modelli considerati è stato scelto uno schema di model-fitting e quindi testata l'affidabilità in termini di accuratezza e precisione delle stime dei parametri ottenute in funzione del livello di rumore associato alle curve di intensità di segnale. Parallelamente all'implementazione dei modelli per la stima di parametri di perfusione, sono stati realizzati dei phantom con l'obiettivo di simulare il parenchima epatico prima e dopo l'arrivo del mezzo di contrasto e poter testare la sequenza utilizzata durante l'acquisizione dei dati su paziente. Infine sono stati considerati gli esami di DCE MRI effettuati su un campione di nove pazienti pre e post-TIPS, utilizzando per l'analisi dei segnali entrambi i modelli implementati in fase di simulazione e successivamente valutando le variazioni nel valori associati ai parametri di perfusione introdotte dall'inserimento del TIPS.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
In questa tesi inizialmente ci si è occupati di definire ed approfondire le caratteristiche della tecnologia Wi-Fi Direct, illustrandone il funzionamento, l’architettura e gli scenari di utilizzo. Successivamente è stata sviluppata un’applicazione basata su tale tecnologia, con lo scopo di fornire un servizio di disseminazione di messaggi d’aiuto in situazioni di emergenza o di catastrofi naturali, nelle quali la rete cellulare viene inevitabilmente meno. In queste occasioni c’è il bisogno di avere uno strumento che permetta di comunicare in maniera facile, veloce e che sia alla portata di tutti. Caratteristiche e qualità proprie di uno smartphone, dispositivo che oggigiorno è presente nelle tasche di ognuno di noi. L’obiettivo finale infatti, sarebbe quello di creare un applicativo che possa idealmente essere preinstallato in ogni nostro dispositivo, un servizio che sia diffuso, compreso ed utilizzabile istantaneamente da tutti, in modo tale da essere una sicurezza e un aiuto di vitale importanza in situazioni di pericolo. Per lo sviluppo di una tale applicazione ci si è basati sul sistema operativo Android, che è il più diffuso tra gli utenti di tutto il mondo. Nel primo capitolo ci si è occupati di di presentare ed approfondire la tecnologia Wi-Fi Direct, definendone gli ambiti generali di utilizzo e le problematiche che vengono affrontate. Nel secondo capitolo si prosegue con la presentazione della tecnologia in ambiente Android, descrivendo le API fornite da Google per l’utilizzo del servizio in questione. Nel terzo capitolo, dopo un’analisi dei progetti che coinvolgono tale tecnologia, viene illustrata l’applicazione creata, le sue funzionalità e caratteristiche ed eventuali casi d’uso. Nel quarto capitolo è stata inserita la parte più tecnica, dove illustro i problemi incontrati e le modalità di risoluzione degli stessi, insieme alle strutture ed agli oggetti messi a disposizione da Java che sono stati utilizzati. Infine nel capitolo conclusivo è stato fatto un riepilogo del lavoro svolto, indicando le difficoltà incontrate ed eventuali possibili miglioramenti e sviluppi futuri del mio progetto.
Resumo:
La tesi indaga il problema di calibrazione Hand Eye, ovvero la trasformazione geometrica fra i diversi sistemi di riferimento della camera e dell'attuatore del robot, presentando il problema ed analizzando le varie soluzioni proposte in letteratura. Viene infine presentata una implementazione realizzata in collaborazione con l'azienda SpecialVideo, implementata utilizzando l'algoritmo proposto da Konstantinos Daniilidis, il quale propone una formulazione del problema sfruttando l'utilizzo di quaternioni duali, risolvendo simultaneamente la parte rotatoria e traslatoria della trasformazione. Si conclude il lavoro con una analisi dell'efficacia del metodo implementato su dati simulati e proponendo eventuali estensioni, allo scopo di poter riutilizzare in futuro il lavoro svolto nel software aziendale, con dati reali e con diversi tipi di telecamere, principalmente camere lineari o laser.