614 resultados para modelli istereticiopensees
Resumo:
Negli ultimi decenni nuove e sempre più restrittive normative antiinquinamento son state introdotte nei paesi maggiormente industrializzati dettando un aumento degli sforzi progettuali imposti all’industria automobilistica per cercare di contenere l’impatto ambientale esercitato dai motori a combustione interna. E’ evidente quindi l’importanza di possedere una profonda conoscenza dei fenomeni fisici e chimici che influenzano i processi di combustione così come avere a disposizione modelli quanto più accurati per la loro corretta rappresentazione tramite CFD. Per i motori ad accensione comandata gli studi si sono focalizzati sulla ricerca dell’efficienza evitando di incorrere in rischi di detonazione. Numerose sono le tecnologie che permettono di assolvere alle funzioni richieste, tra le più affermate vi sono i sistemi a fasatura variabile, in particolare le strategie che prendono il nome di ciclo Miller. Tale sistema, implementabile facilmente senza l’utilizzo di alcun sistema aggiuntivo, permette di ridurre sensibilmente temperature e pressioni in camera. Il seguente lavoro di tesi studierà, attraverso simulazione numerica tridimensionale condotta con software CONVERGE®, gli aspetti fisici e fluidodinamici indotti dalle diverse strategie REF, EIVC e LIVC applicate ad un motore GDI con tecnologia downsizing e turbocharging (modellato in ambiente CAD, tramite PTC CREO®). Successivamente, allo stesso motore, saranno apportate modifiche progettuali con lo scopo di comprendere in che modo un aumento di un punto del rapporto di compressione, che equivale a spostarsi verso zone a prestazioni più elevate, impatti sull’entità di pressione, temperatura e comportamento fluidodinamico e fisico a pari condizioni operative e di alzata. L’analisi ed il confronto con gli altri casi sancirà se questa nuova configurazione possa essere accettabile o rischiosa ai fini della detonazione.
Resumo:
La fibrillazione atriale (FA) è la forma di aritmia cardiaca più diffusa nella pratica clinica. Attualmente, sono più di 30 milioni le persone affette da FA e si prevede una forte crescita di tale numero, conseguentemente al progressivo invecchiamento della popolazione. Ad oggi, la terapia anticoagulante orale è la principale strategia impiegata per la prevenzione di ictus ischemico. Nonostante l’efficacia degli anticoagulanti, un numero rilevante di pazienti non possono assumerli, a causa di un aumentato rischio emorragico e della pericolosa interazione con altri farmaci. È stato dimostrato che nel 90% dei casi la formazione dei trombi intracardiaci in pazienti con FA avviene in un punto ben preciso dell’atrio sinistro, ossia nell’auricola. Ciò è dovuto al fatto che essa, avendo una particolare morfologia, in condizioni non fisiologiche (emodinamica rallentata), tende a favorire la stasi del sangue al suo interno. Di conseguenza, la chiusura meccanica dell’auricola è emersa come alternativa clinica alla prevenzione farmacologica. I risultati relativi a recenti trials hanno suggerito che la chiusura percutanea della LAA attraverso l’impianto di opportuni occlusori è una terapia sicura, con un’efficacia non inferiore alla terapia di anticoagulanti orali nella prevenzione dell’ictus. L’obiettivo di questo elaborato di tesi è valutare in simulazione l’effetto dell’occlusione dell’auricola sinistra e di un eventuale dislocazione del dispositivo sulla fluidodinamica atriale in pazienti affetti da FA. Sono stati realizzati modelli 3D che simulano sia il risultato della procedura di LAAO con i dispositivi Amulet e Watchman, sia l’effetto della dislocazione dell’occlusore. Successivamente, sono state effettuate le simulazioni fluidodinamiche CFD sui modelli di atrio intero, sui modelli occlusi (privi di auricola) e sui modelli parzialmente occlusi (dislocazione Amulet) per studiare e valutare i parametri fluidodinamici (velocità, vorticità e stasi).
Resumo:
I big data sono caratterizzati dalle ben note 4v: volume, velocità, veracità e varietà. Quest'ultima risulta di importanza critica nei sistemi schema-less, dove il concetto di schema non è rigido. In questo contesto rientrano i database NoSQL, i quali offrono modelli dati diversi dal classico modello dati relazionale, ovvero: documentale, wide-column, grafo e key-value. Si parla di multistore quando ci si riferisce all'uso di database con modelli dati diversi che vengono esposti con un'unica interfaccia di interrogazione, sia per sfruttare caratteristiche di un modello dati che per le maggiori performance dei database NoSQL in contesti distribuiti. Fare analisi sui dati all'interno di un multistore risulta molto più complesso: i dati devono essere integrati e va ripristinata la consistenza. A questo scopo nasce la necessità di approcci più soft, chiamati pay-as-you-go: l'integrazione è leggera e incrementale, aggira la complessità degli approcci di integrazione tradizionali e restituisce risposte best-effort o approssimative. Seguendo tale filosofia, nasce il concetto di dataspace come rappresentazione logica e di alto livello dei dataset disponibili. Obiettivo di questo lavoro tesi è studiare, progettare e realizzare una modalità di interrogazione delle sorgenti dati eterogenee in contesto multistore con l'intento di fare analisi situazionali, considerando le problematiche di varietà e appoggiandosi all'integrazione fornita dal dataspace. Lo scopo finale è di sviluppare un prototipo che esponga un'interfaccia per interrogare il dataspace con la semantica GPSJ, ovvero la classe di query più comune nelle applicazioni OLAP. Un'interrogazione nel dataspace dovrà essere tradotta in una serie di interrogazioni nelle sorgenti e, attraverso un livello middleware, i risultati parziali dovranno essere integrati tra loro in modo che il risultato dell'interrogazione sia corretto e allo stesso tempo completo.
Resumo:
L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.
Resumo:
Il seguente lavoro analizza l’influenza che il biochar ha nel ciclo dell’azoto nei suoli, in particolare in riferimento alla possibilità di diminuire il fenomeno di lisciviazione dei nitrati dato il continuo aumento in agricoltura dell’uso di fertilizzanti azotati. La scelta di questo tipo di ammendante è dovuta alle sue ampie potenzialità d’impiego e si pone in un percorso di economia circolare con la valorizzazione delle biomasse di scarto. Il lavoro si divide in un’approfondita ricerca bibliografica con elaborazione critica delle informazioni e una parte sperimentale. Si sono analizzate le interazioni che il biochar ha sui vari processi che compongono il ciclo dell’azoto. Sono stati riportati e discussi i principali metodi di determinazione delle capacità adsorbenti del biochar oltre ad un’analisi e una descrizione dei più comuni modelli di isoterme di adsorbimento. Si è testata la capacità adsorbente, tramite test di screening in batch, di sette tipi di biochar che presentavano origine e sintesi differenti. I biochar hanno presentato adsorbimenti molto modesti nei confronti dei nitrati evidenziando solo una diminuzione della quantità di nitrati rilasciati dal biochar stesso. Per quanto concerne l’ammonio, invece, i biochar hanno presentato percentuali di adsorbimento tra il 60-70% con un massimo del 80%.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
Lo studio ha indagato l’impatto delle reti di distribuzione idrica sulla qualità dell’acqua ed il supporto che in questo ambito possono fornire i modelli numerici nella redazione dei Piani di Sicurezza delle Acque (PSA) o Water Safety Plan (WSP). In una prima fase, esso è stato analizzato prendendo atto del percorso normativo europeo e nazionale e delle linee guida fornite dall’Organizzazione Mondiale di Sanità (OMS) e dall’Istituto Superiore di Sanità (ISS) che hanno portato i Piani di Sicurezza delle Acque nell’ambito del controllo delle acque potabili, tenendo conto, anche, dei vari soggetti coinvolti e delle problematiche generate dai cambiamenti climatici. In una seconda fase, si è analizzato il caso studio della rete di distribuzione idrica della città di Cesena, fornito dal gestore HERA S.p.A., modellando la qualità dell’acqua attraverso il programma EPANET 2.2. Questa analisi è stata sviluppata successivamente alla calibrazione del modello idraulico. Per gli aspetti che richiedono una georeferenziazione è stato utilizzato il programma open source QGIS, mentre per le analisi dei dati e le elaborazioni statistiche relative al campionamento del cloro residuo e delle portate immesse dalle fonti idriche è stato utilizzato il linguaggio R. E' stato quindi possibile creare mappe georeferenziate per diversi momenti della giornata del tempo di permanenza dell'acqua nella rete di distribuzione, delle concentrazioni di cloro residuo dell'acqua prelevata dagli utenti e analizzare il ruolo dei serbatoi di compenso.
Resumo:
La risorsa idrica, nel nostro territorio, è sottoposta a diversi fattori avversi che inficiano fortemente la sua disponibilità. Le cause di maggiore impatto hanno natura climatica o antropica. Tra queste il consumo idropotabile collegato al turismo in particolari contesti può comportare un eccessivo sfruttamento delle fonti idriche e un sovraccarico sulla rete di distribuzione. Lo studio pone l'attenzione sul Comune di Rapallo, ne analizza la domanda idropotabile di alcune strutture ricettive e ne determina caratteristiche comuni su cui basare future valutazioni sulla pianificazione delle infrastrutture e la realizzazione di modelli idraulici. A fondamenta dello studio, è stata effettuata un'analisi climatica dell'area, al fine di determinare la tipologia e la mole di turismo che caratterizza la zona; gli strumenti che lo hanno permesso sono principalmente le stazioni pluviometriche site a Rapallo e nelle aree limitrofe. Successivamente, sono stati ricavati i consumi idropotabili dei grandi utenti, delle strutture recettive e degli stabilimenti balneari dell'area di studio per il biennio 2016-2017. Questi dati sono stati poi correlati ai vari servizi offerti dagli alberghi. Lo studio si è soffermato su una utenza sportivo ricreativa, valutandone il consumo e il suo impatto sul triennio 2018-2020. Inoltre, l’installazione da parte di IREN S.p.A., di smart meter presso 11 strutture alberghiere ha reso disponibili informazioni sul consumo idropotabile ad intervalli inferiori all’ora ed è stato quindi possibile effettuare un'analisi di dettaglio sulla variabilità temporale del consumo negli alberghi. Sono emerse alcune analogie tra strutture simili per servizi offerti e differenze giornaliere nei periodi analizzati, riconducibili anche alla stagionalità che caratterizza le utenze turistiche.
Resumo:
In questa tesi si propone una metodologia per il trasferimento interattivo semiautomatico di dati da modelli geometrici semantici sviluppati in ambiente BIM a modelli strutturali supportati da analisi per elementi finiti. Il caso della Rocca estense di San Felice sul Panaro, gravemente danneggiata dagli eventi sismici del 2012, è utilizzato come caso di studio applicativo. La metodologia prevede in prima battuta la modellazione di elementi speciali BIM quali contenitori locali dei dati semantici definiti mediante regioni nello spazio del modello che individuano particolari condizioni fisiche individuate mediante la definizione di opportuni metadati. Successivamente, tali informazioni vengono processate automaticamente, mediante uno script integrato in ambiente BIM, rendendole compatibili con i set di dati che tipicamente vengono trasmessi in input per analisi ad elementi finiti. Tali operazioni permettono quindi la generazione di un modello strutturale che recepisce direttamente le attribuzioni semantiche del modello geometrico iniziale. Nell'elaborato sono inoltre discusse alcune metodologie alternative per la generazione del modello agli elementi finiti, partendo da diverse definizioni geometriche in ambiente BIM.
Resumo:
Questa tesi presenta la proposta di traduzione del romanzo "The Boy Who Could Fly" della scrittrice e illustratrice britannica Sally Gardner, e nasce dall’interesse per i modelli maschili positivi nella letteratura per l’infanzia e per ragazzi. Il libro fa parte della bibliografia del progetto G-Book, progetto finanziato dall’Unione Europea e a cura del Centro MeTRa dell’Università di Bologna volto alla promozione della letteratura gender positive per l’infanzia e per ragazzi. L’autrice tratta con ironia argomenti delicati come la valorizzazione della diversità e le relazioni familiari e tra coetanei. La tesi è suddivisa in quattro capitoli. Il primo capitolo è dedicato all’evoluzione della letteratura per l’infanzia e per ragazzi in una prospettiva gender positive, al ruolo della scuola nell’educazione alla lettura e alla sensibilizzazione per un’effettiva uguaglianza di genere e ai principali atti legislativi. Vengono presentati il Centro MeTRa, il progetto G-Book, l’analisi delle pubblicazioni per fasce d’età e delle relative questioni traduttive e, da ultimo, viene affrontato il rapporto degli italiani con la lettura. Il secondo capitolo contiene una presentazione dell’autrice, delle sue opere, dei caratteri salienti del romanzo e dei temi affrontati. Nel terzo capitolo viene esposta la scelta relativa al tema della presente tesi, ovvero i male characters e come i modelli maschili positivi possano avere un’influenza nella lotta per la parità di genere e per il superamento degli stereotipi. In questa parte dell’elaborato viene analizzata più a fondo la bibliografia G-Book e vengono presentati i capitoli del romanzo che sono stati tradotti. Il quarto capitolo comprende il commento alla traduzione e la tesi termina con due possibili collocazioni editoriali di The Boy Who Could Fly e la scheda di lettura del libro.
Resumo:
Le malattie rare pongono diversi scogli ai pazienti, ai loro familiari e ai sanitari. Uno fra questi è la mancanza di informazione che deriva dall'assenza di fonti sicure e semplici da consultare su aspetti dell'esperienza del paziente. Il lavoro presentato ha lo scopo di generare da set termini correlati semanticamente, delle frasi che abbiamo la capacità di spiegare il legame fra di essi e aggiungere informazioni utili e veritiere in un linguaggio semplice e comprensibile. Il problema affrontato oggigiorno non è ben documentato in letteratura e rappresenta una sfida interessante si per complessità che per mancanza di dataset per l'addestramento. Questo tipo di task, come altri di NLP, è affrontabile solo con modelli sempre più potenti ma che richiedono risorse sempre più elevate. Per questo motivo, è stato utilizzato il meccanismo di recente pubblicazione del Performer, dimostrando di riuscire a mantenere uno stesso grado di accuratezza e di qualità delle frasi prodotte, con una parallela riduzione delle risorse utilizzate. Ciò apre la strada all'utilizzo delle reti neurali più recenti anche senza avere i centri di calcolo delle multinazionali. Il modello proposto dunque è in grado di generare frasi che illustrano le relazioni semantiche di termini estratti da un mole di documenti testuali, permettendo di generare dei riassunti dell'informazione e della conoscenza estratta da essi e renderla facilmente accessibile e comprensibile al pazienti o a persone non esperte.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
In questa tesi vengono discusse le principali tecniche di machine learning riguardanti l'inferenza di tipo nei linguaggi tipati dinamicamente come Python. In aggiunta è stato creato un dataset di progetti Python per l'addestramento di modelli capaci di analizzare il codice
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.