604 resultados para Modelli, MyJourney, Analisi, Collaudo, Controller
Resumo:
Negli ultimi anni, la ricerca scientifica nell’ambito delle neuroscienze cognitive ha sempre più focalizzato il suo interesse nei confronti dei ritmi cerebrali, ovvero oscillazioni neurali registrabili attraverso tecniche di elettrocenfalografia. In questo lavoro si è investigato il ruolo del ritmo alpha (7-12 Hz) e, in seconda misura, del ritmo gamma (> 30 Hz) rispetto all’attenzione spaziale selettiva. In particolare, partendo da modelli di massa neurale esistenti, si è riusciti a sviluppare un nuovo modello che riesce a simulare un compito di attenzione spaziale sulla base dell’inibition timing hypothesis, che assegna alle onde alpha un ruolo essenziale al fine di trascurare gli stimoli non rilevanti rispetto al compito da svolgere. Successivamente, è stato indagato l’effetto sul modello di alcune degenerazioni neurali tipiche di una delle patologie maggiormente invalidanti, la schizofrenia. Nello specifico, sulla base di evidenze sperimentali che riportano un calo della potenza delle onde gamma nei soggetti schizofrenici a causa della degenerazione degli interneuroni inibitori con dinamica sinaptica veloce, si è riusciti a simulare la progressiva alterazione neurale indotta dalla schizofrenia in termini di incapacità di inibire gli stimoli interferenti.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.
Resumo:
Il piede è la struttura anatomica multi-articolare che media il contatto dell’apparato muscoloscheletrico con il suolo ed è, quindi, fondamentale per la locomozione e per la maggioranza dei task motori. Per questo, l’analisi cinematica intrarticolare in-vivo del complesso piede-caviglia risulta essere di grande interesse in ambito biomeccanico e in ambito clinico. La quantificazione del moto relativo è, però, complessa a causa del numero di ossa presenti nel piede, ben 26, e alla loro distribuzione. Tali limitazioni possono essere superate ricorrendo a misure in risonanza magnetica dinamica (DMRI). Questo elaborato presenta un primo approccio esplorativo per determinare la cinematica del piede. In particolare l’analisi si è concentrata, per semplicità, sullo studio del retropiede, quindi sul moto relativo tra tibia, talo e calcagno, nel caso di flessione plantare libera, ovvero senza alcun carico applicato. Il complesso piede-caviglia è stato scansionato suddividendo il range di movimento in 13 pose statiche. Da ognuna delle 13 acquisizioni di tipo volumetrico sono state simulate delle scansioni dinamiche, in modo da ottenere una cinematica certa di riferimento, per poter valutare la precisione dell’algoritmo utilizzato. La ricostruzione della cinematica tridimensionale del complesso esaminato si è basata su un algoritmo di registrazione, composto da un primo processo di inizializzazione semiautomatico ed una successiva registrazione 2D/3D automatica basata sull’intensità dei voxel. Di particolare interesse in questa indagine è la ricostruzione dei tre moti relativi: tibia-talo, tibia-calcagno e talo-calcagno. Per valutare la precisione dell’algoritmo nella ricostruzione della cinematica è stato calcolato l’errore medio in valore assoluto tra le coordinate dei modelli nelle pose di riferimento e le coordinate fornite dal codice. I risultati ottenuti sono di notevole interesse visto il carattere esplorativo dello studio.
Resumo:
Il 19 settembre 2021 si sono formati in poche ore 7 tornado tra Lombardia ed Emilia Romagna, 4 dei quali di intensità F2. Una simile sequenza di tornado in Pianura Padana non ha precedenti. Il caso studio è stato analizzato sia dal punto di vista delle osservazioni che attraverso simulazioni numeriche ad altissima risoluzione con la catena modellistica BOLAM-MOLOCH, allo scopo di comprendere i meccanismi fisici che hanno portato alla genesi delle supercelle tornadiche. E' stata verificata la capacità del modello MOLOCH di simulare accuratamente lo sviluppo delle supercelle, alla luce dei modelli teorici in letteratura. Tramite le osservazioni al suolo, è stato osservato come durante l'evento sulla Pianura Padana si sia creato un "punto triplo", ossia una convergenza tra tre masse d'aria con caratteristiche diverse, nei pressi di dove si sono verificati i tornado. Per l'innesco della convezione è stato fondamentale il contributo di un cut-off low in quota, associato a un fronte freddo al suolo sulla pianura lombarda. Inoltre, l'avvezione di aria umida e instabile dall'Adriatico verso i settori di innesco, in prossimità della superficie, ha rivestito un ruolo rilevante. In Emilia invece è stata probabilmente determinante una convergenza tra il flusso instabile di origine adriatica e il flusso sud-occidentale sceso dagli Appennini. Per quanto riguarda l'intensificazione e il successivo sviluppo delle supercelle e dei tornado, sono state individuate due sorgenti principali di vorticità orizzontale: la vorticità baroclina che si è generata lungo il fronte freddo in Lombardia e la vorticità generata dallo shear verticale in presenza di un low-level jet. La circolazione nei bassi strati atmosferici ha trasportato la vorticità generata da entrambe queste sorgenti verso i sistemi convettivi in Lombardia, dove il processo di tilting ha trasformato la vorticità orizzontale in vorticità verticale ciclonica.
Resumo:
L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.
Resumo:
Nel modo in cui oggigiorno viene intrapresa la ricerca, l’interdisciplinarità assume una posizione di sempre maggior rilievo in pressoché ogni ambito del sapere. Questo è particolarmente evidente nel campo delle discipline STEM (Scienza, Tecnologia, Ingegneria, Matematica), considerando che i problemi a cui esse fanno fronte (si pensi agli studi sul cambiamento climatico o agli avanzamenti nel campo dell’intelligenza artificiale) richiedono la collaborazione ed integrazione di discipline diverse. Anche nella ricerca educativa, l’interdisciplinarità ha acquisito negli ultimi anni una notevole rilevanza ed è stata oggetto di riflessioni teoriche e di valutazioni sulle pratiche didattiche. Nell’ampio contesto di questo dibattito, questa tesi si focalizza sull’analisi dell’interdisciplinarità tra fisica e matematica, ma ancora più nel dettaglio sul ruolo che la matematica ha nei modelli fisici. L’aspetto che si vuole sottolineare è l’esigenza di superare una concezione banale e semplicistica, sebbene diffusa, per la quale la matematica avrebbe una funzione strumentale rispetto alla fisica, a favore invece di una riflessione che metta in luce il ruolo strutturale della formalizzazione matematica per l’avanzamento della conoscenza in fisica. Per fare ciò, si prende in esame il caso di studio dell’oscillatore armonico attraverso due lenti diverse che mettono in luce altrettanti temi. La prima, quella dell’anchor equation, aiuterà a cogliere gli aspetti fondamentali del ruolo strutturale della matematica nella modellizzazione dell’oscillatore armonico. La seconda, quella degli epistemic games, verrà utilizzata per indagare materiale didattico, libri di testo e tutorial, per comprendere come diverse tipologie di risorse possano condurre gli studenti ad intendere in modi diversi la relazione di interdisciplinarità tra fisica e matematica in questo contesto.
Resumo:
L'odierna volatilità dei costi delle materie prime e il generale aumento dei prezzi legati all'energia, rendono necessario lo sviluppo di strategie atte a contenerne le conseguenze, in modo particolare all'interno delle innumerevoli realtà industriali che risultano inevitabilmente coinvolte. Il seguente elaborato è incentrato sull’analisi del funzionamento di una pressa per il colaggio di articoli sanitari in ceramica e sulla ricerca di soluzioni costruttive alternative del telaio della macchina che garantiscano le medesime prestazioni dell’originale ma con un’eventuale diminuzione sul costo di produzione. Ai fini dell’analisi vengono sviluppati una serie di modelli matematici (sia analitici che basati sui metodi numerici) con l’obiettivo di studiare lo stato deformativo e tensionale della macchina, valutare le condizioni di carico a cui sono soggette le varie giunzioni (saldate e bullonate) e individuare eventuali criticità. Il medesimo approccio è utilizzato nell’analisi delle soluzioni alternative sviluppate all’interno dell’elaborato. Su di esse viene poi svolta una stima dei costi di produzione da confrontare con i costi relativi agli equivalenti semilavorati presenti nella struttura originale, in modo da individuare e valutare un eventuale vantaggio in termini economici.
Resumo:
L'elaborato analizza il funzionamento di un integrated boost converter, operante come sistema di interfaccia per la ricarica di un veicolo elettrico operante a 800V con la colonnina di ricarica a 400V. Il convertitore utilizza le fasi dell'azionamento di trazione come induttanze di filtro. Mediante un’analisi agli elementi finiti sono stati estratti i parametri del motore elettrico di un veicolo stradale operante a 800V. Il funzionamento del convertitore è studiato in ciascuna delle configurazioni proposte in ambiente Simulink. Poi, sono state individuate le posizioni che permettono il funzionamento ottimale del sistema ed infine sono state eseguite le prove a banco per verificare le previsioni dei modelli matematici dell'integrated boost converter. Si è quindi ottenuta una configurazione dell'azionamento a bordo del veicolo che permette il trasferimento di energia tra batteria e colonnina di ricarica a tensione inferiore, seppur siano richiesti sviluppi futuri per poter avere una ricarica completa della batteria.
Resumo:
Il mercato col tempo si è reso sempre più dinamico e ha richiesto alle aziende per sopravvivere una sempre maggiore capacità di innovare e adattarsi. Per rispondere a queste esigenze sono stati ridisegnati nuovi modelli di innovazione, il più famoso tra questi è l’Open Innovation. GELLIFY nasce nel 2016 per favorire l’Open Innovation in Italia, il suo stesso modello è basato sul concetto di Ecosistema e su una strategia win-win tra tutti i soggetti partecipanti: investitori, Start-ups, Corporate. Grazie a questa brillante idea l’azienda ha raggiunto in pochi anni più di 200 dipendenti con tre sedi (Italia, Middle East, Iberia) e un fatturato superiore agli 11 milioni di euro. Per sostenere la crescita e mantenersi agili, GELLIFY, ha dovuto effettuare dei grandi cambiamenti strutturali. Lo scopo di questo elaborato è analizzare GELLIFY combinando insieme la teoria dei microfondamenti con la stella di Galbraith rivisitata da Mckinsey (in cui il sistema premiante è stato incorporato dentro i processi ed è stato dato un ruolo a se stante alla tecnologia). Tutti i diversi elementi sono stati analizzati studiando ciò che l’azienda ha fatto o sta facendo in merito e soprattutto analizzando il percepito dei dipendenti a riguardo, raccolto attraverso l’utilizzo di interviste semistrutturate ai dipendenti e ad alcuni manager. Infine, tutti questi elementi sono stati collegati tra loro studiando come questi incidano sull’espressione delle capacità dinamiche degli individui facendo emergere una carenza nella gestione delle risorse umane dell’azienda. Per risolvere questo problema si è ipotizzato di restringere il campo della soluzione al processo di Onboarding, ritenuto un tassello fondamentale per l’employeer branding e per l’engagement dei dipendenti. La soluzione è stata descritta in maniera dettagliata considerando anche gli elementi presenti in GELLIFY che possono favorirne l’attuazione ma anche evidenziando i fattori critici e come gestirli.
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.
Resumo:
Il mio elaborato di tesi è basato sull'analisi generale dei modelli matematici alla base delle epidemie e lo studio dei punti di equilibrio dei sistemi che descrivono tali modelli. Il primo capitolo fornisce una descrizione degli elementi di base per lo studio che verrà poi affrontato nei capitoli successivi; nel capitolo in questione ci si riduce a introdurre nomenclatura, parametri e assunzioni di base. Nei capitoli secondo e terzo vengono esposti due tipi di modelli SIR diversi (epidemico e endemico), modelli alla base dell'epidemiologia che spiegano, sotto determinate ipotesi, il comportamento degli individui all'esplodere di una epidemia e il loro cambiamento di compartimento (suscettibile, infetto o rimosso) nel tempo. Di essi viene costruito il sistema di equazioni differenziali e analizzato il comportamento asintotico, per poi studiare i punti di equilibrio e la loro stabilità. Nel capitolo quarto viene analizzato allo stesso modo il modello SEIR, interessante perché fornisce una visione leggermente più sofisticata e vicina alla realtà, poiché tra i compartimenti possibili si suppone esistere anche un compartimento degli esposti, cioè di coloro che sono stati infettati ma che ancora non sono in grado di trasmettere la malattia. L'appendice finale illustra l'apparato matematico utile allo studio di questi modelli: le Equazioni Differenziali infatti sono uno strumento necessario per la descrizione dei fenomeni naturali e per lo studio della stabilità dei punti di equilibrio.
Resumo:
L'elaborato di tesi descrive il mercato e le principali strutture della mobilità aerea urbana, definendo le principali aziende ed i relativi modelli, protagonisti della nuova rete di trasporti ad alimentazione elettrica. Il corpo centrale del documento analizza i velivoli, esplorandone i concetti costruttivi, il design, le caratteristiche aerodinamiche e propulsive. La parte conclusiva propone invece un'analisi comparativa tra questi, basandosi sulle loro prestazioni.
Resumo:
La Tesi presenta un metodo per valutare il livello di reversibilità e circolarità dei componenti edili. Il concetto cardine dello studio è il Design for Disassembly (DfD), definibile come un approccio alla progettazione di organismi edilizi secondo criteri costruttivi volti a facilitare successivi cambiamenti e smantellamenti (completi o parziali), consentendo il riutilizzo dei componenti, al fine di ridurre l’impatto ambientale degli interventi. Attualmente, diverse ricerche in ambito scientifico si dedicano all’approfondimento di questa tematica, correlandola ad altri concetti come la metodologia del Building Information Modeling (BIM), che consente di digitalizzare il processo progettuale, la sua realizzazione e la sua gestione attraverso modelli. Dopo l’analisi dello stato dell’arte, il lavoro è giunto alla definizione di un insieme di parametri idonei per essere introdotti in un modello informativo, in grado di rappresentare la circolarità del componente in termini di DfD. Per ogni elemento del componente analizzato viene assegnato un valore numerico (variabile da 0,1 a 1) a ogni parametro. Tramite l’utilizzo di una formula elaborata nell’ambito di precedenti ricerche svolte dal Dipartimento di Architettura dell'Università di Bologna, opportunamente modificata, si ottiene un indice sintetico finale denominato “Express Building Circularity Indicators” (EBCI). Il metodo di analisi proposto come strumento a supporto del processo progettuale è stato validato tramite l’applicazione a diverse soluzioni di facciata per l’efficientamento energetico di un fabbricato selezionato come caso di studio italiano dal progetto Europeo Horizon 2020 "DRIVE 0 – Driving decarbonization of the EU building stock by enhancing a consumer centred and locally based circular renovation process". I risultati ottenuti hanno consentito di verificare la replicabilità del processo digitalizzato a diverse soluzioni costruttive e l’affidabilità del metodo di valutazione del grado di circolarità.
Resumo:
L’analisi dell’attività cerebrale rivela la presenza di oscillazioni sincrone che coprono un ampio spettro di frequenze e che possono essere rilevate mediante elettroencefalografia (EEG), magnetoencefalografia (MEG) o elettrocorticografia (ECoG). Si presume che esse svolgano un ruolo cruciale in molti importanti processi della corteccia e nell’associazione tra diverse funzioni. Il presente lavoro si pone come obiettivo quello di dimostrare come il ruolo di questi ritmi, in particolare di alpha (8-13 Hz) e di gamma (> 30 Hz), sia fondamentale in meccanismi di attenzione spaziale e semantica. A questo scopo, sono stati perfezionati modelli di massa neuronale esistenti per svilupparne uno in grado di simulare i meccanismi alla base dell’ipotesi di “inhibition timing”, secondo la quale un aumento di potenza in banda alpha permette di ignorare input irrilevanti per il compito. Sono stati, poi, simulati meccanismi di neurodegenerazione causati dalla schizofrenia, patologia correlata ad alterazioni nella neurotrasmissione GABAergica e ad una riduzione nella sincronia e nella potenza della banda gamma, riconducibile ai deficit cognitivi tipici della malattia.