1000 resultados para Modellazione,dati sperimentali,Calibrazione,Ottimizzazione


Relevância:

20.00% 20.00%

Publicador:

Resumo:

I dati delle indagini sugli apprendimenti degli studenti in Italia rivelano l’esistenza di fragilità nell’acquisizione di competenze essenziali e di differenze tra i risultati conseguiti. Per innovare la didattica al fine di adeguarla ai bisogni degli studenti, gli esperti di Docimologia caldeggiano l’uso di pratiche di valutazione formativa, o formative assessment (FA). In ambito internazionale diversi studi hanno mostrato l'efficacia di tali prassi, mentre in Italia non esistono ricerche sperimentali finalizzate a studiarne l’impatto sugli apprendimenti. Il progetto è entrato all’interno di quest’ambito di studi per controllare l’efficacia di un insieme di pratiche di FA sull'incremento delle abilità di comprensione dei testi degli studenti. Lo scopo è stato perseguito realizzando una sperimentazione in una scuola secondaria di primo grado che ha coinvolto gli studenti di due classi prime, i quali sono stati suddivisi a metà attraverso tecniche di randomizzazione per formare i due gruppi, sperimentale e di controllo. Dopo aver effettuato una rilevazione iniziale delle abilità di comprensione dei testi degli studenti (pre-test), è stato realizzato con quelli del gruppo sperimentale un intervento composto da 15 incontri di FA della durata di due ore ciascuno. Alla fine, sono state effettuate due rilevazioni finali (post-test) utilizzando sia la stessa prova utilizzata come pre-test sia una prova parallela. È stata calcolata la differenza post-test-pre-test per ogni gruppo ed è stato verificato quanto avesse influito la partecipazione all’intervento sperimentale su tale differenza tramite test non parametrici. I risultati hanno mostrato un incremento di abilità lievemente maggiore nel gruppo sperimentale, se confrontato con quello del gruppo di controllo, anche se questa differenza tra i due gruppi non è statisticamente significativa. Sebbene le analisi non abbiano consentito di rifiutare l’ipotesi nulla, la rilevanza di tale progetto risiede nel tentativo di aprire il dibattito sull’efficacia di prassi di FA sugli apprendimenti degli studenti in Italia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il progetto del dottorato di ricerca ha permesso di estendere il lavoro svolto sul Sistema Informativo 3D del Cantiere della Fontana del Nettuno al fine di definire la struttura concettuale e i relativi contenuti tematici di una piattaforma open source in grado di sviluppare la documentazione di restauro, sia per opere complesse caratterizzate dalla presenza di molti materiali costitutivi, sia per interventi più semplici nel quale preservare memoria e fornire libero accesso ai dati. Il confronto tra il SI del Cantiere della Fontana del Nettuno con le attuali metodologie utilizzate in campo nazionale ed internazionale ha permesso di ampliare i lessici necessari per la documentazione grafica e testuale da effettuare su diverse classi di materiali, creando delle cartelle integrate da combinare in base ai materiali costitutivi delle opere da restaurare. Il lavoro ha permesso la redazione di un lessico specifico per i diversi materiali costitutivi fornendo una banca dati informatizzata di facile consultazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perchè i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio e progettazione di una soluzione tecnologica da fissare a una testa di focalizzazione laser movimentata da un braccio robotico. Il fine dello strumento creato è migliorare l'efficienza e l'ergonomia della fase di setting dell'impianto e abbassare il tempo impiegato per misurare la distanza del laser dal pezzo. Nel corpo della tesi sono state analizzate varie opzioni realizzative con i relativi pro e contro e infine vengono mostrate le diverse fasi di prototipazione del prodotto scelto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesi di laurea vuole affrontare il tema degli allagamenti in ambito urbano e si inserisce all’interno di un progetto già in essere riguardante la realizzazione di un modello numerico del sistema di drenaggio della città di Ravenna. L'obbiettivo è la modellazione in 2D delle aree della città del comparto nord caratterizzate da eventi di Pluvial flooding con particolare riguardo ai siti di interesse archeologico facenti parte del patrimonio UNESCO. Il caso di studio, inoltre, è ripreso dal programma SHELTER (Sustainable Historic Environments hoListic reconstruction through Technological Enhancement and community based Resilience) finanziato nell’ambito del programma per la ricerca europea Horizon 2020. Nel presente elaborato verranno dunque simulati i vari scenari idraulici caratterizzati da eventi di precipitazione riferiti a tempi di ritorno differenti al fine di analizzare la risposta del comparto nord della rete di Ravenna, per valutarne le critica tramite l’utilizzo del software EPA SWMM. I risultati ottenuti saranno dunque rielaborati per essere utilizzati nella realizzazione di carte tematiche grazie all’utilizzo del software GIS. Tali carte permetteranno quindi di valutare le aree maggiormente soggette a fenomeni di allagamento. I risultati verranno infine analizzati attraverso il software di modellazione bidimensionale HEC-RAS riuscendo così a comprendere meglio il fenomeno dell’allagamento urbano. Verrà posta una particolare attenzione nelle zone dove sono presenti i siti facenti parte del patrimonio UNESCO: Basilica di San Vitale e Battistero Ariani. I risultati ottenuti dalla modellazione, permetteranno infine, di valutare le metodologie e gli approcci per ridurre i deflussi superficiali durante la precipitazione e, quindi le portate in fognatura, andando così a garantire una protezione idraulica e ambientale del territorio aumentando la resilienza del comparto urbano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un danneggiamento in una struttura altera le sue caratteristiche dinamiche quali frequenze naturali, indici di smorzamento e forme modali associate ad ogni frequenza naturale. In particolare, nel caso di travi, una variazione di rigidezza flessionale è in generale definibile danneggiamento se corrisponde ad una riduzione della stessa; tuttavia, anche un incremento altera i parametri dinamici della struttura. Il presente elaborato investiga l’applicazione del cambiamento nelle curvature modali per identificare un incremento di rigidezza flessionale in una trave metallica semplicemente appoggiata studiata presso il laboratorio LISG dell’Università di Bologna. Utilizzando le differenze centrali, le curvature modali sono state calcolate dalle forme modali ottenute sperimentalmente. Le modalità di calcolo utilizzate per identificare le forme modali della trave sono accomunate dall’utilizzo delle funzioni di trasferimento sperimentali ricavate sia dal rapporto tra le trasformate di output ed input, sia facendo uso della densità di potenza spettrale (PSD e CPSD). A supporto delle indagini sperimentali e per validare le modalità di calcolo utilizzate è stata modellata tramite elementi finiti una trave semplicemente appoggiata che simula la configurazione iniziale e quella irrigidita localmente in un suo tratto. I risultati numerici condotti validano le modalità utilizzate per la determinazione delle forme modali, evidenziando una forte sensibilità delle curvature modali all’irrigidimento locale. Come atteso, lato sperimentale le forme modali risultano meno accurate di quelle dedotte dalle esperienze numeriche. I risultati ottenuti evidenziano limiti e potenzialità dell’algoritmo di identificazione impiegato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I contenuti principali trattati in questa tesi sono stati ispirati da due lavori presentati nel corso dello scorso decennio. Il primo lavoro, pubblicato nel 2013 da O. A. Manita e S. V. Shaposhnikov, presenta un nuovo risultato di esistenza di soluzioni, nel senso delle distribuzioni, che siano misure di probabilità per PDE paraboliche non lineari del primo e secondo ordine. Vengono fornite condizioni sufficienti per l’esistenza locale e globale di tale tipo di soluzioni per il problema di Cauchy associato a tali equazioni. Equazioni di tale tipo compaiono in maniera del tutto naturale in diversi ambiti applicativi, fra cui la finanza matematica. Nel lavoro presentato da G. Tataru e T. Fisher per Bloomberg nel 2010, viene proposto un modello stocastico per la modellazione del tasso di cambio di valuta estera al fine di prezzare dei particolari tipi di opzione, le opzioni a barriera, con le quali modelli più classici faticano maggiormente. Nella calibrazione di tale modello, per "fittare" il modello ai prezzi delle opzioni scambiate sul mercato, sorge il problema di risolvere un’equazione alle derivate parziali parabolica non lineare integro-differenziale e che dunque appartiene alla classe di PDE citata precedentemente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questa tesi è analizzare le API disponibili sul Web che forniscono dati meteorologici e in particolare analizzare i servizi che esse offrono. La tesi include la descrizione di confronti già presenti sul Web ed è seguita dalla definizione di una griglia di valutazione con cui sono state analizzate le API meteo e le varie funzionalità che esse offrono. Infine il lavoro si completa con lo sviluppo di un’applicazione mobile realizzata in React Native, in cui è possibile leggere e confrontare in modo interattivo i dati attuali e storici forniti dalle API, inoltre permette di filtrare le API meteo in base alle caratteristiche che si cercano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’idrovolante è un velivolo in grado di decollare ed ammarare su uno specchio d’acqua e che, quindi, non necessita di infrastrutture di terra come aeroporti. Questa caratteristica lo rende ideale per certe tipologie di missione e gli permette di operare in zone remote e poco accessibili ai velivoli convenzionali. Il prezzo da pagare per questa maggiore libertà di impiego sono le peggiori prestazioni di un idrovolante rispetto alle sue controparti di terra, soprattutto in termini di peso e resistenza aerodinamica. In questa tesi si analizzano i metodi per la progettazione di un idrovolante e, in particolare, dei suoi scarponi, che sono il dispositivo che gli consente di galleggiare e svolgere operazioni sull’acqua. Successivamente, si applicano queste metodologie alla progettazione degli scarponi per tre velivoli in configurazione convenzionale. Si descrive in seguito come produrre un disegno CAD di questi velivoli con e senza scarponi tramite il software Solidworks e, sempre con questo programma, come svolgere simulazioni di fluidodinamica per un calcolo indicativo del loro coefficiente di resistenza aerodinamica in condizioni di volo livellato. Si vede, poi, come effettuare una stima del peso totale al decollo di un velivolo e si calcola l’aumento percentuale di questo parametro nella trasformazione dei velivoli selezionati in idrovolanti. Infine, si confrontano i risultati ottenuti per i coefficienti di resistenza e per il peso massimo al decollo per quantificare il calo di prestazioni causato dalla presenza degli scarponi. Osservando come questo sia significativo, si conclude che l’impiego degli idrovolanti è destinato a rimanere limitato ai soli casi in cui le operazioni da specchi d’acqua non presentino altre alternative: questo a meno che non si riescano ad ideare nuove soluzioni costruttive in grado di risolvere le principali problematiche di questo tipo di velivolo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obbiettivo di questo elaborato è descrivere l'implementazione, attraverso l’uso del programma di calcolo Matlab, di un metodo per ottenere una configurazione di un velivolo dell’aviazione generale che sia rispettosa delle specifiche di progetto e presenti un costo orario minimo. Il metodo utilizzato per progettare l’aeromobile preso come caso di studio è basato sui concetti della progettazione robusta. Con questo metodo di progettazione si cerca di rendere l’aereo il più insensibile possibile alle modifiche di alcuni dei parametri di progetto che possono variare in modo casuale; in particolare ci si è concentrati sul costo orario di una missione, andandone a calcolare la media e la sua deviazione standard. Considerando infine il rapporto segnale-rumore introdotto da Taguchi per la progettazione robusta, viene implementato un metodo di ottimizzazione basato su un algoritmo Particle Swarm Optimization (PSO), attraverso il quale si ottengono i valori più idonei dei parametri di progetto necessari per la realizzazione del futuro velivolo. In dettaglio, i parametri fissati in seguito all’applicazione dell’ottimizzatore sono l’allungamento alare, il carico alare e il rapporto potenza massima motori-peso. A conclusione del lavoro svolto, si può dire che l’ottimizzazione robusta può essere utile in tutti i casi in cui alcuni parametri di progetto non sono definiti in modo univoco, ma possono variare in un modo non prevedibile all’inizio della sviluppo del prodotto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi ricade nell'ambito della modellazione dei solidi ed in particolare nel riconoscimento automatico di lavorazioni su di esso presenti con l'obiettivo principale di risolvere alcune delle problematiche presenti nel software SolidPlus. Quest'ultimo ha come scopo quello di acquisire un solido progettato con un software commerciale di progettazione Cad, di rilevare le possibili lavorazioni presenti sulla parte assimilata e generare un file in un formato riconoscibile dalle macchine a controllo numerico per poterlo lavorare. Nel primo capitolo si introduce la rivoluzione industriale scaturita dall'attuazione dei principi dell'industria 4.0. Nel secondo capitolo si esegue un'analisi di alcune delle soluzioni attualmente presenti in letteratura per rilevare e classificare le lavorazioni, con particolare riferimento a quelle soluzioni che si basano sull'analisi del BRep, modello alla base del Cad. Il terzo capitolo riguarda invece il software oggetto di analisi definendo quelle che sono le funzionalità attualmente presenti e le problematiche riscontrate. Il quarto capitolo consiste nell'esame di alcuni casi di fallimento nel riconoscimento delle lavorazioni e delle relative strategie attuate per la risoluzione delle problematiche. In appendice sono stati introdotti i concetti relativi all'iso 10303, standard alla base dei file d'interscambio tra il software di progettazione Cad e le proprietà dei linguaggi a marcatori, fondamentale per lo scambio dati tra software ufficio e macchina

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.