973 resultados para Aereo, Algoritmo, Stima assetto, Tuning parametri
Resumo:
Lo sviluppo di questa tesi è stato quello di analizzare diversi campioni di pasta di cacao e di cioccolato liquido prelevati, rispettivamente, dai tank prima del dosaggio degli ingredienti e dal preleva campioni della conca fine concaggio. Le analisi di viscosità effettuate sui campioni hanno l’obiettivo di determinare la causa della variazione di viscosità in una particolare ricetta di cioccolato. La viscosità è una proprietà che può essere influenzata da numerosi fattori, perciò è difficile tenere sempre in considerazione tutte le variabili. Ciò che ho riscontrato durante questa ricerca è stato il fatto che la viscosità del cioccolato viene influenzata, o comunque dipende, dalla viscosità della pasta cacao. Un altro fattore importante è la distribuzione particellare del cioccolato; questa ipotesi origina dal fatto che si hanno viscosità diverse delle conche a parità di altre variabili come l’umidità, la temperatura, la percentuale in grassi o l’aggiunta di lecitina. Questo ulteriore fattore di grandezza delle particelle necessita l’ottimizzazione dei parametri di raffinazione per poter ottenere sempre la stessa distribuzione e può dipendere dalla variabilità delle materie prime (pasta cacao) o dalle dimensioni dello zucchero. I diversi fattori che possono essere presi in considerazione per la variabilità della viscosità sono la distribuzione particellare dello zucchero, che può determinare la presenza o l’assenza di grumi all’interno del cioccolato, la viscosità della materia prima della pasta cacao e la presenza di una percentuale troppo elevata di umidità o di grasso. Ci possono anche essere fattori di processo che alterano la corretta produzione del cioccolato, come il controllo non adeguato delle impostazioni degli strumenti che comporterebbe temperature o velocità scorrette di produzione, oppure la variazione della sequenza di dosaggio che consiste nell’aggiunta di un ingrediente prima o dopo di quando viene richiesto dalla specifica ricetta di quel cioccolato.
Resumo:
State-of-the-art NLP systems are generally based on the assumption that the underlying models are provided with vast datasets to train on. However, especially when working in multi-lingual contexts, datasets are often scarce, thus more research should be carried out in this field. This thesis investigates the benefits of introducing an additional training step when fine-tuning NLP models, named Intermediate Training, which could be exploited to augment the data used for the training phase. The Intermediate Training step is applied by training models on NLP tasks that are not strictly related to the target task, aiming to verify if the models are able to leverage the learned knowledge of such tasks. Furthermore, in order to better analyze the synergies between different categories of NLP tasks, experimentations have been extended also to Multi-Task Training, in which the model is trained on multiple tasks at the same time.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
La seguente tesi ha l'obiettivo di inquadrare le grandezze che descrivono l'Universo, i parametri cosmologici, e successivamente presentare alcuni dei metodi per derivarli. Il primo capitolo tratterà le equazioni di Friedmann, introdotte grazie alla metrica di Robertson-Walker, il parametro di espansione a(t), fondamentale per la determinazione dei parametri cosmologici, e infine le geometrie possibili dell'Universo. Il secondo è incentrato sui parametri cosmologici veri e propri, su come vengono ricavati matematicamente e sul modello cosmologico che attualmente riproduce molto bene le osservazioni, il modello Lambda-CDM. Infine, il terzo tratterà di come possono essere ricavati alcuni parametri, dando più spazio alla costante di Hubble, in quanto è al centro di una grande discussione per via della tensione tra le misure ottenute nell'universo locale e quelle che vengono da dati ad alto redshift.
Resumo:
Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.
Resumo:
La scoliosi è una delle patologie più importanti che affliggono la colonna vertebrale, che può essere trattata chirurgicamente con un intervento di fissazione posteriore per ripristinare l’allineamento della colonna vertebrale sul piano coronale. Questa chirurgia ha al momento un alto tasso di fallimento. Una delle principali complicazioni che portano al fallimento è l’insorgenza di patologia giunzionale lombare distale. In letteratura l’influenza dello sbilanciamento coronale non è stata ancora sufficientemente approfondita. Per questo, l’obiettivo di questo studio è quello di verificare l’esistenza di possibili correlazioni tra i parametri spinopelvici nel piano coronale e l’incidenza della patologia giunzionale distale nella regione lombare. Sono stati selezionati tutti i pazienti affetti da scoliosi che sono stati sottoposti a fissazione spinale strumentata nel 2017 e 2018 all’Istituto Ortopedico Rizzoli. Questi pazienti sono stati poi divisi in due gruppi, un gruppo di controllo che comprendeva 66 pazienti e un gruppo di 31 pazienti che hanno presentato patologia giunzionale distale, andando così incontro a revisione. In entrambi i gruppi sono stati estratti i dati demografici dei pazienti e sono stati misurati i parametri spinopelvici su radiografie in ortostatismo in proiezione anteroposteriore sia precedentemente che successivamente all’intervento di fissazione; per i pazienti affetti da patologia giunzionale distale sono state esaminate anche le radiografie precedenti alla revisione. L'analisi dei risultati di questo studio ha consentito di ipotizzare possibili correlazioni tra il fallimento di un intervento di fissazione spinale e alcune caratteristiche del paziente, quali età, BMI, sbilanciamento coronale , deviazione della vertebra apice e ampiezza (misurata secondo il metodo di Cobb) delle curve scoliotiche.
Resumo:
Lo scopo di questa attività di tesi è quello di rilevare dinamicamente la posizione di ostacoli mediante radar FMCW. I radar a onda continua modulati in frequenza sono alla base dei moderni sensori in ambito automotive, in quanto consentono allo stesso tempo di rilevare la distanza, l’angolazione e la velocità di un corpo detto target analizzando gli scostamenti temporali e in frequenza tra i segnali (detti chirp) trasmessi e quelli riflessi dai corpi. Nel lavoro di tesi si analizza sperimentalmente come il radar a onda continua MIMO (multiple input multiple output) RBK2, presente presso il laboratorio TLC del Campus di Cesena, può essere utilizzato per ricavare la velocità relativa di un target, che si avvicina o si allontana dal radar. Innanzitutto, vengono settati i parametri per l’acquisizione e per il processing necessario per ottenere una matrice Angolo-Range che caratterizza staticamente il target. Il mixer interno al radar, a seguito della ricezione di un segnale di eco, produce un segnale a frequenza intermedia il cui spettro presenta un picco in corrispondenza della distanza del target che lo ha riflesso. A questo punto si conosce la posizione del corpo e si procede con la stima della velocità sfruttando l’effetto Doppler: analizzando i chirp riflessi dallo stesso target in istanti successivi si ottengono una serie di picchi nella stessa posizione ma con fasi differenti, e da tale sfasamento si ricava la componente radiale della velocità del target. Sono stati studiati sia il caso di misure outdoor che quello di misure indoor, infine è stato elaborato un codice Matlab in grado di fornire un feedback riguardante una possibile collisione in seguito alla stima della velocità del corpo. Tale tecnologia gioca quindi un ruolo fondamentale nell’ambito della sicurezza stradale potendo prevenire incidenti.
Resumo:
L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondità disponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondità di una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.
Resumo:
L’elaborato descrive le fasi di progettazione, programmazione e validazione di un programma sviluppato in ambiente Java per il Vehicle Routing Problem. L’algoritmo implementato è di tipo euristico costruttivo primal e presenta funzionalità specifiche per la gestione di un elevato numero di vincoli e l’applicazione a casistiche reali. La validazione è stata effettuata su una base dati reale e in confronto a dataset di cui è nota la soluzione ottima. Il programma è stato progettato per risultare flessibile alle richieste dell’utente e utilizzabile per valutazioni economiche in ambito consulenziale.
Resumo:
Il seguente elaborato, che riporta il lavoro di tesi svolto presso il Laboratorio di microsatelliti e microsistemi spaziali dell’Università di Bologna, parte dallo studio e dallo sviluppo di un modello relativo all’attuazione di ruote di reazione montate a bordo di un nanosatellite tramite l’utilizzo del software Matlab. Successivamente tali concetti sono stati utilizzati per lo sviluppo di una piattaforma testbed adibita alla valutazione del sottosistema di determinazione e controllo di assetto di un satellite, in questo caso delle dimensioni standard 1U. Si è partiti da un progetto di base già presente in laboratorio con la necessità però di aggiornarlo, introducendo miglioramenti su alcuni aspetti tecnici. Per fare ciò, si sono valutati i requisiti fondamentali di progetto, per poi valutare le molteplici soluzioni riguardanti tutti gli aspetti, dalle guide di scorrimento ai sistemi di fissaggio per il satellite, ognuna di esse considerando pro e contro attentamente analizzati al fine di giungere al miglior compromesso. Molte delle scelte progettuali sono scaturite a seguito di analisi quantitative al fine di garantire il corretto funzionamento della piattaforma ed ottenere, quindi, risultati quanto più affidabili a seguito dei test.
Resumo:
A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.
Resumo:
Nel presente documento si discute la progettazione di una guida lineare curva allo scopo di permettere la movimentazione di un simulatore di Sole per nanosatelliti. Vengono presentati i nanosatelliti e vengono introdotti alcuni metodi di rappresentazione d’assetto, per proseguire con una descrizione dei sensori di Sole per la determinazione d’assetto. Si descrive, poi, il banco di prova per il controllo e la determinazione d’assetto presente nel Laboratorio di Microsatelliti e Microsistemi Spaziali e, di seguito, il progetto delle guide con il confronto tra le opzioni commerciali disponibili. Infine, si descrive la progettazione degli elementi di collegamento tra il simulatore e i cursori.
Resumo:
I CFRP laminati sono materiali dalle eccellenti proprietà meccaniche specifiche che hanno, però, il grande svantaggio di essere soggetti a delaminazione. Essa è una problematica che può seriamente comprometterne l’affidabilità in vita d’uso e va, perciò, contrastata cercando di prevenirla o cercando di ridurne gli effetti negativi. Lo scopo del presente elaborato di tesi è stato quello di produrre, mediante elettrofilatura, membrane polimeriche che, integrate in laminati compositi, abbiano funzione di rendere il composito delaminato in grado di “autoripararsi” tramite meccanismo di self-healing. È stato condotto uno studio di ottimizzazione di tutti i parametri riguardanti la soluzione ed il processo di elettrofilatura che conducesse all’ottenimento di membrane con una morfologia fibrosa esente da difetti e, contemporaneamente, ad una buona maneggiabilità delle stesse. Le membrane sono state caratterizzate morfologicamente tramite analisi SEM e analisi DSC.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
Background. La sclerosi multipla (SM) è una malattia neurodegenerativa che colpisce il sistema nervoso centrale. I sintomi si manifestano prima dei 55 anni di età, possono essere molto diversi tra loro. Al momento non esiste una cura definitiva, ma sono disponibili tecniche riabilitative che modificano il suo andamento, tra cui la riabilitazione equestre, che consiste in attività svolte con l'aiuto del cavallo a fini di cura. Obiettivi. Lo scopo di questo studio è quello di indagare l’efficacia della riabilitazione equestre sui parametri funzionali del cammino e la qualità della vita in persone con SM. Metodi. Le banche dati visionate per questo studio sono state PUBMED, PEDro, Cochrane Central Register of Controlled Trial, Web of Science e Scopus. Nella revisione sono stati inclusi i Randomized Controlled Trial (RCT) che indagavano i parametri funzionali del cammino e la qualità della vita; articoli che esaminavano soggetti con sclerosi multipla senza limiti di età e sesso, in lingua inglese, pubblicati tra il 2010 e il 2020 e di cui era reperibile il full text. Risultati. Gli studi inclusi sono stati quattro RCT. Gli outcome indagati sono stati i parametri funzionali del cammino e la qualità della vita. In ogni studio esaminato si osserva un miglioramento significativo per ogni misura di outcome, in particolare la qualità della vita. Conclusioni. Ogni studio ha evidenziato come la riabilitazione equestre abbia influito positivamente sul decorso della SM. Riguardo i trial clinici esaminati, il numero esiguo dei partecipanti ai singoli studi, la durata eterogenea delle sessioni, l’impossibilità di disporre della descrizione della seduta, l’utilizzo di scale differenti per ogni studio e l’aver considerato parametri diversi per valutare uno stesso outcome non permettono di avere risultati estendibili a tutta la popolazione. Risulta necessario un ulteriore approfondimento in merito per comprendere la reale efficacia della riabilitazione equestre.