999 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini


Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo studio è affrontato il progetto di un energy harvester destinato ad alimentare un nodo sensore impiegato per scopi di monitoraggio strutturale. La applicazione in questione è specifica per l'ambito ferroviario, dovendo il sistema essere collocato sul tirante di poligonazione della linea area di contatto. Sono state indagate modalità di conversione dell'energia dalle vibrazioni generate dal contatto fra catenaria e pantografo, studiandone la possibile integrazione con la conversione dell'energia solare tramite celle fotovoltaiche. Sono stati quindi progettati e realizzati due prototipi di energy harvester a vibrazioni, basati su tecnica di conversione rispettivamente elettromagnetica e piezoelettrica. La fase di progettazione è stata affinata tramite simulazioni MATLAB e COMSOL, utilizzando il metodo degli elementi finiti, ed è stato curato il progetto dei circuiti di regolazione della tensione generata dai dispositivi. Sulla base del consumo del nodo sensore misurato ne è stata simulata la alimentazione da parte di un energy harvester solare al variare del periodo dell'anno. I dispostivi realizzati sono stati valutati attraverso varie misurazioni e sono state indagate tra gli sviluppi futuri possibili approcci per il miglioramento della tecnologia realizzata.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Negli ultimi quattro anni la summarization astrattiva è stata protagonista di una evoluzione senza precedenti dettata da nuovi language model neurali, architetture transformer-based, elevati spazi dimensionali, ampi dataset e innovativi task di pre-training. In questo contesto, le strategie di decoding convertono le distribuzioni di probabilità predette da un modello in un testo artificiale, il quale viene composto in modo auto regressivo. Nonostante il loro cruciale impatto sulla qualità dei riassunti inferiti, il ruolo delle strategie di decoding è frequentemente trascurato e sottovalutato. Di fronte all'elevato numero di tecniche e iperparametri, i ricercatori necessitano di operare scelte consapevoli per ottenere risultati più affini agli obiettivi di generazione. Questa tesi propone il primo studio altamente comprensivo sull'efficacia ed efficienza delle strategie di decoding in task di short, long e multi-document abstractive summarization. Diversamente dalle pubblicazioni disponibili in letteratura, la valutazione quantitativa comprende 5 metriche automatiche, analisi temporali e carbon footprint. I risultati ottenuti dimostrano come non vi sia una strategia di decoding dominante, ma come ciascuna possieda delle caratteristiche adatte a task e dataset specifici. I contributi proposti hanno l'obiettivo di neutralizzare il gap di conoscenza attuale e stimolare lo sviluppo di nuove tecniche di decoding.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questa tesi si è sviluppata la progettazione di un impalcato da ponte a sezione mista acciaio-calcestruzzo dal punto di vista statico in accordo con le normative vigenti. In particolare, è stato studiato il caso di impalcato bitrave, secondo uno schema di ponte a travata continua. La progettazione ha riguardato le principali componenti di un impalcato misto, a partire dal primo elemento di trasmissione dei carichi, ovvero la soletta di calcestruzzo, per poi proseguire con le travi longitudinali principali, gli irrigidimenti, i connettori a taglio, i collegamenti e i traversi. Per ognuno di essi, sono state effettuate le verifiche secondo il metodo semiprobabilistico agli stati limite descritto negli Eurocodici.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Negli ultimi decenni, la filiera ittica sta subendo una grande espansione grazie al miglioramento delle tecniche di pesca, allevamento, conservazione, e trasformazione. Di pari passo, però, si assiste ad un accumulo di scarti e sottoprodotti per i quali è necessario trovare soluzioni sostenibili al fine di ridurre al minimo il loro impatto sull’ambiente e sull’economia. Risulta pertanto indispensabile trovare tecnologie che possano valorizzare le componenti ancora presenti in questi scarti, come ad esempio l'utilizzo di processi biotecnologici che sfruttano microrganismi selezionati. Questo progetto di tesi si è focalizzato sull’utilizzo di lieviti e batteri, con attività proteolitica e lipolitica, per l’estrazione di composti funzionali tramite fermentazione da scarti di pesce. Gli idrolizzati sono stati caratterizzati in termini di contenuto in peptidi, attività antiossidante e profilo in composti volatili. I ceppi di Yarrowia lipolytica testati sono stati quelli che hanno prodotto il più alto quantitativo di peptidi, la maggiore attività antiossidante e la produzione di alcoli (isoamilico e feniletilico) o acidi (acetico, butirrico e isovalerico) in base all'assenza o presenza di glucosio nel mezzo di crescita.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo studio si pone come obiettivo lo sviluppo e la sperimentazione di un metodo per eseguire un benchmarking di due diversi sistemi di Additive Manufacturing mediante macchina di misura a coordinate Renishaw Cyclone. In particolare sono valutate le prestazioni in termini di precisione di forma di un sistema di tipo FDM e di uno di tipo PolyJet al fine di ottenere dati indicanti le potenzialità di queste due tecnologie per parti di piccole dimensioni. Dopo un’introduzione generale sull’Additive Manufacturing, si scende nei dettagli delle due tecniche oggetto dello studio e si discute di come strutturare il piano sperimentale in funzione degli obiettivi dell’attività e dei metodi scelti per l’acquisizione e la valutazione dei dati. Si parte, infatti, con la fabbricazione di un modello di benchmark, le cui geometrie vengono poi rilevate tramite una macchina di misura a coordinate per ottenere i valori di precisione di forma, che sono presentati come tolleranze geometriche del sistema GD&T. Successivamente, si descrivono tutte le fasi dell’attività sperimentale, iniziando con l’ideazione del modello di benchmark e proseguendo con i processi di fabbricazione e misurazione, per poi arrivare alla deduzione dei valori di precisione di forma tramite un post-processing dei dati. Infine, si presentano i valori di tolleranza ottenuti e si traggono le conclusioni riguardo la riuscita dell’attività sperimentale e il confronto tra le due tecnologie di Additive Manufacturing.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La ricerca di documenti rilevanti è un task fondamentale, può avvenire tramite ambienti chiusi, come le biblioteche digitali o tramite ambienti aperti, come il World Wide Web. Quello che analizzeremo in questo progetto di tesi riguarderà le interfacce per mostrare i risultati di ricerca su una collezione di documenti. L'obiettivo, tuttavia, non è l'analisi dei motori di ricerca, ma analizzare i diversi meccanismi che permettono di visualizzare i risultati. Vedremo, inoltre, le diverse visualizzazioni rilevanti nella ricerca di informazioni sul web, in particolare parleremo di visualizzazioni nello spazio, messe a confronto con la classica visualizzazione testuale. Analizzeremo anche la classificazione in una collezione di documenti, oltre che la personalizzazione, ovvero la configurazione della visualizzazione a vantaggio dell'utente. Una volta trovati i documenti rilevanti, analizzeremo i frammenti di testo come, gli snippet, i riassunti descrittivi e gli abstract, mettendo in luce il modo in cui essi aiutato l'utente a migliorare l'accesso a determinati tipi di risultati. Infine, andremo ad analizzare le visualizzazioni di frammenti rilevanti all'interno di un testo. In particolare presenteremo le tecniche di navigazione e la ricerca di determinate parole all'interno di documenti, vale a dire le panoramiche di documenti e del metodo preferito dall'utente per cercare una parola.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nella sede dell’azienda ospitante Alexide, si è ravvisata la mancanza di un sistema di controllo automatico da remoto dell’intero impianto di climatizzazione HVAC (Heating, Ventilation and Air Conditioning) utilizzato, e la soluzione migliore è risultata quella di attuare un processo di trasformazione della struttura in uno smart building. Ho quindi eseguito questa procedura di trasformazione digitale progettando e sviluppando un sistema distribuito in grado di gestire una serie di dati provenienti in tempo reale da sensori ambientali. L’architettura del sistema progettato è stata sviluppata in C# su ambiente dotNET, dove sono stati collezionati i dati necessari per il funzionamento del modello di predizione. Nella fattispecie sono stati utilizzati i dati provenienti dall’HVAC, da un sensore di temperatura interna dell'edificio e dal fotovoltaico installato nella struttura. La comunicazione tra il sistema distribuito e l’entità dell’HVAC avviene mediante il canale di comunicazione ModBus, mentre per quanto riguarda i dati della temperatura interna e del fotovoltaico questi vengono collezionati da sensori che inviano le informazioni sfruttando un canale di comunicazione che utilizza il protocollo MQTT, e lo stesso viene utilizzato come principale metodo di comunicazione all’interno del sistema, appoggiandosi ad un broker di messaggistica con modello publish/subscribe. L'automatizzazione del sistema è dovuta anche all'utilizzo di un modello di predizione con lo scopo di predire in maniera quanto più accurata possibile la temperatura interna all'edificio delle ore future. Per quanto riguarda il modello di predizione da me implementato e integrato nel sistema la scelta è stata quella di ispirarmi ad un modello ideato da Google nel 2014 ovvero il Sequence to Sequence. Il modello sviluppato si struttura come un encoder-decoder che utilizza le RNN, in particolare le reti LSTM.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La ricerca di esopianeti è un ambito astrofisico in continua evoluzione. Nuovi metodi vengono proposti con l’obiettivo di individuare pianeti con una varietà di caratteristiche sempre più ampia, per poter definire al meglio la storia di formazione ed evoluzione dei sistemi planetari. Un metodo recente in grado di caratterizzare pianeti di piccola massa è lo studio della variazione del tempo di transito (TTV), basato sulla modulazione del periodo orbitale di un pianeta noto causata dalla perturbazione di un corpo aggiuntivo. In questo lavoro proponiamo l’analisi delle curve di luce del pianeta XO-2Nb al fine di individuare TTV. Questo sistema è di particolare rilevanza poiché ospitato dalla prima stella binaria wide in cui entrambe le componenti presentano un proprio sistema planetario. Tra le due stelle solo XO-2N presenta un pianeta transitante, requisito per l’applicazione del metodo proposto. L’analisi dei dati è stata svolta utilizzando il metodo della fotometria differenziale di apertura, normalizzando la curva di luce del target ad altre due stelle di riferimento presenti nel campo di vista dello strumento. I risultati ottenuti evidenziano l’assenza di variazioni di periodo orbitale per XO-2Nb e sono consistenti con un’effemeride lineare. La nuova effemeride calcolata risulta tre volte più precisa rispetto al più recente studio in letteratura, e permetterà di predire futuri transiti con una precisione migliore di un minuto fino al 2035. Abbiamo stabilito un limite superiore all’ampiezza del TTV permessa dai nostri dati, ricavando il valore massimo della massa di un eventuale pianeta perturbatore, pari a 0.15 masse terrestri. Abbiamo ricavato in maniera indipendente i parametri fisici ed orbitali di XO-2Nb, confermando e raffinando i valori presenti in letteratura. I risultati ottenuti suggeriscono che, in determinati casi, l’analisi fotometrica eseguita utilizzando telescopi medio-piccoli da terra può essere competitiva con i più avanzati telescopi spaziali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La complessità dei satelliti e la difficoltà nell’analizzare e risolvere eventuali malfunzionamenti che occorrono dopo la messa in funzione, comportano la necessità di completare estensive campagne di verifica sperimentale prima del lancio in orbita. Nel caso del sistema di determinazione e controllo di assetto (ADCS) è necessario riprodurre a terra le condizioni di microgravità e quasi totale assenza di attrito che si riscontrano in orbita. Per simulare l’ambiente spaziale a terra si usano quindi dei banchi prova progettati e costruiti appositamente per questo scopo: vengono solitamente impiegati dei cuscinetti ad aria sferici, piani oppure di entrambi i tipi per dare al sistema da verificare gradi di libertà rotazionali. Il Laboratorio Microsatelliti Microsistemi Spaziali dell’Università di Bologna ha sviluppato un banco prova in cui possono essere utilizzati alternativamente due cuscinetti sferici, uno realizzato in PVC e l’altro in alluminio. Al fine di certificare l’affidabilità dei risultati ottenuti dalle prove sperimentali, è necessario caratterizzare tutte le fonti di disturbo e in particolare verificare che i disturbi introdotti dai cuscinetti siano sufficientemente bassi da assicurare una fedele simulazione dell’ambiente spaziale. Nel presente elaborato è descritta la progettazione e la realizzazione di una piattaforma sperimentale necessaria per quantificare le coppie di disturbo dei due cuscinetti utilizzati presso il laboratorio. I risultati sperimentali ottenuti sono stati comparati con un modello analitico ricavato da precedenti conclusioni pubblicate nella letteratura scientifica. In seguito, la tesi esamina l’approccio utilizzato per stimare le coppie di disturbo e compara i risultati per entrambi i cuscinetti disponibili. Il lavoro svolto mette a servizio del laboratorio gli strumenti necessari a dimensionare i cuscinetti che verranno sviluppati e utilizzati in futuro.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi ha come obiettivo quello di confrontare i metodi di previsione delle rotture affrontati durante il corso di studi e avvalorati dal libro di Horst Rinne del 2008. Nell'applicare la teoria al sistema reale, si evincono i problemi che sorgono nelle previsioni, come: l’incertezza, la mancanza e l’impossibilità di utilizzo della totalità dei dati a disposizione. E' stato necessario, pertanto, adattare i dati prima di utilizzarli e sfruttare nuovi metodi per raggiungere i risultati prefissati.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nella presente tesi si è realizzato uno sviluppo di base per l'implementazione di un motore turboalbero aeronautico all’utilizzo ad idrogeno. La parte iniziale dell'elaborato descrive le caratteristiche e i benefici dell’utilizzo di questo combustibile innovativo e riporta, poi, le principali modifiche hardware, presenti in letteratura, necessarie per l’implementazione voluta su un motore fisico. Vengono, poi, illustrati i modelli di combustori necessari per un corretto funzionamento del sistema propulsivo, oltre all’eventuale necessità di uno scambiatore di calore. Nella parte centrale della tesi, invece, é descritta la conversione di un modello MatLab Simulink del motore Allison 250 c18, esplicando e documentando le principali modifiche apportate riguardo alla creazione delle mappe del modello dinamico utile a ricavare le caratteristiche termodinamiche del flusso in camera di combustione e all'uscita da essa. Viene inoltre mostrato il metodo di utilizzo degli script CEA forniti dalla NASA, valido per desumere le proprietà dei gas post combustione, oltre che per la creazione delle funzioni di interpolazioni. Sono state svolte, infine, diverse simulazioni, con lo scopo di ricavare le portate corrette di combustibile ed osservare gli andamenti dei parametri fondamentali del sistema propulsivo, come: le portate elaborate, le potenze generate, le temperature e le pressioni ottenute.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scenario oggi più accreditato per spiegare la formazione delle galassie è quello del merging gerarchico: Sgr è una delle prove più importanti a favore di questo scenario. Sgr è una galassia satellite della MW ed è il caso migliore di processo di distruzione mareale in corso dalla MW. La sua distruzione ha contribuito alla costituzione dell'alone della Via Lattea. Di Sgr si osserva solo ciò che ne rimane del corpo principale, i suoi streams ed il suo nucleo, dominato dall'ammasso metal-poor M54. È la presenza di M54 che rende complessa la selezione di stelle metal-poor di Sgr: il main-body di Sgr è rarefatto e fortemente contaminato da stelle galattiche ed il suo nucleo si sovrappone con M54 rendendo quasi impossibile identificare stelle di Sagittario metal-poor non appartenenti ad M54. Fino ad ora l'unico metodo utilizzato per selezionare i targets per studiare la chimica di Sgr ha fatto uso della loro posizione sul CMD: questo metodo introduce un bias, selezionando solo le stelle metal-rich di Sgr. In questo lavoro sono state studiate 23 stelle metal-poor appartenenti al main-body di Sgr ma fuori dal raggio mareale di M54 selezionate grazie ai moti propri dalla missione GAIA. Gli spettri analizzati sono stati ottenuti con lo spettrografo UVES-FLAMES del VLT (ESO)da cui è stata ottenuta l'abbondanza di 17 elementi sia di stelle di Sgr che in 12 stelle di M54. Questo campione di abbondanze chimiche permette per la prima volta: (a) di comprendere la storia di arricchimento chimico di Sgr in un ampio range di metallicità (mai studiato finora) e (b) di confrontare la chimica di Sgr con quella di M54. Tali abbondanze dimostrano come Sgr abbia avuto un'evoluzione chimica diversa da quella della MW, con un contributo inferiore da parte di stelle massive, probabilmente a causa del suo basso SFR. Inoltre è stato possibile determinare la forte somiglianza chimica tra Sgr e M54, confermando che i due sistemi condividono la stessa storia di arricchimento chimico.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Grazie all’evoluzione degli strumenti di calcolo e delle strutture digitali, le intelligenze artificiali si sono evolute considerevolmente negli ultimi anni, permettendone sempre nuove e complesse applicazioni. L’interesse del presente progetto di tesi è quello di creare un modello di studio preliminare di intelligenza artificiale definita come Rete Neurale Convoluzionale, o Convolutional Neural Network (CNN), al fine di essere impiegata nel campo della radioscienza e dell’esplorazione planetaria. In particolare, uno degli interessi principali di applicazione del modello è negli studi di geodesia compiuti tramite determinazione orbitale di satelliti artificiali nel loro moto attorno ai corpi celesti. Le accelerazioni causate dai campi gravitazionali planetari perturbano le orbite dei satelliti artificiali, queste variazioni vengono captate dai ricevitori radio a terra sottoforma di shift Doppler della frequenza del segnale, a partire dalla quale è quindi possibile determinare informazioni dettagliate sul campo di gravità e sulla struttura interna del corpo celeste in esame. Per poter fare ciò, occorre riuscire a determinare l’esatta frequenza del segnale in arrivo, il quale, per via di perdite e disturbi durante il suo tragitto, presenterà sempre una componente di rumore. Il metodo più comune per scindere la componente di informazione da quella di rumore e ricavarne la frequenza effettiva è l’applicazione di trasformate di Fourier a tempo breve, o Short-time Fourier Transform (STFT). Con l’attività sperimentale proposta, ci si è quindi posto l’obiettivo di istruire un CNN alla stima della frequenza di segnali reali sinusoidali rumorosi per avere un modello computazionalmente rapido e affidabile a supporto delle operazioni di pre-processing per missioni di radio-scienza.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La ricerca di un'ottima qualità costruttiva è diventata, per ogni fornitore o produttore legato all’ambito automotive/motoristico, l’aspetto principale nella produzione di un veicolo, soprattutto nel caso specifico di un motore: per garantire, dunque, una buona qualità generale lungo tutta la gamma di produzione, è necessario avere una buona “ripetibilità” di costruzione, ossia, è fondamentale poter assemblare un alto numero di motori che siano il più possibile identici tra loro; considerando tutte le variabili che intervengono lungo la catena di produzione, a partire dalla banale lavorazione meccanica delle parti, fino all’assemblaggio stesso del motore. E' facilmente intuibile, pertanto, come non sia così raro avere delle leggere imperfezioni tra motore e motore che possono poi andare ad impattare sulla vita e sulle performance stesse del mezzo. Questo discorso è ancora più valido se si parla dell’ambito racing, in cui la qualità costruttiva, e, quindi, le performance, giocano un ruolo fondamentale nella progettazione di un motore, nonostante il volume produttivo sia tutto sommato piccolo. L’obiettivo dell'elaborato è quello di creare un metodo di controllo e di confronto della qualità/precisione costruttiva, intesa sia come qualità di produzione delle parti che di assemblaggio del motore finito. A partire da una scansione laser tridimensionale, sotto forma di una nuvola di punti, si è creato un software di elaborazione dati che permettesse di arrivare a calcolare il rapporto di compressione reale del motore in analisi e la mappa di squish tramite la sovrapposizione virtuale delle due scansioni relative ai cilindri/pistoni del blocco motore e la testa del motore stesso.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nellâ analisi del segnale EEG, sono di particolare interesse i potenziali evento correlato (ERP), che descrivono la risposta cerebrale in seguito alla presentazione di stimoli o eventi esterni o interni. Questi potenziali non sono immediatamente visibili sul tracciato EEG grezzo, ed è necessario, oltre ad unâ��accurata fase di preprocessing, mediare (averaging) i segnali di molti trial ripetuti per visualizzare tali risposte nel tempo. Questo studio ha posto l' attenzione sugli ERP visuomotori generati in un compito di center-out reaching, che prevede il raggiungimento di uno tra cinque target, ognuno associato ad un LED, mediante il braccio dominante, con una tempistica scandita dalla presentazione di due stimoli visivi: lo stimolo preparatorio ¸ (che indica il target) e lo stimolo imperativo (che dà il via libera al movimento). I segnali ERP, ottenuti mediante la tecnica dellâ averaging, sono stati analizzati sia a livello di scalpo, considerando i segnali di elettrodo, sia a livello di corteccia, dopo risoluzione del problema inverso, e considerando rappresentazioni prima a livello di singoli dipoli corticali e quindi di intere regioni corticali (ROI). Inoltre, è stata applicato un metodo di deep learning (rete neurale convoluzionale) per decodificare il segnale EEG a livello di singolo trial, ovvero classificare il target coinvolto nello specifico trial. La decodifica è stata applicata sia ai segnali di scalpo sia ai segnali delle ROI corticali. Complessivamente i risultati mostrano ERP ben visibili a livello di scalpo e legati sia a processing visivo che motorio. Gli ERP a livello di ROI corticali sono più rumorosi e sembrano cogliere meno processing motorio rispetto al visivo, presumibilmente anche in conseguenza di alcune scelte metodologiche nella ricostruzione di segnali di ROI. In linea con questo, le performance di decodifica sono migliori a livello di scalpo che di ROI corticali.