1000 resultados para Localizzazione Stima Angolo di Arrivo Elaborazione Audio MATLAB Simulazione


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'analisi del DNA è una delle chiavi per la comprensione della vita e dei suoi funzionamenti. Le tecniche di sequenziamento di nuova generazione NGS permettono una analisi parallela di molte sequenze che hanno reso possibili i sequenziamenti di genomi interi e l'impiego di questi dati in una vasta gamma di studi. In questa tesi verranno descritte le principali tecniche di sequenziamento NGS. Per quanto riguarda il genoma umano si tratteranno alcune tematiche di studio di varianti affrontate dal gruppo 1000Genomes. Nella fase conclusiva si introdurranno definizioni di statistica utili nell'affrontare l'elaborazione dei dati. Inoltre vengono descritti alcuni strumenti che permettono di svolgere questo tipo di analisi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'elaborato si prefigge di presentare una proposta di localizzazione di Apex Legends attraverso l'utilizzo di una metodologia che introduce la locale IT:Gaming, supportata dall'ipotesi di "economia pratico-linguistica". Si tratta di una localizzazione "sovversiva", il cui obiettivo è quello di utilizzare la lingua d'uso che si è stabilita tra gli utenti dei videogiochi online.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il presente elaborato è stato realizzato attraverso il progetto Language Toolkit, sviluppato grazie alla collaborazione fra la Camera di Commercio della Romagna e il Dipartimento Interpretazione e Traduzione del Campus di Forlì (DIT). Mediante questo progetto, il candidato ha potuto portare a termine la localizzazione del sito web aziendale di FAM Batterie s.r.l. dall'italiano allo spagnolo. Lo scopo di questa tesi è quello di presentare e analizzare tale progetto di localizzazione. Per questo motivo, il lavoro è stato strutturato in due sezioni principali. Nella prima parte si discuterà del processo di internazionalizzazione di impresa per identificare il modo in cui un'azienda può espandersi, focalizzando l’attenzione sull'impatto che la globalizzazione e la digitalizzazione possono avere al momento di prendere questa decisione. Nella seconda parte si approfondirà il processo di localizzazione, che sarà discusso per dimostrare la necessità di adattarsi a un locale come passaggio fondamentale per una corretta internazionalizzazione. Infine, verrà analizzato il progetto specifico di localizzazione del sito web www.fambatterie.it, evidenziandone gli elementi più importanti dal punto di vista della traduzione.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Lo scopo principale di questo elaborato di tesi è poter fornire degli strumenti per il progetto concettuale di un dirigibile non-rigido e per valutare la fattibilità del trasporto di idrogeno gassoso. L’innovazione rispetto ai dirigibili utilizzati fino ad ora risiede nell’utilizzo di idrogeno sia come fonte di energia, che come gas di sollevamento; entrambi gli utilizzi verranno approfonditi con speciale attenzione alle problematiche legate alla sicurezza, fattore che ha interrotto l’uso dell’idrogeno come gas di sollevamento dagli anni ‘30. Oltre a ciò, verrà illustrato un breve confronto tra i due gas di sollevamento più utilizzati: elio ed idrogeno. Dopo un accenno storico, l’elaborato propone una metodologia per il dimensionamento di un dirigibile non-rigido, utilizzando strumenti matematici derivanti da modelli presenti in bibliografia e da considerazioni ed esperimenti svolti dai progettisti e dai ricercatori nei campi principali coinvolti nella progettazione dei dirigibili non-rigidi: aerodinamica, aerostatica, propulsione e stima delle masse. La progettazione di un dirigibile non-rigido ad idrogeno sicuro ed affidabile è influenzata dallo sviluppo di materiali che garantiscano, in primis, resistenza e bassa permeabilità: verrà presentato uno schema di un materiale composito laminato che potrebbe garantire requisiti di sicurezza superiori ai materiali utilizzati in passato, dei quali si farà un accenno. Alla fine dell’elaborato sarà presentato un caso di studio dove verranno utilizzati gli strumenti illustrati nella prima parte della tesi, con l’obbiettivo finale di dimensionare un dirigibile non-rigido ad idrogeno. Per questo caso di studio è stato implementato un breve codice MATLAB. A conclusione di questo lavoro di tesi si può dire che la fattibilità di un dirigibile per trasporto idrogeno dipende dallo sviluppo di materiali e tecniche adeguate alla gestione dell’idrogeno che costituisce enormi problematiche a livello di sicurezza.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi sperimentale è stato quello di caratterizzare il controllo motorio di bambini affetti da scoliosi idiopatica e di valutarne le alterazioni rispetto ad una popolazione a sviluppo tipico dello stesso range di età. La caratterizzazione è avvenuta grazie ad un approccio basato su sensori indossabili, che ha consentito di estrarre e quantificare un gruppo di metriche che includono parametri temporali del cammino, la loro variabilità e le metriche non lineari (RQA, MSE, HR). Queste ultime sono state estrapolate mediante l'elaborazione dei segnali provenienti dai sensori applicati su caviglie e tronco dei singoli soggetti. L'implementazione degli script utili è avvenuta mediante il software Matlab. I risultati suggeriscono che la scoliosi idiopatica influisca sul controllo motorio dei pazienti scoliotici e ciò si traduce in un cammino più lento, meno stabile e meno maturo, denotato da un’asimmetria temporale ma anche da un’asimmetria con pendolazione destrutturata.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le recenti restrizioni, che sono state imposte negli ultimi anni, in termini di emissioni hanno dato modo di portare innovazioni tecnologiche nel campo automotive. In particolare, è stata fatta molta strada nel campo dei sistemi di propulsione con lo scopo di ridurre gli inquinanti dovuti ai motori termici tramite l’utilizzo di veicoli ibridi ed elettrici. Oltre a questo, è cresciuta la ricerca anche per tematiche quali: nuove strategie di iniezione, nuovi tipi di combustibile e di motori e analisi più dettagliate dei processi di combustione. Queste innovazioni sono andate di pari passo con uno sviluppo tecnologico riguardante il controllo elettronico presente nel veicolo, il quale permette una maggiore precisione rispetto a quello meccanico. Al fine migliorare l’accuratezza del controllo elettronico è quindi fondamentale l’utilizzo dei segnali provenienti dai sensori, in modo tale da poter individuare e correggere eventuali problemi. Questo progetto ha infatti l’obiettivo di sviluppare strategie per l’analisi e il trattamento di una grande mole di dati, in modo tale da avere un controllo preciso ed automatizzato in modo tale da rendere la procedura meno soggetta ad errori e più veloce. Nello specifico il progetto di tesi è stato incentrato sull’implementazione di nuovi trigger, i quali hanno lo scopo di valutare i segnali in modo tale che non siano presenti problemi per la calibrazione del veicolo. In particolare, sono stati implementati trigger riguardanti il misfire e il controllo dei componenti di un veicolo ibrido, come per esempio il BSG e la batteria a 48V. Il tool fornisce quindi la possibilità di essere sempre aggiornato, ma anche di restituire risultati sempre più precisi potendo aumentare il numero delle funzioni e delle condizioni in essi presenti, con la possibilità, un giorno, di poter realizzare a bordo l’intero processo di calibrazione del motore.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.