1000 resultados para Localizzazione Stima Angolo di Arrivo Elaborazione Audio MATLAB Simulazione
Resumo:
La Brain Computer Interface, con l’acronimo BCI, è un mezzo per la comunicazione tra cervello e macchina. La comunicazione si basa sulla emanazione di segnali elettrici del cervello che vengono rilevati da un dispositivo, il quale invia i segnali digitalizzati ad un elaboratore. I segnali elettrici, chiamati EEG, permettono al cervello di regolare la comunicazione tra le diverse cellule neurali. La BCI intercetta questi segnali e, previa elaborazione, permette di ottenere diversi diagrammi, detti metriche, per poter misurare, sotto svariati aspetti, il funzionamento del cervello. Le ricerche scientifiche sulle EEG hanno rilevato una correlazione tra i segnali elettrici nel cervello di un soggetto con il suo livello di performance e stato emotivo. È quindi possibile comprendere, tramite una serie di parametri, come la mente dei soggetti reagisce a stimoli esterni di svariata tipologia durante lo svolgimento di un’attività. L’elaboratore, che riceve il segnale dalla BCI, è il componente che si occupa di trasformare i segnali elettrici, generati dal cervello e digitalizzati, in risultati facilmente interpretabili dall’utente. Elaborare i segnali EEG in tempo reale porta a dover utilizzare algoritmi creati appositamente per questo scopo e specifici perle metriche preposte. Lo scopo di questa tesi è quello di presentare un progetto sullo sviluppo della fase di smistamento dei dati ricevuti dall’elaboratore. Nel contempo si fornirà una conoscenza scientifica minima per comprendere le scelte fatte. Tale progetto è stato reso possibile dalla collaborazione con l’azienda Vibre, che si dedica allo sviluppo di un sistema comprendente BCI ed elaboratore.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
Negli ultimi due anni, per via della pandemia generata dal virus Covid19, la vita in ogni angolo del nostro pianeta è drasticamente cambiata. Ad oggi, nel mondo, sono oltre duecentoventi milioni le persone che hanno contratto questo virus e sono quasi cinque milioni le persone decedute. In alcuni periodi si è arrivati ad avere anche un milione di nuovi contagiati al giorno e mediamente, negli ultimi sei mesi, questo dato è stato di più di mezzo milione al giorno. Gli ospedali, soprattutto nei paesi meno sviluppati, hanno subito un grande stress e molte volte hanno avuto una carenza di risorse per fronteggiare questa grave pandemia. Per questo motivo ogni ricerca in questo campo diventa estremamente importante, soprattutto quelle che, con l'ausilio dell'intelligenza artificiale, riescono a dare supporto ai medici. Queste tecnologie una volta sviluppate e approvate possono essere diffuse a costi molto bassi e accessibili a tutti. In questo elaborato sono stati sperimentati e valutati due diversi approcci alla diagnosi del Covid-19 a partire dalle radiografie toraciche dei pazienti: il primo metodo si basa sul transfer learning di una rete convoluzionale inizialmente pensata per la classificazione di immagini. Il secondo approccio utilizza i Vision Transformer (ViT), un'architettura ampiamente diffusa nel campo del Natural Language Processing adattata ai task di Visione Artificiale. La prima soluzione ha ottenuto un’accuratezza di 0.85 mentre la seconda di 0.92, questi risultati, soprattutto il secondo, sono molto incoraggianti soprattutto vista la minima quantità di dati di training necessaria.
Resumo:
La tesi si suddivide in due parti. Nella prima parte vengono spiegati trasmettitore e ricevitore basati su standard LoRa, con particolare attenzione alle fasi di modulazione/ demodulazione, sincronismo e correzione della frequenza portante. Nella seconda parte si cerca di implementare il sistema discusso tramite due dispositivi programmati attraverso Matlab.
Resumo:
Vista la crescente necessità di svolgere progetti d'innovazione guidati dalle nuove tecnologie, la presente ricerca risponde all'esigenza di trovare una metodologia efficace per poterli affrontare proficuamente. In un primo momento, l'elaborato propone una metodologia che permette di elaborare una classificazione dei progetti d'innovazione technology-driven in classi ed un pacchetto di tools funzionali al riconoscimento dell'appartenenza alle stesse. In un secondo momento, giunti a comprensione del fatto che ad ognuna delle classi corrisponde uno specifico fine raggiungibile con una specifica metodologia, lo studio descrive la metodologia seguita per raggiungere una efficace e ripetibile elaborazione di principi progettuali, buone pratiche e strumenti che permettano ad una Organizzazione di appropriarsi del valore di una tecnologia General Purpose (GPT) attraverso l'ideazione di soluzioni innovativa. La progettazione è figlia di un approccio di Design Thinking (DT), sia poichè esso è stato usato nello svolgimento stesso della ricerca, sia perchè la metodologia DT è alla base della modellazione del processo proposto per la classe.
Resumo:
L’elaborazione di quantità di dati sempre crescente ed in tempi ragionevoli è una delle principali sfide tecnologiche del momento. La difficoltà non risiede esclusivamente nel disporre di motori di elaborazione efficienti e in grado di eseguire la computazione coordinata su un’enorme mole di dati, ma anche nel fornire agli sviluppatori di tali applicazioni strumenti di sviluppo che risultino intuitivi nell’utilizzo e facili nella messa in opera, con lo scopo di ridurre il tempo necessario a realizzare concretamente un’idea di applicazione e abbassare le barriere all’ingresso degli strumenti software disponibili. Questo lavoro di tesi prende in esame il progetto RAM3S, il cui intento è quello di semplificare la realizzazione di applicazioni di elaborazione dati basate su piattaforme di Stream Processing quali Spark, Storm, Flinke e Samza, e si occupa di esaudire il suo scopo originale fornendo un framework astratto ed estensibile per la definizione di applicazioni di stream processing, capaci di eseguire indistintamente sulle piattaforme disponibili sul mercato.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
L’aumento dei flussi migratori in diversi paesi europei e la diffusione della globalizzazione su scala mondiale hanno determinato lo sviluppo di società multilingue e multiculturali tra cui quella italiana, che negli ultimi decenni si è rapidamente trasformata in una società “super-diversa”. Questi cambiamenti sociali hanno determinato una svolta anche nella ricerca in ambito sociolinguistico, che descrive e analizza la flessibilità delle pratiche comunicative determinate dalla mobilità e che ha adottato il termine translanguaging per riferirsi all’uso flessibile e dinamico dell’intero repertorio linguistico di un parlante, che include sia elementi verbali che non verbali. Questo progetto di ricerca si propone di esplorare le pratiche di translanguaging della comunità migrante di Cesena (Italia) e di indagare le percezioni dei parlanti in relazione alle loro pratiche e identità multilingue. Attraverso l’analisi qualitativa di interazioni spontanee tra i parlanti ed interviste semi-strutturate, i risultati dell’analisi da un lato evidenziano la flessibilità delle pratiche comunicative dei parlanti multilingue e la spontaneità con cui queste avvengono nella loro quotidianità, dall’altro mettono in luce la connotazione negativa che i parlanti attribuiscono alle proprie pratiche di translanguaging, rivelando l’influenza dell’ideologia del monolinguismo.
Resumo:
Nella sindrome metabolica l’insulino-resistenza e l’obesità rappresentano i fattori chiave nello sviluppo di tale patologia, ma il principale player risulta un’infiammazione cronica di basso grado (Chronic Low Grade Inflammation) a carico del tessuto adiposo. Lo scopo di questo progetto di ricerca è quindi stato quello di testare citochine a basso dosaggio come possibile trattamento dell’infiammazione cronica. Le citochine utilizzate (GUNA®-Interleukin 4 (IL-4), GUNA®-Interleukin 10 (IL-10), GUNA®-Melatonin, GUNA®-Melatonin+GUNA®-IL-4.) sono state fornite dall’azienda GUNA S.p.a. Poiché l’infiammazione cronica a basso grado inizia in seguito ad un aumento eccessivo del tessuto adiposo, inizialmente si è valutato l’effetto su una linea di preadipociti murini (3T3-L1). Questa prima parte dello studio ha messo in evidenza come le citochine a basso dosaggio non modificano la vitalità cellulare, anche se agiscono sull’espressione e la localizzazione di vimentina e E-caderina. Inoltre IL-4 e IL-10 sembrano avere una parziale attività inibitoria, non significativa, sull’adipogenesi ad eccezione dell’espressione dell’adiponectina che appare significativamente aumentata. In ultimo i trattamenti con IL-4 e IL-10 hanno mostrato una diminuzione del contenuto di ROS e una ridotta attività antiinfiammatoria dovuta alla diminuzione di IL-6 secreto. Un’altra popolazione cellulare principale nel tessuto adiposo è rappresentata dalle ASC (Adipose Stem Cell). Per tale motivo si è proseguito valutando l’effetto che le citochine low-dose su questo citotipo, evidenziando che il trattamento con le citochine non risulta essere tossico, anche se sembrerebbe rallentare la crescita cellulare, e determina un’inibizione del processo adipogenico. Inoltre il trattamento con IL-10 sembra stimolare le ASC a produrre fattori che inducono una maggiore vasculogenesi e le induce a produrre fattori chemiotattici che determinano una maggiore capacità di rigenerazione tissutale da parte di MSC da derma. Infine, il trattamento con IL-4 e IL-10 stimola probabilmente una minore produzione di citochine pro-infiammatorie che inducono in maniera significativa una minore mobilità di cellule MSC.
Resumo:
La buona riuscita delle analisi archeozoologiche e antropologiche è molto condizionata dallo stato di conservazione in cui si trova il reperto da analizzare. Soprattutto nei siti paleolitici, l’alto tasso di frammentazione dei resti può ostacolare l’ottenimento delle informazioni, compromettendo la comprensione del contesto preso in esame. Il presente studio ha avuto come scopo quello di sperimentare e proporre un protocollo metodologico che supportasse l’approccio morfologico tradizionale combinandolo con quello proteomico. Diverse sono le problematiche affrontate: la penuria di informazioni tassonomiche ricavabili da contesti paleolitici con ossa particolarmente frammentate, l’impossibilità di ottenere dati sulla stima del sesso in individui non adulti e la limitata attendibilità nell’ottenimento della determinazione del sesso negli individui privi dei distretti scheletrici sessualmente dimorfici. Nel primo caso, lo studio morfologico di resti provenienti da contesti di transizione tra Paleolitico medio e superiore è stato combinato alla ZooMS (Zooarchaeology by mass spectrometry) una tecnica di peptide mass fingerprinting che permette di identificare la specie di un frammento osseo tramite l’analisi della proteina più abbondante all’interno delle ossa, il collagene I. L’analisi dell’amelogenina, una proteina contenuta all’interno dello smalto dentale, è stata proposta come metodo alternativo per la stima del sesso, applicata a diversi casi studio per avvalorare la sua affidabilità. Il metodo qui proposto ha permesso di rendere informativi dei frammenti ossei e dentari indeterminati che normalmente non avrebbero contribuito, se non marginalmente, alle analisi archeozoologiche e antropologiche.
Resumo:
Sulla spinta dell’approvazione della legge italiana 47/2017 “Disposizioni in materia di misure di protezione dei minori stranieri non accompagnati”, questo lavoro è teso ad affrontare le complesse aspettative genitoriali e parentali sviluppatesi intorno al processo di categorizzazione MSNA di cui questa legge è diventata approdo giuridico. Le controverse aspettative di accompagnamento legatesi alla denominazione di “non accompagnato”, prese come aspetto scontato e assiomatico in molta parte della letteratura scientifica che utilizza l’acronimo, sono state qui intese come un nodo ambiguo e questionabile. Attraverso una ricerca e una metodologia antropologico-etnografica queste rappresentazioni contradditorie sono esplorate a partire da un “crocevia di campi” da queste interessati in un territorio amministrativo dell’Italia Settentrionale variamente frequentato tra 2018 e 2021. Insieme ad ambienti, metodi e sfide della ricerca locale, una prima sezione situa storicamente e contestualmente la categoria MSNA come fenomeno in sé piuttosto che come efficace espressione descrittiva di soggetti. Le due sezioni successive, dedicate rispettivamente alla neo-realtà di tutela volontaria e a quella di una comunità socio-educativa/di tipo familiare rivolta a persone di minore età, interrogano invece questi ambienti come spazi e tempi di elaborazione prima e negoziazione poi di rappresentazioni e pratiche relazionali e parentali molteplici.
Resumo:
Il processo di intensificazione dell’allevamento suinicolo ha comportato conseguenze importanti dal punto di vista sanitario. Nei moderni sistemi di produzione la salute è compromessa a causa di malattie multifattoriali e l'identificazione degli agenti casuali di malattia non può basarsi esclusivamente sul risultato di un unico test diagnostico. La maggior parte dei patogeni è ubiquitaria, quindi l'identificazione di un agente infettivo suggerisce solo una possibile diagnosi. La patologia gioca un ruolo chiave nel determinare la causalità nella diagnosi delle malattie infettive. L'istopatologia consente di correlare la presenza dell'agente infettivo con le lesioni microscopiche caratteristiche: in base alla disponibilità di anticorpi o sonde per rilevare rispettivamente la presenza di antigeni o del genoma di virus o batteri nelle sezioni istologiche, l'istopatologia è utile per determinare il nesso causale con la malattia. L'introduzione di questa tesi è incentrata sulla discussione del ruolo della patologia nelle malattie infettive del suino, seguita dalla descrizione del corretto campionamento per l'esame istopatologico nella diagnosi delle malattie respiratorie, enteriche e riproduttive. La sezione sperimentale riporta i risultati delle indagini diagnostiche in patologia suina condotte per definire il ruolo di PCV2 e PRRSV nel complesso delle malattie respiratorie del suino (PRDC)(capitolo 2) e per definire un percorso diagnostico per l'enteropatia proliferativa suina causata da Lawsonia intracellularis ai fini dell'implementazione dell'accuratezza diagnostica (capitolo 3). Il capitolo 4 descrive l'uso dell'istopatologia come componente metodologica essenziale per valutare l'efficacia protettiva dei vaccini negli studi di challenge vaccinazione-infezione. Il capitolo descrive i risultati ottenuti in due successive sperimentazioni per valutare l'efficacia di due vaccini sperimentali per PCV2, il primo formulato con ceppo PCV2b inattivato somministrato a differenti dosi di antigene; il secondo formulato con antigene "Cap" ricombinante non assemblato in particelle simil-virali (VLP).
Resumo:
Neural representations (NR) have emerged in the last few years as a powerful tool to represent signals from several domains, such as images, 3D shapes, or audio. Indeed, deep neural networks have been shown capable of approximating continuous functions that describe a given signal with theoretical infinite resolution. This finding allows obtaining representations whose memory footprint is fixed and decoupled from the resolution at which the underlying signal can be sampled, something that is not possible with traditional discrete representations, e.g., grids of pixels for images or voxels for 3D shapes. During the last two years, many techniques have been proposed to improve the capability of NR to approximate high-frequency details and to make the optimization procedures required to obtain NR less demanding both in terms of time and data requirements, motivating many researchers to deploy NR as the main form of data representation for complex pipelines. Following this line of research, we first show that NR can approximate precisely Unsigned Distance Functions, providing an effective way to represent garments that feature open 3D surfaces and unknown topology. Then, we present a pipeline to obtain in a few minutes a compact Neural Twin® for a given object, by exploiting the recent advances in modeling neural radiance fields. Furthermore, we move a step in the direction of adopting NR as a standalone representation, by considering the possibility of performing downstream tasks by processing directly the NR weights. We first show that deep neural networks can be compressed into compact latent codes. Then, we show how this technique can be exploited to perform deep learning on implicit neural representations (INR) of 3D shapes, by only looking at the weights of the networks.
Resumo:
La tesi che qui si presenta muove dall’osservazione della collezione dei Frammenti conservata presso l’Archivio di Stato di Modena, fornendo un'analisi dettagliata della sua storia archivistica fin dalle origini e dei percorsi di ricerca esplorati fino ad oggi. Un censimento condotto durante la ricerca ha inoltre rivelato circa 50 nuovi frammenti latini riutilizzati nei registri dell'Archivio Estense, che permangono in situ. Un notevole numero di frammenti dell'ASMo proviene dalle legature dei volumi del complesso archivistico estense, il quale, coprendo il periodo 1317-1797, costituisce il più ampio fondo dell'Archivio di Stato di Modena. Diversamente dalle ricerche precedenti dedicate a frammenti specifici, questa tesi adotta uno sguardo olistico, esplorando le testimonianze frammentarie legate a un medesimo contesto di riutilizzo. Il nucleo centrale si concentra sulla metodologia adoperata per ricostruire le 'provenienze archeologiche', con un focus sul riutilizzo nei registri dell'Archivio Estense. La tesi include frammenti documentari, spesso trascurati, offrendo nuove prospettive sullo studio del fenomeno del riuso, soprattutto nei domini estensi. Questo approccio sottolinea inoltre l’interdisciplinarietà intrinseca agli studi dedicati ai frammenti di manoscritti, già considerati prevalentemente secondo un’ottica paleografica e codicologica e qui sottoposti anche a un’indagine dal punto di vista dell’archivistica e della diplomatica. La tesi comprende un catalogo parziale dei frammenti pergamenacei latini provenienti dall'Archivio Estense, costruito adottando il modello di scheda descrittiva del database digitale Fragmentarium. L'analisi comprende identificazione, datazione, localizzazione dei frammenti, cui si aggiungono aspetti materiali e storico-contestuali del riuso, e il catalogo riferisce, in alcuni casi, la ricostruzione di membra disiecta. Parallelamente, si è avviato un progetto pilota per la digitalizzazione dei frammenti dell'ASMo in collaborazione con il Centro Studi ARCE dell'Università di Bologna. La tesi include una relazione sulle attività svolte, con riflessioni sulle metodologie adottate durante il progetto di digitalizzazione.
Resumo:
Nel nuovo secolo l’uomo sta cercando di affrontare le problematiche del cambiamento climatico, che purtroppo sta già provocando fenomeni di frequenza ed intensità mai visti. Fra i diversi metodi per provare a mitigare le emissioni di gas serra vi è quello di sfruttare il settore delle Informations and Communications Technologies (ICT). Complessivamente si stima che le ICT consumino l’8-10% di elettricità in Europa e che siano responsabili del 4% delle emissioni di carbonio del continente. Questo lavoro analizza la letteratura scientifica che si è occupata degli studi relativi ai consumi ed alle emissioni legate alle ICT. L’analisi dell’impatto ambientale viene svolta tramite il metodo Life Cycle Assessment (LCA). Nella prima parte di questa tesi si analizzano le impronte di carbonio di diversi prodotti o servizi degni di nota fino ad arrivare in generale a tutto il settore delle ICT. Nella seconda, si valutano gli impatti ambientali di sistemi implementati con le ICT comparati con altri considerati tradizionali. In questo studio, vengono analizzati i benefici e le criticità del metodo di valutazione LCA usato per studiare le ICT. Gli studi con questa tecnica sono basati sempre e solo su un modello matematico, per cui dipendono dalle ipotesi dello studio e sono associati ad una sostanziale incertezza che va considerata nell’analisi finale. Per questo motivo, applicando questo metodo al singolo prodotto, i risultati possono essere utili per fornire una base di dati per futuri studi, considerando, tuttavia, che non si può definire in maniera rigida l’impatto per ogni prodotto. Piuttosto, l’LCA è risultata più efficace per fare una comparazione tra scenari ICT e non ICT per valutare come si possa usare la tecnologia per mitigare l’impatto ambientale. Le ICT sono il presente ed il futuro della società ed è proprio per questo che è necessario monitorarle e svilupparle consapevolmente, perché per quanto l’impatto ambientale di esse possa sembrare basso, non è mai nullo.