222 resultados para "computazione quantistica", "circuiti quantistici", "misurazione"
Resumo:
I sensori indossabili rappresentano una frontiera della ricerca scientifica e, allo stesso tempo, a livello commerciale sono un nuovo mercato emergente. La possibilità di studiare diversi parametri fisiologici con dispositivi versatili e di dimensioni ridotte è importante per raggiungere una comprensione più profonda dei diversi fenomeni che avvengono nel nostro corpo. In maniera simile, la composizione dell’essudato di una ferita è finemente legata all’evoluzione del processo di guarigione, che comporta diversi meccanismi di rigenerazione del tessuto connettivo e dell’epitelio. Grazie ai dispositivi indossabili, si apre la possibilità di monitorare i componenti chiave di questi processi. I wearable devices costituiscono quindi sia uno strumento diagnostico, che uno strumento clinico per l’identificazione e la valutazione di strategie terapeutiche più efficienti. Il mio lavoro di tirocinio si è incentrato sulla fabbricazione, caratterizzazione e sperimentazione delle performance di transistor elettrochimici a base organica (OECT) tessili per la misurazione dei livelli di pH ed acido urico. L’obbiettivo del gruppo di ricerca è quello di realizzare un cerotto intelligente che abbia due diversi elementi sensibili, uno per l’acido urico e l’altro per la concentrazione idrogenionica. Per il raggiungimento di tale scopo, si è sfruttato uno dei semiconduttori organici più utilizzati e studiati nell’ultimo periodo, il PEDOT, ovvero il poli(3,4-etilen-diossi-tiofene), che risulta anche uno dei materiali principalmente impiegati nella ricerca sui sensori tessili.
Resumo:
La lesione del midollo spinale (LM) è una complessa condizione fisica che racchiude in sé sfide di carattere biomedico nonché etico-giuridico. La complessità della LM nonché la diversificazione delle esperienze dei singoli soggetti affetti da LM rendono questo un topic di grande interesse per la ricerca biomedicale, in relazione a nuovi metodi di cura e di riabilitazione dei soggetti. In particolare, la sinergia tra i saperi medico, informatici e ingegneristici ha permesso di sviluppare nuove tecnologie di comunicazione e di controllo neurologico e motorio che, capaci di sopperire a deficit cerebrali e/o motori causati da LM, consentono ai pazienti di avere una qualità di vita sensibilmente migliore, anche in termini di autonomia. Tra queste nuove tecnologie assistive primeggiano per efficacia e frequenza di utilizzo le Brain Computer Interfaces (BCI), strumenti ingegneristici che, attraverso la misurazione e l’analisi di segnali provenienti dall’attività cerebrale, traducono il segnale registrato in specifici comandi, rappresentando per l’utente con LM un canale di comunicazione con l’ambiente esterno, alternativo alle normali vie neurali. In questo elaborato l’analisi di due sperimentazioni, una su scimmia l’altra su uomo, entrambi affetti da LM, con differenti sistemi di monitoraggio dell’attività neurale, ha permesso di evidenziare un limite della ricerca sul topic: nonostante i promettenti risultati ottenuti su primati non umani, il carattere invasivo del sistema BCI–EES rende difficile traslare la sperimentazione su uomo. La sperimentazione su LM pone delle sfide anche dal punto di vista etico: sebbene siano auspicati lo sviluppo e l’applicazione di metodi alternativi alla sperimentazione animale, l’impiego di primati non umani appare ancora una scelta obbligata nel campo della ricerca di soluzioni terapeutiche finalizzate al ripristino della funzione locomotoria, per via della stretta affinità in termini di conformazione fisica, genetica e anatomica.
Resumo:
Normalmente la meccanica quantistica non relativistica è ricavata a partire dal fatto che una particella al tempo t non può essere descritta da una posizione $x$ definita, ma piuttosto è descritta da una funzione, chiamata funzione d'onda, per cui vale l'equazione differenziale di Schr\"odinger, e il cui modulo quadro in $x$ viene interpretato come la probabilità di rilevare la particella in tale posizione. Quindi grazie all'equazione di Schr\"odinger si studia la dinamica della funzione d'onda, la sua evoluzione temporale. Seguendo quest'approccio bisogna quindi abbandonare il concetto classico di traiettoria di una particella, piuttosto quello che si studia è la "traiettoria" della funzione d'onda nei vari casi di campi di forze che agiscono sulla particella. In questa tesi si è invece scelto di studiare un approccio diverso, ma anch'esso efficace nel descrivere i fenomeni della meccanica quantistica non relativistica, formulato per la prima volta negli anni '50 del secolo scorso dal dott. Richard P. Feynman. Tale approccio consiste nel considerare una particella rilevata in posizione $x_a$ nell'istante $t_a$, e studiarne la probabilità che questa ha, nelle varie configurazioni dei campi di forze in azione, di giungere alla posizione $x_b$ ad un successivo istante $t_b$. Per farlo si associa ad ogni percorso che congiunge questi due punti spazio-temporali $a$ e $b$ una quantità chiamata ampiezza di probabilità del percorso, e si sviluppa una tecnica che permette di sommare le ampiezze relative a tutti gli infiniti cammini possibili che portano da $a$ a $b$, ovvero si integra su tutte le traiettorie $x(t)$, questo tipo di integrale viene chiamato integrale di cammino o più comunemente path integral. Il modulo quadro di tale quantità darà la probabilità che la particella rilevata in $a$ verrà poi rilevata in $b$.
Resumo:
La città di Bologna è sicuramente famosa per le sue due torri, ma anche per la fitta rete idraulica ormai nascosta sotto le strade e sotto gli edifici. I primi canali di Bologna furono realizzati tra il XII e il XVI secolo a seguito della costruzione delle due opere fondamentali: le chiuse di San Ruffillo e di Casalecchio. Queste due opere di presa servivano e, servono ancora oggi, ad alimentare i canali del Navile, del Reno, del Savena, del Cavaticcio e delle Moline. Oltre a questi canali alimentati dalle acque dei fiumi, sotto la città di Bologna scorrono torrenti che drenano le acque prevalentemente meteoriche della zona pedecollinare della città, come ad esempio il torrente Ravone. Il presente lavoro di tesi ha come caso di studio proprio quest’ultimo. Il Ravone, in origine, scorreva a cielo aperto attraversando la città, ma per permettere l’urbanizzazione fuori dalle mura, è stato tombato in diversi tratti e in diverse epoche. La scarsità di informazioni riguardo la sua esatta posizione e la mancanza di elaborati grafici in grado di descriverne la sua geometria, ha spinto le autorità a richiedere un accurato rilievo al LARIG dell’UniBo. Le operazioni di rilievo si sono svolte con l’uso di tecniche geomatiche per la modellazione tridimensionale come l’aerofotogrammetria e l’acquisizione con laser scanner terrestre. Al fine di georeferenziare il dato acquisito, si è ricorso a tecniche di rilievo topografico come il posizionamento GNSS e la misurazione di angoli e distanze con stazione totale. I primi capitoli di questo elaborato sono dedicati alla descrizione dei fondamenti teorici della geodesia e delle tecniche di rilievo utilizzate per la restituzione del modello tridimensionale. Gli ultimi capitoli, invece, sono dedicati alla descrizione delle fasi di rilievo e all’analisi dei dati, dedicando particolare attenzione alla georeferenziazione delle nuvole di punti acquisite in ambienti confinati, come i tratti tombati del torrente Ravone.
Resumo:
In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.
Resumo:
In questo studio è affrontato il progetto di un energy harvester destinato ad alimentare un nodo sensore impiegato per scopi di monitoraggio strutturale. La applicazione in questione è specifica per l'ambito ferroviario, dovendo il sistema essere collocato sul tirante di poligonazione della linea area di contatto. Sono state indagate modalità di conversione dell'energia dalle vibrazioni generate dal contatto fra catenaria e pantografo, studiandone la possibile integrazione con la conversione dell'energia solare tramite celle fotovoltaiche. Sono stati quindi progettati e realizzati due prototipi di energy harvester a vibrazioni, basati su tecnica di conversione rispettivamente elettromagnetica e piezoelettrica. La fase di progettazione è stata affinata tramite simulazioni MATLAB e COMSOL, utilizzando il metodo degli elementi finiti, ed è stato curato il progetto dei circuiti di regolazione della tensione generata dai dispositivi. Sulla base del consumo del nodo sensore misurato ne è stata simulata la alimentazione da parte di un energy harvester solare al variare del periodo dell'anno. I dispostivi realizzati sono stati valutati attraverso varie misurazioni e sono state indagate tra gli sviluppi futuri possibili approcci per il miglioramento della tecnologia realizzata.
Resumo:
Una delle applicazioni maggiormente richieste in ambito industriale è quella della presa e movimentazioni di oggetti. Questa tipologia di operazione trova diverse soluzioni nel mondo della robotica e automazione. Nella loro forma più comune un dispositivo di presa si presenta come una pinza motorizzata attraverso la quale è possibile eseguire l’afferraggio di oggetti. Tra essi si possono distinguere i Soft Gripper, ovvero quella classe di pinze che ricorrono a componenti flessibili e parti in materiali soffici che nell’azione di presa si conformano all’oggetto per deformazione dei componenti. Un esempio di questa tipologia di strumenti di presa è il Fin Ray. Tuttavia, questa tipologia di soft-gripper possiede delle limitazioni, come il carico massimo movimentabile determinato sostanzialmente dalla rigidezza della struttura. In questo contesto, al fine di superare tale limite, viene proposto di implementare sulla superficie di contatto un dispositivo a film-sottile elettroadesivo, per generare forze di taglio superficiali per principio elettrostatico, che aumentino la capacità di sollevamento del soft-gripper senza intaccare la sua caratteristica principale di conformità. Lo scopo della tesi è proprio un’analisi numerica e sperimentale di un Fin Ray integrato con un dispositivo elettroadesivo, con lo scopo di analizzare la forza scambiata con un oggetto. Il gripper progettato in questo lavoro, è così prima simulato, e poi realizzato in laboratorio per eseguire la caratterizzazione sperimentale. Gli esperimenti sono stati condotti su un banco prova per la misurazione della forza di contatto scambiata durante l’afferraggio. Per ottenere una validazione del modello sviluppato, sono stati realizzati dei gripper con due differenti materiali altamente deformabili, e con una combinazione di parametri fondamentali diversi, come la posizione e la dimensione dell’oggetto in presa, ottenendo infine una caratterizzazione completa del gripper sviluppato.
Resumo:
Questo studio si pone come obiettivo lo sviluppo e la sperimentazione di un metodo per eseguire un benchmarking di due diversi sistemi di Additive Manufacturing mediante macchina di misura a coordinate Renishaw Cyclone. In particolare sono valutate le prestazioni in termini di precisione di forma di un sistema di tipo FDM e di uno di tipo PolyJet al fine di ottenere dati indicanti le potenzialità di queste due tecnologie per parti di piccole dimensioni. Dopo un’introduzione generale sull’Additive Manufacturing, si scende nei dettagli delle due tecniche oggetto dello studio e si discute di come strutturare il piano sperimentale in funzione degli obiettivi dell’attività e dei metodi scelti per l’acquisizione e la valutazione dei dati. Si parte, infatti, con la fabbricazione di un modello di benchmark, le cui geometrie vengono poi rilevate tramite una macchina di misura a coordinate per ottenere i valori di precisione di forma, che sono presentati come tolleranze geometriche del sistema GD&T. Successivamente, si descrivono tutte le fasi dell’attività sperimentale, iniziando con l’ideazione del modello di benchmark e proseguendo con i processi di fabbricazione e misurazione, per poi arrivare alla deduzione dei valori di precisione di forma tramite un post-processing dei dati. Infine, si presentano i valori di tolleranza ottenuti e si traggono le conclusioni riguardo la riuscita dell’attività sperimentale e il confronto tra le due tecnologie di Additive Manufacturing.
Resumo:
La Degenerazione è un determinato stato della materia causato da particolari condizioni di temperatura e densità. E' un fenomeno che è necessario valutare quando la fisica che descrive un sistema non può fare a meno di considerare la trattazione quantistica per caratterizzare le sue proprietà. Proprio per questo motivo è necessario abbandonare l'approccio deterministico della Meccanica Classica e abbracciare quello probabilistico della Meccanica Quantistica, che vede le particelle dividersi in due categorie: Fermioni e Bosoni. Per entrambe le specie, la materia, mediante specifiche condizioni, può dunque ritrovarsi ad essere in uno stato degenere, presentando diversi fenomeni a seconda della tipologia di particelle che compongono un gas in analisi. Tale fisica della materia degenere, in particolare dei Fermioni degeneri, ha importanti applicazioni nel campo dell'astrofisica: il regime che domina il comportamento del gas interno ad una struttura stellare determina completamente lo sviluppo della sua evoluzione, per via dei differenti contributi di pressione che ogni stato apporta al sostenimento di questi corpi celesti. La degenerazione della materia riveste un ruolo fondamentale anche negli stadi evolutivi finali delle stelle: é il caso delle Nane Bianche e delle Stelle di Neutroni, nelle quali la sola pressione di degenerazione fermionica, entro certi limiti, contrasta la pressione gravitazionale che guida la loro contrazione, mantenendo così l'Equilibrio Idrostatico di queste strutture stellari.
Resumo:
Il percorso ha inizio con una prima parte prettamente teorica che ha come obiettivo quello di far apprendere i concetti base, sia dei componenti che dei circuiti ovvero degli elementi cardine di un impianto. La parte finale di questa prima fase è stata quella di analizzare ed interpretare schemi idraulici inerenti banchi di collaudo già esistenti. La parte pratica vera e propria è iniziata, in base a quanto appreso, dall’analisi critica dello schema idraulico di un banco di collaudo già esistente da reingegnerizzare. In particolare, l’obiettivo principale era quello di aumentare la produttività riducendo al contempo quelli che sono i rischi sulla salute e sicurezza per l’operatore. Come vedremo per realizzare una modifica strutturale di tale banco, è stato necessario intervenire a priori sullo schema idraulico ed in base a quello si è potuto scegliere la soluzione costruttiva migliore per ottenere i risultati cercati. La successiva fase di ingegnerizzazione del prodotto è prettamente tecnica poiché ha visto la modifica e realizzazione ex novo di gruppi (morsa) e particolari meccanici; pertanto, non solo è stata richiesta una buona conoscenza teorica ma anche l’utilizzo di strumenti informatici a cui fa affidamento l’azienda.
Resumo:
Il seguente elaborato di tesi espone ed analizza le nuove strategie introdotte nell’hub logistico dell’azienda SIT S.p.A., multinazionale che produce e commercializza dispositivi intelligenti per il controllo meccanico ed elettronico del gas e per la misurazione dei consumi. Tali strategie hanno l’obiettivo di migliorare l’efficienza del magazzino, intervenendo su due attività, la pallettizzazione e lo stoccaggio. Inizialmente è stato creato uno strumento per misurare correttamente i due KPI principali utilizzati nel magazzino per valutarne il livello di servizio: il tempo medio che intercorre tra la ricezione di un pallet ed il suo stoccaggio e il tempo medio per effettuare un’operazione di picking. Successivamente si è intervenuti sulla pallettizzazione, con una nuova procedura guidata dalle etichette, che riduce le possibilità di errore dell’operatore, e sullo stoccaggio, per il quale si è passati da una strategia random ad una per classi, basata sul livello di movimentazione dei materiali, aggiungendo anche un vincolo per l’altezza di materiali e bin. L’aggiornamento dei due processi è volto al miglioramento dell’efficienza del magazzino, abbassando anche i tempi dei KPI. Per entrambe le strategie si è rilevata, tramite test, una riduzione del tempo necessario per il completamento, oltre ad un generale aumento dell’efficienza dell’hub logistico.
Resumo:
L'obiettivo del presente lavoro di tesi è stato quello di valutare l'evoluzione del colore e dell'aspetto visivo di fettine di fesa di tacchino confezionate in atmosfera ordinaria con il film protettivo (stretching) nel corso della conservazione refrigerata, protratta fino a 13 giorni. A tale scopo, è stato considerato un totale di 61 lotti di tacchini (femmine, alimentazione vegetale) allevati nell’anno 2021 e 2022 e macellati in condizioni commerciali. Da ciascun lotto sono state preparate in totale 30 confezioni di fesa a fettine che sono state confezionate in atmosfera ordinaria e conservate in regime di refrigerazione (0-1°C) illuminate con luce a neon. I campioni sono stati destinati a misurazione del colore e valutazione dell’aspetto visivo (brillantezza e uniformità) trascorsi tre intervalli di tempo (T1:0-5; T2:6-9; T3:10-13) considerando sia la zona a diretto contatto con il film protettivo che quella non a contatto. I risultati ottenuti sono stati elaborati mediante ANOVA ad un criterio di classificazione per verificare l’effetto esplicato dalla conservazione refrigerata sul colore delle carni. Inoltre, nell’ambito del medesimo tempo di conservazione, lo stesso modello statistico è stato applicato per verificare l’effetto determinato dal contatto o meno con il film protettivo sul colore mentre i risultati relativi ai parametri “brillantezza” e “uniformità” sono stati elaborati mediante Chi-quadro (p<0,05). Dai risultati ottenuti si evince come la conservazione refrigerata abbia determinato un aumento della luminosità e dell’indice di giallo associato ad una riduzione dell’indice di rosso. Anche per quanto concerne i parametri di “uniformità” e “brillantezza”, la conservazione refrigerata ha determinato un peggioramento dell’aspetto visivo dei campioni. In conclusione, i risultati ottenuti potrebbero essere utilizzati per definire strumentalmente limiti di accettabilità per le fettine di tacchino confezionate.