222 resultados para "computazione quantistica", "circuiti quantistici", "misurazione"
Resumo:
Uno dei principali passi della catena di produzione di circuiti integrati è quello di testare e valutare una serie di chip campione per verificare che essi rientrino nei valori e nelle specifiche scelte. Si tratta di un passaggio molto importante che determina le caratteristiche del prodotto nella realtà, mostrando le proprie capacità o i propri limiti, permettendo così di valutare un’eventuale produzione su larga scala. Ci permette inoltre di stimare quali dei chip rispetto agli altri presi in esame è migliore in alcuni aspetti, oppure quale risulta più lontano dalle specifiche volute. Il lavoro alle spalle di questa tesi è proprio questo: si è cercato di caratterizzare un microchip chiamato Carbonio, nato nei laboratori della II Facoltà di Ingegneria di Cesena, creando un banco di misura automatico, tramite l’ausilio del software Labview e di una scheda hardware realizzata ad hoc, che desse la possibilità di eseguire alcuni test consecutivi su ogni singolo circuito integrato in modo da caratterizzarlo estrapolando tutte le informazioni cercate e verificandone il funzionamento. Tutti i valori estratti sono stati poi sottoposti a una breve analisi statistica per stabilire per esempio quale circuito integrato fosse meno immune ai disturbi dovuti al rumore elettrico oppure per eseguire un’indagine al fine di vedere come i valori dei parametri scelti si disponessero rispetto ai lori rispettivi valori medi.
Resumo:
La coltivazione massiva di microalghe ha lo scopo di produrre biomassa su larga scala per ottenere prodotti e processi utili, grazie al loro elevato contenuto di carboidrati, proteine, lipidi, pigmenti e altri composti, che sono utilizzati a livello industriale in campo alimentare, medico e nutraceutico. L’elevata potenzialità di utilizzo di questa biomassa ha assunto un ruolo primario nell’ambito della produzione di energia ecocompatibile o di processi utili per l’ambiente. Dalle microalghe è possibile estrarre lipidi da utilizzare come biocarburanti e possono trovare applicazione anche nel trattamento di reflui domestici ed industriali, nella produzione di composti bioattivi atti alla produzione di biopolimeri, fertilizzanti e ammendanti. Le problematiche inerenti ad una produzione industriale, riguardano la riduzione dell’impatto energetico, ambientale ed i costi di produzione con l’obbiettivo di massimizzare la resa della coltura; questo potrebbe essere realizzato attraverso l’utilizzo di sostanze di crescita che diversi studi mostrano come siano presenti naturalmente nelle microalghe. Il lavoro di questa tesi si è incentrato sulla valutazione degli effetti di ormoni vegetali sulla crescita e la composizione molecolare della microalga verde Desmodesmus communis, organismo noto nell’ambito del trattamento delle acque reflue e specie alternativa nella produzione di energia rinnovabile grazie alle sue caratteristiche fisiologiche. La crescita è stata monitorata attraverso conteggio cellulare, consumo di nutrienti, misurazione del peso secco e dell’efficienza fotosintetica; la composizione molecolare è stata quantificata analizzando il contenuto di polisaccaridi, proteine e lipidi delle cellule. Dapprima è stato eseguito uno screening preliminare di cinque fitormoni a concentrazioni diverse, allo scopo di selezionare lo stimolante biochimico con maggior effetto. Selezionato l’ormone, si è poi proceduto ad allestire colture batch, in cui il composto, l’auxina acido fenilacetico, è stato aggiunto alla concentrazione prescelta e successivamente, avvalendosi dell’utilizzo di due fotobioreattori colonnari, è stato valutato l’effetto dell’ormone selezionato in un sistema di coltura semicontinuo, ipotizzando una coltivazione industriale su larga scala.
Resumo:
Il sistema ferroviario ha sempre ricoperto un ruolo rilevante nel nostro Paese sia per il trasporto di persone, sia per il trasporto di merci: risulta, quindi, essenziale per il commercio e per il turismo. A differenza della strada in cui i veicoli circolano “a vista”, una ferrovia richiede che i sistemi di distanziamento dei treni siano indipendenti dalla visibilità dei veicoli, poiché gli spazi di frenatura sono solitamente molto maggiori della distanza di visibilità stessa. Per questo motivo i sistemi di segnalamento e sicurezza ricoprono un ruolo di primo piano. Nel tempo sono stati effettuati ingenti investimenti che hanno portato all'impiego di nuove tecnologie le quali hanno permesso la progettazione di sistemi safety critical contenenti componenti informatici hardware e software. La caratteristica principale di tali sistemi è la proprietà di non arrecare danno alla vita umana o all'ambiente: tale proprietà viene comunemente associata al termine anglosassone safety per distinguerla dall’accezione di "protezione da violazioni all'integrità del sistema" che il termine "sicurezza" usualmente assume. Lo sviluppo economico e tecnologico a cui abbiamo assistito nell’ultimo ventennio ha inevitabilmente reso tali sistemi ancora più sofisticati e di conseguenza complessi, richiedendo allo stesso tempo requisiti e garanzie di buon funzionamento sempre più marcati ed articolati. È proprio a questi motivi che si devono gli studi su quella che viene definita la dependability dei sistemi di computazione, verso cui si concentrano e convogliano buona parte degli sforzi e delle risorse in fase di ricerca e progettazione. Il lavoro di tesi che segue è stato svolto in collaborazione con due grandi imprese del territorio nazionale: RFI (Reti Ferroviarie Italiane) e Sirti. Inizialmente abbiamo interagito con RFI per entrare nell’ambiente ferroviario ed assimilarne il lessico e i bisogni. All’interno di RFI è stato effettuato un tirocinio nel quale ci siamo occupati del “processo off-line” riguardante la gestione in sicurezza di una stazione; tale attività deve essere effettuata da RFI prima della messa in esercizio di una nuova stazione. Per far questo abbiamo dovuto utilizzare i programmi di preparazione dei dati messi a disposizione da Sirti. In un secondo momento abbiamo approfondito l’argomentazione della safety interfacciandoci con Sirti, una delle società che forniscono sistemi safety critical computerizzati per il controllo delle stazioni. In collaborazione con essa ci siamo addentrati nel loro sistema scoprendo le loro scelte implementative e come hanno raggiunto i loro obiettivi di safety. Infine, ci siamo occupati dell'inserimento nel sistema di una nuova funzionalità, per aumentarne l’affidabilità e la sicurezza, e delle problematiche relative all'impiego del componente che la realizza.
Resumo:
Questo elaborato di tesi si propone di indicare due esempi di strutture in grado di misurare con una certa precisione i coefficienti di attrito che agiscono su un giunto filettato distinguendoli tra coefficiente di attrito nel sottotesta della vite e coefficiente di attrito sul filetto. I macchinari ideati saranno anche in grado di misurare la forza di precarico applicata e permetteranno l’analisi dei segni d’usura attorno ai fori che ospiteranno le viti.
Resumo:
Questo elaborato presenta un metodo per lo sviluppo di correlazioni lineari con lo scopo di determinare le proprietà meccaniche di un acciaio laminato e zincato utilizzando un sensore che percepisce la magnetizzazione residua del materiale. Vengono utilizzati metodi statistici di analisi della varianza per lo studio delle funzioni di regressione lineari. Lo studio effettuato è stato sviluppato per la lavorazione di zincatura di coils presso Marcegaglia spa, stabilimento di Ravenna. È risultato evidente che la sola misurazione della magnetizzazione residua non fosse sufficiente per la determinazione delle proprietà meccaniche, a tale proposito sono stati sviluppati dei modelli di calcolo con funzioni multivariabili e, attraverso risolutori che minimizzano la differenza quadratica dell'errore, si sono determinati i coefficienti di regressione. Una delle principali problematiche riscontrate per la definizione delle correlazioni è stato il reperimento dei dati necessari per considerare affidabili i risultati ottenuti. Si sono infatti analizzate solamente le famiglie di materiale più numerose. Sono stati sviluppati tre modelli di calcolo differenti per parametri di processo di produzione utilizzati per la definizione delle correlazioni. Sono stati confrontati gli errori percentuali medi commessi dalle funzioni, gli indici di regressione che indicano la qualità della correlazione e i valori di significatività di ogni singolo coefficiente di regressione delle variabili. Si è dimostrato che la magnetizzazione residua influisce notevolmente, così come i parametri dei processo di ricottura del materiale, come le temperature in forno, lo spessore e le velocità. Questo modello di calcolo è stato utilizzato direttamente in linea per lo sviluppo di un ciclo ottimale per la produzione di un nuovo materiale bifasico. Utilizzando il modello per la predizione delle proprietà meccaniche si è concluso che per limiti impiantistici la chimica del materiale utilizzata non fosse idonea. Si è perciò utilizzato un acciaio con percentuali di carbonio, manganese e cromo differenti. In conclusione del progetto si sono formulate delle possibili alternative di funzioni di regressione che utilizzano il valore della durezza piuttosto che il valore di magnetizzazione residua. Si è appurato che l'utilizzo di un durometro, anziché il sensore studiato, potrebbe risultare una valida alternativa al sensore studiato.
Resumo:
La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.
Resumo:
In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.
Resumo:
Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.
Resumo:
L'ecografia con mezzo di contrasto è una tecnica non invasiva che consente di visualizzare la micro e la macrocircolazione grazie all'utilizzo di microbolle gassose che si distribuiscono in tutto il sistema cardiovascolare. Le informazioni emodinamiche e perfusionali ricavabili dalle immagini eco con contrasto possono essere utilizzate per costruire un modello a grafo dell'albero vascolare epatico. L'analisi della connettività del grafo rappresenta una strategia molto promettente che potrebbe consentire di sostituire la misurazione del gradiente pressorio venoso del fegato, che richiede cateterismo, determinando un notevole miglioramento nella gestione dei pazienti cirrotici. La presente tesi si occupa della correzione dei movimenti del fegato, che deve essere realizzata prima di costruire il grafo per garantire un'accuratezza adeguata. Per correggere i movimenti è proposta una tecnica di Speckle tracking, testata sia in vitro su sequenze eco sintetiche, sia in vivo su sequenze reali fornite dal Policlinico Sant'Orsola.
Resumo:
L'obiettivo di questa tesi è il contributo alla realizzazione della veneziana frangisole intelligente, attraverso la caratterizzazione dei sensori di temperatura e luminosità e ulteriori simulazioni della veneziana riguardanti gli effetti di bordo. Successivamente si è proceduto alla misurazione pratica della potenza incidente, con gli opportuni strumenti, per verificare l'accuratezza delle simulazioni e prendere provvedimenti nel caso di riscontri negativi.
Resumo:
La tecnologia odierna, orientata sempre di più verso il “low-power”, ha permesso di poter sviluppare sistemi elettronici in grado di autoalimentarsi senza alcun bisogno di sorgenti di energia tradizionali. Questo è possibile, ad esempio, utilizzando trasduttori piezoelettrici, in grado di trasformare l’energia meccanica, provocata ad esempio da una vibrazione, in un’altra forma di energia che, in tal caso, risulta essere una grandezza elettrica. Il settore principale in cui viene impiegato questo componente è quello dell’Energy Harvesting, ovvero un campo dell’elettronica in cui si cerca di estrarre dall'ambiente circostante bassissime quantità di energia mediante tecniche opportune, cercando di ridurre i consumi dei circuiti di controllo annessi e renderli, in maggior parte, il più possibile autosufficienti. L’obiettivo è quello di implementare alcune tecniche di recupero dell’energia mediante circuiti gestiti a microcontrollore e valutare se tali metodiche portino a risultati accettabili in grado di soddisfare quelli che sono i requisiti che il mondo dell’Energy Harvesting richiede.
Resumo:
L'obiettivo della tesi è esplorare i più avanzati dispositivi, sensori e processori per la computazione spaziale, correlarli con i modelli di spatial computing, e derivarne un'architettura concettuale di middleware distribuito che possa supportare le più avanzate applicazioni in mobilità.
Resumo:
Analisi della corrente rettificata di potassio IKr all'interno di tre modelli di potenziale d'azione ventricolare umano, e confronto con dati sperimentali in letteratura.
Resumo:
Capire come ottenere l'informazione accessibile, cioè quanta informazione classica si può estrarre da un processo quantistico, è una delle questioni più intricate e affascinanti nell'ambito della teoria dell'informazione quantistica. Nonostante l'importanza della nozione di informazione accessibile non esistono metodi generali per poterla calcolare, esistono soltanto dei limiti, i più famosi dei quali sono il limite superiore di Holevo e il limite inferiore di Josza-Robb-Wootters. La seguente tesi fa riferimento a un processo che coinvolge due parti, Alice e Bob, che condividono due qubits. Si considera il caso in cui Bob effettua misure binarie sul suo qubit e quindi indirizza lo stato del qubit di Alice in due possibili stati. L'obiettivo di Alice è effettuare la misura ottimale nell'ottica di decretare in quale dei due stati si trova il suo qubit. Lo strumento scelto per studiare questo processo va sotto il nome di 'quantum steering ellipsoids formalism'. Esso afferma che lo stato di un sistema di due qubit può essere descritto dai vettori di Bloch di Alice e Bob e da un ellissoide nella sfera di Bloch di Alice generato da tutte le possibili misure di Bob. Tra tutti gli stati descritti da ellissoidi ce ne sono alcuni che manifestano particolari proprietà, per esempio gli stati di massimo volume. Considerando stati di massimo volume e misure binarie si è riuscito a trovare un limite inferiore all'informazione accessibile per un sistema di due qubit migliore del limite inferiore di Josza-Robb-Wootters. Un altro risultato notevole e inaspettato è che l'intuitiva e giustificata relazione 'distanza tra i punti nell'ellissoide - mutua informazione' non vale quando si confrontano coppie di punti ''vicine'' tra loro e lontane dai più distanti.
Resumo:
Analisi della Massa come grandezza fisica. Accenni ai metodi utilizzati in Astrofisica per la sua misurazione; massa di Jeans; Materia Oscura; limite di Chandrasekhar; diagramma H-R; sistemi doppi; trasferimento di massa e Funzione di massa.