643 resultados para Misura, rumore, Mosfet, amplificatore


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da numerose osservazioni astronomiche e cosmologiche si ipotizza che la Materia Oscura rappresenti gran parte della massa dell’Universo. La Materia Oscura ha la particolarita` di interagire solo gravitazionalmente o debolmente e si presenta come massiva e neutra. Tra i vari candidati al ruolo di particelle di Materia Oscura troviamo le WIMP (Weakly Interacting Massive Particles). Un’esperimento che si propone di rivelare in modo diretto le WIMP, mediante la loro diffusione elastica su nuclei di Xeno, `e il progetto XENON presso i Laboratori Nazionali del Gran Sasso. Le tecniche di rivelazione diretta prevedono l’utilizzo di rivelatori grandi, in questo caso a gas nobile, ultra puri e situati in ambienti a bassa radioattivita` per diminuire il rumore di fondo come ad esempio i neutroni indotti dai muoni provenienti dai raggi cosmici (laboratori sotterranei). A causa della sezione d’urto molto piccola necessario raggiungere basse energie di soglia. A tal proposito sono in fase di ricerca e sviluppo soluzioni che permettano di migliorare le prestazioni del rivelatore; ad esempio sono in fase di studio soluzioni tecnologiche che migliorino la raccolta di luce. Una di queste prevede l’utilizzo di foto rivelatori tipo SiPM da affiancare a normali PMT. Tali rivelatori devono essere in grado di funzionare a basse temperature (circa −100◦ C) e devono poter rivelare fotoni di lunghezza d’onda di 178 nm. Il mio lavoro di tesi si colloca nell’ambito di tale progetto di ricerca e sviluppo. Lo scopo di questo lavoro `e stato infatti la preparazione di un setup sperimentale per caratterizzare in aria fotorivelatori SiPM Hamamatsu (prototipo codice S12574) in grado di lavorare in Xeno liquido. Oltre all’installazione del setup mi sono occupato di scrivere un programma in C++ in grado di analizzare le forme d’onda acquisite in run preliminari e di misurare guadagno e dark count rate del rivelatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato si affronta il progetto di un nucleo di calcolo per misure d'impedenza sulla pelle tramite l'utilizzo di segnali pseudo-random. La misura viene effettuata applicando il segnale casuale all'impedenza per ottenere la risposta impulsiva tramite un'operazione di convoluzione. Il nucleo di calcolo è stato implementato in VHDL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è analizzato il caso di sensori con uscita in frequenza e periodo, si traduce in ultima analisi nella capacità di misurare con precisione un intervallo temporale. La rivelazione del tempo risulta essere lo stadio fondamentale da cui deriva la risoluzione dell'intero sistema di misura. Nella realtà, la questione della simultaneità cioè individuare con assoluta precisione due eventi che si verificano contemporaneamente, in un determinato istante t, è un problema piuttosto complesso: le difficoltà sono correlate soprattutto alle limitazioni fisiche intrinseche degli strumenti di misura. E' utile allora fornire un'analisi sui principi e le tecniche alla base della misura di intervalli temporali, detta Time Interval Measurement (TIM). Lo scopo della tesi è studiare i vari metodi per realizzare TDC lineari digitali, facendo un'analisi critica e ed evidenziando pro e contro che i vari approcci presentano, attingendo e analizzando criticamente informazioni dalle varie fonti riportate in bibliografia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di presentare la teoria dei giochi, in particolare di quelli cooperativi, insieme alla teoria delle decisioni, inquadrandole formalmente in termini di matematica discreta. Si tratta di due campi dove l'indagine si origina idealmente da questioni applicative, e dove tuttavia sono sorti e sorgono problemi più tipicamente teorici che hanno interessato e interessano gli ambienti matematico e informatico. Anche se i contributi iniziali sono stati spesso formulati in ambito continuo e utilizzando strumenti tipici di teoria della misura, tuttavia oggi la scelta di modelli e metodi discreti appare la più idonea. L'idea generale è quindi quella di guardare fin da subito al complesso dei modelli e dei risultati che si intendono presentare attraverso la lente della teoria dei reticoli. Ciò consente di avere una visione globale più nitida e di riuscire agilmente ad intrecciare il discorso considerando congiuntamente la teoria dei giochi e quella delle decisioni. Quindi, dopo avere introdotto gli strumenti necessari, si considerano modelli e problemi con il fine preciso di analizzare dapprima risultati storici e solidi, proseguendo poi verso situazioni più recenti, più complesse e nelle quali i risultati raggiunti possono suscitare perplessità. Da ultimo, vengono presentate alcune questioni aperte ed associati spunti per la ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone di investigare, mediante un approccio puramente quantitativo, il contenuto informativo e la morfologia della lingua del manoscritto di Voynich (VMS), noto per essere redatto in un alfabeto sconosciuto e tuttora non decodificato. Per prima cosa, a partire dal concetto di entropia, sviluppato nel contesto della teoria della informazione, si costruisce una misura del contenuto informativo di un testo (misura di Montemurro-Zanette); quindi, si presentano diversi esperimenti in cui viene misurata l'informazione di testi sottoposti a trasformazioni linguistiche di vario genere(lemmatizzazione, traduzione, eccetera). In particolare, l'applicazione al VMS di questa misura unita ad altre tecniche, ci permette di indagare la struttura tematica del manoscritto e le relazioni tra i suoi contenuti, verificando che esiste una continuità semantica tra pagine consecutive appartenenti a una stessa sezione. La grande quantità di hapax nel manoscritto ci porta poi a considerazioni di tipo morfologico: suggerisce infatti che la lingua del manoscritto sia particolarmente flessiva. La ricerca, in particolare, di sequenze di hapax consecutivi, ci porta a identificare -verosimilmente- alcuni nomi propri. Proprio per approfondire la morfologia della lingua si costruisce infine un grafo linguistico basato sostanzialmente sulla distanza di Hamming; confrontando la topologia di questi grafi per alcune lingue e per la lingua del VMS si osserva che quest'ultimo si distingue per maggiore densità e connessione. Traendo le conclusioni, i forti indizi a favore della presenza di un contenuto informativo nel testo confermano l'ipotesi che questo sia scritto in una vera lingua. Tuttavia, data la notevole semplicità delle regole di costruzione morfologiche, a nostro parere non sembra assimilabile ad una lingua naturale conosciuta, ma piuttosto ad una artificiale, creata appositamente per questo testo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'isolamento gravitazionale delle sonde dello spazio profondo durante le loro fasi di crociera ed i loro esigui livelli di vibrazioni, le rendono la migliore collocazione possibile per mini-laboratori automatici di fisica fondamentale da installare su di esse come strumenti scientifici. Date le note difficoltà di misurazione della costante di gravitazione universale, probabilmente dovute alla collocazione terrestre dei laboratori, si propone di dedicare un mini-laboratorio alla misurazione del valore locale ed istantaneo della costante G ed alla sua stabilità spazio-temporale durante il moto della sonda. La misurazione di G nel mini-laboratorio può essere effettuata rilasciando con attuatori elettrostatici, senza velocità relativa, due masse campione, preferibilmente due sfere d’oro da 1Kg, a distanza di 1 mm, e monitorando il loro libero moto, dominato dall’attrazione gravitazionale reciproca, con un sensore di spostamento laser interferometrico multicanale. Dopo il congiungimento le masse dovrebbero essere riposizionate e rilasciate nuovamente per una misurazione quasi continua della costante. Un meccanismo dorrebbe invece bloccare le masse durante le fasi dinamiche della sonda. Un sensore di spostamento interferometrico a fibre ottiche, FPS3010 della Attocube, appariva adatto ed un esperimento è stato realizzato per provarlo in un apparato simulante il mini-laboratorio. In una campana del vuoto isolata dalle vibrazioni, due cilindri in tungsteno da 1Kg sono stati sospesi orizzontante tramite micro-Dyneema a piastre in allumino movimentate da nanoposizionatori piezoelettrici dotati di encoder ottico nanometrico. Il sensore ha monitorato il moto radiale dei cilindri, le cui basi combacianti sono state posizionate a distanze di separazione variabili da 10 micron a 5000 micron. Malgrado il rumore meccanico ed una sorgente ignota di errore sistematico, un moto attrattivo è stato riscontrato differenzialmente o direttamente in molte misurazioni e nessuna ha mostrato un moto repulsivo. In alcune misurazioni è direttamente visibile la rotazione dell’asse di oscillazione dei cilindri sospesi. Il sensore si è comportato egregiamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è stato esposto il lavoro, svolto in laboratorio, di fabbricazione degli OECTs, seguito dalle misure raccolte durante le prove effettuate, con le relative analisi e discussioni dei risultati ottenuti. É stato dimostrato che gli OECTs basati sul PEDOT:PSS sono in grado di fornire una misura della concentrazione di sostanze ossidanti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di traduzione nasce dal mio interesse per la traduzione dall’arabo all’italiano. Purtroppo, attualmente non sono moltissimi i libri tradotti dall’arabo ed è ancora scarso (rispetto ad altri paesi) l’interesse verso la vera letteratura araba, ed in particolar modo verso il genere del racconto breve. Oggigiorno, gli scaffali delle maggiori librerie in Italia riservano un angusto spazio ai libri tradotti dall’arabo. Certo, molto è stato realizzato in comparazione alla prima metà del Novecento, grazie anche all’assegnazione del premio Nobel per la letteratura nel 1988 a Naguib Mahfouz, evento che ha incentivato l’interesse verso gli scrittori in lingua araba. Tuttavia, sono convinta che si può stimolare in misura maggiore la lettura di romanzi e racconti che provengono dal così chiamato “Mondo arabo”, in riferimento a una vasta area geografia che comprende diversi stati, con un differente patrimonio culturale ma accomunati dall’uso della stessa lingua. A questo scopo, ho scelto di tradurre due racconti brevi di due diversi autori, entrambi dall’Egitto tracciando inizialmente la nascita di questo genere sino a delineare il suo valore odierno. Si tratta di due racconti che si allontanano dal modello de Le Mille e una notte, e diversamente da quest’ultime non godono della stessa notorietà. Non presentano tratti di esotismo che tanto affascinano i lettori occidentali e non si inseriscono tra le ultime tendenze letterarie. Si tratta di racconti fuori dagli schemi classici proposti dei racconti arabi già tradotti. Per tali motivi ho deciso di tradurli, in quanto sono convinta fermamente che la letteratura araba non sia solamente Naguib Mahfouz o Khalil Gibran (autori eccezionali senza dubbio), ma sia ricca di molti altri scrittori ancora da essere scoperti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da alcuni anni in ambito business ed enterprise si sta diffondendo l'utilizzo di dispositivi wearable al fine di rendere più efficiente ed efficace la gestione di molteplici attività e processi aziendali. I sistemi hand-held comunemente utilizzati in ambito lavorativo, tra cui smartphone e tablet, spesso non risultano idonei in contesti in cui un operatore debba interagire con il dispositivo mentre ha le proprie mani impegnate con attrezzature e strumenti di lavoro. I sistemi hands-free rimediano a tali problematiche supportando tecniche di interazione non convenzionali che consentono all'operatore di mantenere libere le proprie mani durante la consultazione del dispositivo e di rimanere concentrato sull'attività che sta svolgendo. I sistemi basati su smart-glass, oltre ad offrire funzionalità hands-free, presentano l'ulteriore vantaggio di poter presentare all'interno del campo visivo dell'utente importanti informazioni di supporto inerenti all'attività che sta svolgendo, avvalendosi anche dell'utilizzo di tecnologie di realtà aumentata. La sinergia tra dispositivi basati su smart-glass e tecniche di realtà aumentata sta destando un crescente interesse sia in ambito accademico che industriale; esiste la possibilità che in un prossimo futuro questa tipologia di sistemi divenga la nuova piattaforma computazionale enterprise di riferimento. L'obiettivo di questo lavoro di tesi è stato lo studio e la progettazione di una soluzione hands-free basata su smart-glass in grado di supportare alcune attività di customer care del Gruppo Loccioni, una società che si occupa dello sviluppo di sistemi automatici di misura e controllo per migliorare la qualità, l'efficienza e la sostenibilità di prodotti, processi ed edifici. In particolare, il sistema sviluppato ha consentito di migliorare la gestione dei processi di manutenzione e riparazione degli impianti energetici sostenibili che il Gruppo Loccioni installa presso le sedi di imprese clienti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elettromiografia di superficie (sEMG) è la tecnica non invasiva che si occupa della misura e analisi dell'attività elettrica associata alla contrazione del muscolo scheletrico, che viene prelevata tramite elettrodi superficiali. Si vuole dimostrare come questa metodologia rappresenti un valido strumento di monitoraggio quantitativo da affiancare ad un trattamento di elettroterapia. Si sono effettuate rilevazioni elettromiografiche su sette pazienti presso centri fisioterapici e si sono estratti una serie di parametri numerici dal segnale elettromiografico (Media Lavoro, Media Riposo, Deviazione Lavoro, Deviazione Riposo, Tempo Inizio, Tempo Rilassamento, MVC, IEMG) in grado di fornire una misura oggettiva dell'andamento del percorso di riabilitazione. Con il test statistico ANOVA per misure ripetute si è visto come alcuni di questi parametri subiscono miglioramenti statisticamente significativi in seguito alla terapia. Dopo aver messo in evidenza l'impossibilità di estrarre il segnale grezzo, quindi effettuare un'analisi in frequenza, si è proposta un'elaborazione completa del segnale elettromiografico a partire da un tracciato grezzo acquisito su un soggetto sano, mostrando in particolare la possibilità di calcolare ulteriori parametri in frequenza. Si è inoltre sottolineata la necessità di ripetere uno studio analogo su un gruppo di soggetti superiore e che preveda il monitoraggio dell'impedenza di contatto elettrodo-cute.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il cancro della prostata (PCa) è il tumore maligno non-cutaneo più diffuso tra gli uomini ed è il secondo tumore che miete più vittime nei paesi occidentali. La necessità di nuove tecniche non invasive per la diagnosi precoce del PCa è aumentata negli anni. 1H-MRS (proton magnetic resonance spectroscopy) e 1H-MRSI (proton magnetic resonance spectroscopy imaging) sono tecniche avanzate di spettroscopia in risonanza magnetica che permettono di individuare presenza di metaboliti come citrato, colina, creatina e in alcuni casi poliammine in uno o più voxel nel tessuto prostatico. L’abbondanza o l’assenza di uno di questi metaboliti rende possibile discriminare un tessuto sano da uno patologico. Le tecniche di spettroscopia RM sono correntemente utilizzate nella pratica clinica per cervello e fegato, con l’utilizzo di software dedicati per l’analisi degli spettri. La quantificazione di metaboliti nella prostata invece può risultare difficile a causa del basso rapporto segnale/rumore (SNR) degli spettri e del forte accoppiamento-j del citrato. Lo scopo principale di questo lavoro è di proporre un software prototipo per la quantificazione automatica di citrato, colina e creatina nella prostata. Lo sviluppo del programma e dei suoi algoritmi è stato portato avanti all’interno dell’IRST (Istituto Romagnolo per lo Studio e la cura dei Tumori) con l’aiuto dell’unità di fisica sanitaria. Il cuore del programma è un algoritmo iterativo per il fit degli spettri che fa uso di simulazioni MRS sviluppate con il pacchetto di librerie GAMMA in C++. L’accuratezza delle quantificazioni è stata testata con dei fantocci realizzati all’interno dei laboratori dell’istituto. Tutte le misure spettroscopiche sono state eseguite con il nuovo scanner Philips Ingenia 3T, una delle machine di risonanza magnetica più avanzate per applicazioni cliniche. Infine, dopo aver eseguito i test in vitro sui fantocci, sono stati acquisiti gli spettri delle prostate di alcuni volontari sani, per testare se il programma fosse in grado di lavorare in condizioni di basso SNR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Digital Volume Correlation (DVC) è una tecnica di misura a tutto campo, non invasiva, che permette di misurare spostamenti e deformazioni all’interno della struttura ossea in esame. Mediante la comparazione d’immagini con provino scarico e con provino carico, ottenute attraverso sistemi di tomografia computerizzata, si può ottenere la mappa degli spostamenti per ogni direzione e la mappa di deformazione per ogni componente di deformazione. L’obiettivo di questo lavoro di tesi è la validazione della DVC, attraverso la determinazione dell’errore sistematico (accuratezza) e dell’errore casuale (precisione), in modo da poter valutare il livello di affidabilità della strumentazione. La valutazione si effettua su provini di vertebre di maiale, aumentate e non, sia a livello d’organo, sia a livello di tessuto. The Digital Volume Correlation (DVC) is a full field and contact less measurement technique that allowed estimating displacement and strain inside bone specimen. Images of the unloaded and loaded specimen were obtained from micro-CT and compared in order to obtain the displacement map and, differentiating, the strain map. The aim of this work is the validation of the approach, estimating the lack of accuracy (systematic error) and the lack of precision (random error) on different kinds of porcine vertebra, augmented and not, analysing the specimen on tissue level and on organ level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato riguarda il progetto di un circuito di condizionamento del segnale per sistemi di misura reologica. Il circuito è stato studiato per essere interfacciato con un sistema di misura in fase di studio all'Università di Bologna, sebbene il suo utilizzo nei sistemi di analisi nel dominio delle frequenze sia del tutto generale. Il sistema di misura esistente compie un'analisi chimico-fisica di alimenti, generalmente liquidi, in modo da caratterizzare nel dominio delle frequenze la risposta elettrica ad uno stimolo sinusoidale a frequenza variabile. In particolare, il sistema genera due segnali X(f) ed Y(f). Tuttavia, in molti casi di interesse la dinamica del segnale risulta molto piccola rispetto al range massimo del segnale. Lo scopo del circuito di condizionamento è quello di aumentare la dinamica dei segnali X(f) ed Y(f) in modo da rendere i grafici più leggibili. Tale obiettivo è stato ottenuto mediante la progettazione di un opportuno stadio di amplificazione a guadagno programmabile. Il sistema è controllato da un microcontrollore dotato di interfaccia USB con cui comunica con un PC. Le misure effettuate mostrano che il circuito progettato è in grado di amplificare correttamente la dinamica dei segnali acquisiti nel range 0-VDD.