442 resultados para Misura, rumore, Mosfet, amplificatore
Resumo:
Background L’utilizzo della tossina botulinica in caso di problematiche legate a distonia muscolare sta assumendo sempre più validità nel processo decisionale della scelta della terapia. Attraverso il continuo miglioramento delle strategie di indagine della muscolatura responsabile del disturbo e delle tecniche di inoculazione, infatti, questa pratica si sta avviando all’essere ritenuta il gold standard in caso di distonia. Obiettivo Valutare il dolore, la mobilità, la soggettiva impressione di cambiamento e la qualità di vita in una donna affetta da distonia cervicale secondaria a malattia di Parkinson trattata attraverso inoculazione di tossina botulinica nella muscolatura del collo Materiali e Metodi È stata selezionato un soggetto di 72 anni con malattia di Parkinson in fase avanzata e distonia cervicale secondaria alla malattia stessa, che ha ricevuto indicazione al trattamento con tossina botulinica di tipo A. La donna è stata valutata tramite la somministrazione di scale di misura validate, da un minimo di 3 settimane ad un massimo di 90 giorni dall’ultima inoculazione di tossina botulinica, in modo tale da indagare il reale vantaggio per la salute della donna in termini di ‘beneficio avvertito’ in periodi diversi. Risultati Al termine della sperimentazione, la donna presenta un globale miglioramento della sua condizione, osservabile tramite l’incremento dei punteggi delle misure di outcome rispetto alla rilevazione pre-inoculazione di tossina botulinica. Conclusioni In questa sperimentazione il trattamento della distonia cervicale secondaria a malattia di Parkinson dimostra un effetto benefico che si evidenzia in particolare nella mobilità cervicale, grazie al rilassamento della muscolatura che prima ne limitava il movimento. Inoltre, si è rivelato molto utile nel miglioramento della qualità della vita. Sono tuttavia necessari ulteriori studi a dimostrazione dei reali effetti.
Resumo:
Background. La sclerosi multipla (SM) è una malattia neurodegenerativa che colpisce il sistema nervoso centrale. I sintomi si manifestano prima dei 55 anni di età, possono essere molto diversi tra loro. Al momento non esiste una cura definitiva, ma sono disponibili tecniche riabilitative che modificano il suo andamento, tra cui la riabilitazione equestre, che consiste in attività svolte con l'aiuto del cavallo a fini di cura. Obiettivi. Lo scopo di questo studio è quello di indagare l’efficacia della riabilitazione equestre sui parametri funzionali del cammino e la qualità della vita in persone con SM. Metodi. Le banche dati visionate per questo studio sono state PUBMED, PEDro, Cochrane Central Register of Controlled Trial, Web of Science e Scopus. Nella revisione sono stati inclusi i Randomized Controlled Trial (RCT) che indagavano i parametri funzionali del cammino e la qualità della vita; articoli che esaminavano soggetti con sclerosi multipla senza limiti di età e sesso, in lingua inglese, pubblicati tra il 2010 e il 2020 e di cui era reperibile il full text. Risultati. Gli studi inclusi sono stati quattro RCT. Gli outcome indagati sono stati i parametri funzionali del cammino e la qualità della vita. In ogni studio esaminato si osserva un miglioramento significativo per ogni misura di outcome, in particolare la qualità della vita. Conclusioni. Ogni studio ha evidenziato come la riabilitazione equestre abbia influito positivamente sul decorso della SM. Riguardo i trial clinici esaminati, il numero esiguo dei partecipanti ai singoli studi, la durata eterogenea delle sessioni, l’impossibilità di disporre della descrizione della seduta, l’utilizzo di scale differenti per ogni studio e l’aver considerato parametri diversi per valutare uno stesso outcome non permettono di avere risultati estendibili a tutta la popolazione. Risulta necessario un ulteriore approfondimento in merito per comprendere la reale efficacia della riabilitazione equestre.
Resumo:
Background. La scoliosi idiopatica adolescenziale nelle ragazze tende a progredire più spesso, di conseguenza necessitano frequentemente di trattamenti. Sebbene l’impatto della scoliosi sulla gravidanza e sul parto sia una preoccupazione comune nelle donne, la letteratura che studia l'influenza dell'AIS sulla salute femminile è scarsa e contrastante. Obiettivo. Indagare l’influenza reciproca tra scoliosi idiopatica adolescenziale, sessualità e fertilità, gravidanza e parto. Metodo. È stata condotta una Scoping review utilizzando PubMed, CINAHL, Scopus, TripDataBase, Biomed central. A seguito del processo di selezione, sono stati individuati e inclusi 12 articoli, pubblicati tra il 2000 e il 2020. Risultati. Le donne con AIS possono avere maggiore difficoltà di concepimento, necessità di ricorrere a trattamenti di fertilità, incidenza e severità della dorsolombalgia, la quale, nella maggior parte dei casi, non compromette le attività quotidiane e si risolve dopo il parto. La scoliosi non è associata né ad una maggiore incidenza di parto pretermine né ad un maggior tasso di induzione del travaglio. Per quanto riguarda l’analgesia locoregionale, si evidenziano maggiori difficoltà nell'inserimento del catetere epidurale. La gravidanza determina una lieve progressione della curva scoliotica, paragonabile alla naturale progressione della scoliosi nelle donne che non hanno mai avuto una gravidanza. Conclusioni. La scoliosi idiopatica adolescenziale non rappresenta in sé un fattore di rischio della gravidanza, ma richiede una conoscenza adeguata del fenomeno e un’assistenza personalizzata e su misura rispetto ai desideri della donna e al tipo/grado di patologia presente. Sarebbero necessari studi prospettici più ampi per indagare ulteriormente le tematiche prese in esame, i quali risulterebbero preziosi per il personale ostetrico che consiglia le donne sia durante la pianificazione del concepimento sia nel corso della gravidanza.
Resumo:
Ad oggi, l’attuale gold standard per il trattamento di amputazioni transfemorali è rappresentato dall’utilizzo di protesi con invaso (socket). Tuttavia, si rileva un elevato grado di insoddisfazione in questo tipo di protesi, dovuto a numerose complicazioni. Per questo sono state sviluppate le protesi osteointegrate. Queste protesi hanno numerosi vantaggi rispetto alla tipologia socket ma presentano anch’esse dei problemi, in particolare complicazioni meccaniche, di mobilizzazione e di infezione. Per questo, lo scopo di questo elaborato di tesi è stato quello di sviluppare ed ottimizzare un metodo per caratterizzare il comportamento biomeccanico di una protesi osteointegrata per amputati transfemorali, tramite Digital Image Correlation (DIC). In particolare, sono state valutate le condizioni e i metodi sperimentali utili a simulare una reale situazione fisiologica di distribuzione delle deformazioni sulla superficie dell’osso una volta impiantata la protesi. Per le analisi è stato utilizzato un provino di femore in composito nel quale è stata impiantata una protesi osteointegrata. È stata effettuata un’ottimizzazione dei parametri della DIC per consentire una misura precisa e affidabile. In seguito, sono state svolte due tipologie di test di presso-flessione sul provino per valutare la ripetibilità dell’esperimento e l’intensità delle deformazioni superficiali al variare del carico in range fisiologico. Il metodo sviluppato è risultato ripetibile, con un errore al di sotto della soglia stabilita. All’aumentare del carico è stato possibile osservare un aumento lineare delle deformazioni, oltre che un’espansione dell’area sottoposta a deformazioni più elevate. I valori di deformazioni ottenuti rientrano nei range fisiologici e sono confrontabili con quelli ottenuti in letteratura. L’applicazione del metodo sviluppato a provini di femore provenienti da donatore umano permetterà la generalizzazione dei risultati ottenuti in questo studio.
Resumo:
In questa tesi è stato svolto il calcolo di alcune proprietà dei materiali usando un approccio ab initio, in particolare i gap energetici e le DOS (densità di stati) di silicio e ossido di nichel. Per fare ciò, sono state usate tre diverse teorie: DFT (Density Functional Theory), DFT+U e GW. Nei primi tre capitoli sono state spiegate le tre approssimazioni fatte e le basi teoriche. Nel quarto capitolo si presentano i risultati. In particolare il gap del silicio usando la DFT è di 0.6617 eV che risulta più basso di quello sperimentale di 1.12 eV a causa dei limiti della DFT. Per la DFT+U è stato svolto il calcolo sull’ossido di nichel perché presenta orbitali d, interessati maggiormente nella correzione apportata. L’energia di gap calcolata è di 3.3986 eV . Per quel che riguarda l’approssimazione GW, è stata svolta anch’essa sul silicio e restituisce un gap di 1.301 eV , che risulta più vicino alla misura sperimentale rispetto alla DFT.
Resumo:
I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.
Resumo:
Il lavoro di questa tesi ha riguardato lo studio e l'analisi acustica del sito della Scuola di Ingegneria di Bologna in Via Terracini con l’obiettivo di trovare una soluzione per mitigare il disturbo sonoro rilevato nella zona. Dalle diverse misurazioni fonometriche si è stabilita l’entità numerica di partenza che ha richiesto un’implentazione attraverso delle misurazioni di tipo qualitativo con delle registrazioni in formato wave ed annotando al contempo il numero ed il tipo di veicoli che circolavano. Attraverso l'implementazione dei vari dati ricavati dai rilievi delle diverse sezioni, è stata convalidata la consapevolezza del principale problema dell'area: l'inquinamento acustico causato dal traffico stradale. Lo studio è proseguito monitorando le bande di frequenza che interessavano questo tipo di rumore e quantificando il livello in dB che superava i limiti imposti dalla normativa. Non essendo possibile ridurre il traffico acustico direttamente alla fonte, si è optato per misure di protezione del recettore che si sono configurate nell'inserimento dell'asfalto fonoassorbente e nella progettazione di una barriera acustica. Dopo aver ricercato i diversi tipi di barriere, si è deciso per la barriera con cristalli sonici. Si è indagato quali fattori influissero sulle proprietà dei cristalli sonici: la distribuzione geometrica, la frazione di riempimento e la dimensione degli elementi periodici influenzano la formazione delle bande proibite, la loro larghezza e quindi la capacità fonoisolante del cristallo sonico. In base all'altezza degli edifici e alla loro distanza dalla strada, Via Terracini è stata suddivisa in quattro sezioni. Infine, per le varie sezioni, è stato riprodotto il grafico frequenza/perdita di inserzione che ha confermato una riduzione del livello sonoro di quasi 15 dB. Il progetto ha previsto anche il dimensionamento e la verifica delle azioni statiche (carichi e azione del vento) e dell'azione sismica del sistema strutturale della barriera.
Resumo:
I sistemi di trasporto dell’energia elettrica per lunghe distanze possono dimostrarsi convenienti attraverso l’utilizzo di cavi in corrente continua ad alta tensione (HVDC). Essi possono essere installati seguendo la classica configurazione aerea, oppure interrati, dove le difficili condizioni ambientali, possono portare alla degradazione dei materiali. I materiali polimerici che costituiscono l’isolamento del cavo sono soggetti ad invecchiamento, diventando sempre più fragili e poco affidabili sia a seguito delle condizioni ambientali che dall’applicazione dell’alta tensione, che comporta un forte campo elettrico fra la superficie del conduttore e l’isolante esterno. Per determinare l’integrità e le caratteristiche dei materiali polimerici si utilizzano tecniche diagnostiche. Molte tecniche prevedono però la distruzione del materiale, quindi se ne cercano altre non distruttive. Questa tesi studia gli effetti dell’aggiunta di un additivo alla matrice polimerica del materiale isolante, utilizzando la tecnica di spettroscopia dielettrica, la misura di conducibilità e il metodo dell’impulso elettroacustico. I provini testati sono costituiti da una matrice di polipropilene e polipropilene additivato con nitruro di boro, testati alle temperature di 20, 40, 70°C. In particolare, il primo capitolo introduce i sistemi HVDC, per poi presentare le caratteristiche e le proprietà dei materiali nanodielettrici. Nella terza parte si descrive il set sperimentale utilizzato nelle prove condotte. Nei capitoli 4 e 5 sono riportati i risultati ottenuti e la loro discussione.
Resumo:
La messa a punto dei motopropulsori richiede una fase di test utilizzando un dinamometro, cioè una macchina che ne permette la misura di coppia e velocità. Sono diverse le tipologie di dinamometri, tutte sono però caratterizzate dalla necessità di essere gestite attraverso un opportuno controllore. Il presente lavoro di tesi, svolto presso Borghi&Saveri SRL, si pone l’obbiettivo di aggiornare il sistema di controllo di un dinamometro idraulico, lo “SFI”, sviluppando in particolare la parte di potenza, comunicante con la componente di controllo, già realizzata dall’azienda. La soluzione per la parte di potenza è un drive per il controllo di motori elettrici, scelto dopo una valutazione dei requisiti necessari, lo studio del vecchio sistema e un’analisi di mercato. Il motore elettrico posto sul dinamometro ha infatti il compito di muovere una valvola di gestione della portata d’acqua immessa, con conseguente regolazione della coppia. Il drive è stato messo in funzione realizzando un hardware per garantirne il funzionamento, per poi essere configurato e testato: è stata scelto il setup giudicato come ottimale dei parametri di controllo ed è stata impostata un’interfaccia per la comunicazione smart da PC, via CANopen. Si è poi realizzato un modello virtuale rappresentativo del sistema, validato con acquisizioni sperimentali. Infine, si sono confrontati i dati simulativi del modello con quelli sperimentali provenienti dal vecchio controllore, così da ottenere una valutazione delle rispettive performance nell’effettuare il controllo di posizione della valvola. Il sistema così realizzato soddisfa i requisiti posti, tuttavia le sue prestazioni non sono del tutto migliorative rispetto a quelle dello SFI: per questo sono valutati i punti deboli del progetto e proposti dei possibili sviluppi futuri.
Resumo:
Il monitoraggio basato su emissioni acustiche (AE) guidate si è confermato tra le tecniche più affidabili nel campo del Non-Destructive Testing delle strutture planari, vista anche la sua semplicità implementativa, i bassi costi che lo caratterizzano, la non invasività e la possibilità di realizzare un sistema che agisca in maniera continuativa ed in tempo reale sfruttando reti di sensori permanentemente installati, senza la necessità di ispezioni periodiche. In tale contesto, è possibile sfruttare l’abilità dell’apprendimento automatico nell’individuazione dei pattern nascosti all’interno dei segnali grezzi registrati, ottenendo così informazioni utili ai fini dell’applicazione considerata. L’esecuzione on-edge dei modelli, ovvero sul punto di acquisizione, consente di superare le limitazioni imposte dal processamento centralizzato dei dati, con notevoli vantaggi in termini di consumo energetico, tempestività nella risposta ed integrità degli stessi. A questo scopo, si rivela però necessario sviluppare modelli compatibili con le stringenti risorse hardware dei dispositivi a basso costo tipicamente impiegati. In questo elaborato verranno prese in esame alcune tipologie di reti neurali artificiali per l’estrazione dell’istante di arrivo (ToA) di un’emissione acustica all’interno di una sequenza temporale, in particolare quelle convoluzionali (CNNs) ed una loro variante più recente, le CapsNet basate su rounting by agreement. L’individuazione dei ToA relativi al medesimo evento su segnali acquisiti in diverse posizioni spaziali consente infatti di localizzare la sorgente da cui esso è scaturito. Le dimensioni di questi modelli permettono di eseguire l’inferenza direttamente su edge-device. I risultati ottenuti confermano la maggiore robustezza delle tecniche di apprendimento profondo rispetto ai metodi statistici tradizionali nel far fronte a diverse tipologie di disturbo, in particolare negli scenari più critici dal punto di vista del rapporto segnale-rumore.
Resumo:
In questi anni, c’è stato un grande sviluppo negli standard wireless nel mondo della televisione, della radio e delle comunicazioni mobili. Questo ha portato con sé problemi di compatibilità tra le reti wireless e ha limitato lo sviluppo di nuove funzionalità e servizi. La Software Defined Radio rappresenta una soluzione di flessibilità per affrontare questa serie di problematiche. In un sistema di comunicazione digitale, le informazioni viaggiano su un canale che è soggetto a rumore ed interferenza; perciò, per garantire robustezza e affidabilità alle applicazioni nella comunicazione digitale, i sistemi richiedono l’uso di codici di correzione degli errori, basati su schemi di codifica di canale. Esistono diverse tipologie di codici per la correzione degli errori, tra le quali il turbo codice, utilizzato nei sistemi LTE. Questo lavoro presenta la progettazione e la successiva ottimizzazione di un turbo encoder per sistemi LTE su una scheda FPGA, la quale, a differenza di altri dispositivi, meglio si presta a questo scopo, grazie alla caratteristica di riprogrammabilità. Dapprima viene presentato un turbo encoder sequenziale, il quale viene ottimizzato creandone una versione parallela. I risultati mostrano che l’architettura parallela presenta prestazioni, in termini di throughput, quattro volte migliori di quella sequenziale, a fronte di un lieve aumento dell’uso delle risorse della scheda. Confrontando questo turbo encoder ottimizzato con un progetto presente in letteratura, si nota che l’efficienza d’area risulta maggiore con un fattore circa pari a 3.
Resumo:
Questo studio si pone come obiettivo lo sviluppo e la sperimentazione di un metodo per eseguire un benchmarking di due diversi sistemi di Additive Manufacturing mediante macchina di misura a coordinate Renishaw Cyclone. In particolare sono valutate le prestazioni in termini di precisione di forma di un sistema di tipo FDM e di uno di tipo PolyJet al fine di ottenere dati indicanti le potenzialità di queste due tecnologie per parti di piccole dimensioni. Dopo un’introduzione generale sull’Additive Manufacturing, si scende nei dettagli delle due tecniche oggetto dello studio e si discute di come strutturare il piano sperimentale in funzione degli obiettivi dell’attività e dei metodi scelti per l’acquisizione e la valutazione dei dati. Si parte, infatti, con la fabbricazione di un modello di benchmark, le cui geometrie vengono poi rilevate tramite una macchina di misura a coordinate per ottenere i valori di precisione di forma, che sono presentati come tolleranze geometriche del sistema GD&T. Successivamente, si descrivono tutte le fasi dell’attività sperimentale, iniziando con l’ideazione del modello di benchmark e proseguendo con i processi di fabbricazione e misurazione, per poi arrivare alla deduzione dei valori di precisione di forma tramite un post-processing dei dati. Infine, si presentano i valori di tolleranza ottenuti e si traggono le conclusioni riguardo la riuscita dell’attività sperimentale e il confronto tra le due tecnologie di Additive Manufacturing.
Resumo:
Il litio, secondo il modello di nucleosintesi del Big Bang, viene prodotto a seguito dell’espansione dell’Universo. Negli anni Ottanta, con l'avvento di spettrografi ad alta risoluzione, è stato possibile misurare l'abbondanza di Li in stelle nane di alone (Spite & Spite 1982). L'abbondanza di Li nelle stelle nane di Popolazione II mostra un valore costante in un ampio intervallo di metallicità e di temperatura effettiva. Tale andamento prende il nome di Plateau di Spite, ed è stato interpretato come una misura dell'abbondanza primordiale dell'elemento. Due decenni dopo la scoperta dello Spite Plateau, grazie alle misurazioni WMAP è stato possibile ottenere i valori delle costanti cosmologiche. Le abbondanze degli elementi leggeri previste dalla cosmologia sono in accordo con quelle misurate, tranne che per il litio. Il valore dello Spite Plateau è infatti inferiore di un fattore 3-4. Tale problema del litio rimane ancora oggi una sfida aperta. Un altro problema aperto riguarda la scoperta del Li-meltdown, ovvero una diminuzione di A(Li) nelle stelle nane con [Fe/H]<-2.5 dex. Nel seguente lavoro sono state studiate stelle nane con metallicità basse, prese da lavori passati. Una volta ottenuto il campione si è lavorato sui dati di Gaia. L'uso di Gaia sulle stelle di alone ha permesso di: lavorare su un campione formato da parametri omogenei e precisi, conoscere lo stato evolutivo delle stelle. Tale lavoro permette per la prima volta di discutere la distribuzione dell'abbondanza di Li nelle stelle nane alla luce del loro stato evolutivo. Il campione di Gaia conferma la presenza del Plateau di Spite con un valore di A(Li)= 2.29 dex, e una caduta dell'abbondanza e un aumento dello scatter per sorgenti [Fe/H]<-2.6 dex (Li meltdown). In particolare, viene dimostrato come il Li meltdown non possa essere spiegato semplicemente come dovuto a stelle binarie o post First Dredge Up.
Resumo:
L’estrema digitalizzazione ha comportato, recentemente, uno stravolgimento totale in vari ambiti come informazione, socializzazione, compravendita e comunicazione. Alcune aziende, come Meta, Amazon, Google ed Apple si sono rese protagoniste di questa rivoluzione, creando dispositivi e sviluppando piattaforme in grado di attirare una quantità elevatissima di utenti e di connettere individui molto distanti tra loro, abbattendo la barriera costituita dalla distanza. Tuttavia, nonostante la loro importanza economico-sociale e il loro impatto globale, queste aziende hanno fatto ricorso, di tanto in tanto, a pratiche scorrette capaci di metterle in una posizione di vantaggio e, dopo averla conseguita, hanno approfittato del loro status per isolarsi ulteriormente dalla pressione concorrenziale di altre aziende. In questa tesi si cercherà di comprendere se la tecnologia possa favorire un ritorno della concorrenza tra piattaforme ed in quale misura.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di derivare la valutazione di un Total Return Swap (TRS) utilizzando la modellistica stocastica che sta alla base dello studio del pricing di derivati finanziari. I contratti di tipo swap, la cui origine è collocata intorno agli anni ’70, prevedono lo scambio di flussi tra due parti, definiti sulla base del sottostante. In particolare, un Total Return Swap è un derivato finanziario che prevede lo scambio periodico di pagamenti definiti rispetto alla gamba di performance del sottostante e alla gamba di interesse. L’elaborato è composto da un’introduzione alle nozioni matematiche preliminari alla costruzione di un modello di mercato utile a derivare il pricing di un derivato (i.e. Teoria di non arbitraggio, esistenza di una misura martingala e le condizioni sotto le quali questa è unica). Nel secondo capitolo, vengono presentate le definizioni finanziarie necessarie alla descrizione di tali prodotti (e.g. Tassi d’interesse spot e Tassi forward). Nel corso della tesi viene presentata una rassegna della modellistica per l’evoluzione dei tassi descritti da dinamiche di volta in volta più complesse, e.g. Modello di Vasicek, modello di Dothan e approccio di Heath-Jarrow-Morton (HJM). In tale contesto, sono state derivate le formule di valutazione ad Accrual e a Net Present Value (NPV) per il TRS sfruttando la teoria di non arbitraggio, la cui principale differenza diviene dal considerare o meno l’attualizzazione tramite il fattore di sconto stocastico dei flussi di cassa previsti tra le due parti del contratto. Nell’ultimo capitolo, viene presentata un’analisi delle due modalità di pricing effettuata su due TRS rispettivamente su basket di azioni e basket di indici.