334 resultados para Doru lineare
Resumo:
Il presente lavoro di tesi si inserisce all'interno di uno studio dal titolo: "Strategia di posizionamento multi-step come approccio pragmatico per ridurre il rischio di encefalopatia epatica post-TIPS (shunt trans-giugulare porto-sistemico intraepatico) in pazienti cirrotici con ascite refrattaria". Il progetto di tesi si è concentrato sull'analisi dei segnali ottenuti tramite DCE MRI, con lo scopo di implementare in ambiente MatLab due modelli differenti (Dual input - Mono compartment e Dual input - Dual compartment) che descrivono la cinetica del tracciante all'interno del sistema vascolare epatico e valutare l'efficacia dei parametri di perfusione associati nella descrizione delle variazioni in termini di microcircolazione introdotte dall'inserimento del TIPS. Inizialmente si sono voluti valutare, tramite simulazione, gli effetti in termini di amplificazione del rumore e stima dei parametri perfusionali dell'approssimazione lineare nella conversione da intensità di segnale MR a concentrazione di mezzo di contrasto. Successivamente, sempre attraverso simulazioni, per entrambi i modelli considerati è stato scelto uno schema di model-fitting e quindi testata l'affidabilità in termini di accuratezza e precisione delle stime dei parametri ottenute in funzione del livello di rumore associato alle curve di intensità di segnale. Parallelamente all'implementazione dei modelli per la stima di parametri di perfusione, sono stati realizzati dei phantom con l'obiettivo di simulare il parenchima epatico prima e dopo l'arrivo del mezzo di contrasto e poter testare la sequenza utilizzata durante l'acquisizione dei dati su paziente. Infine sono stati considerati gli esami di DCE MRI effettuati su un campione di nove pazienti pre e post-TIPS, utilizzando per l'analisi dei segnali entrambi i modelli implementati in fase di simulazione e successivamente valutando le variazioni nel valori associati ai parametri di perfusione introdotte dall'inserimento del TIPS.
Resumo:
L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.
Resumo:
In questo lavoro di tesi si studia un processo sperimentale necessario alla realizza- zione di un esperimento di Fisica Atomica. L’attivit`a svolta consiste nell’ottimizzazione dei paramentri di un algoritmo di con- trollo PI (proporzionale-integrale) atto a stabilizzare la temperatura di un Diodo Laser entro 1mK. Nella branca dell’Ottica Non Lineare (dove la polarizzazione del mezzo ha una rispo- sta non lineare al campo elettrico) si possono presentare casi in cui la birifrangenza del mezzo ha una forte dipendenza dalla temperatura. Questa pu o ` essere control- lata per il raggiungimento delle condizioni di phase matching. Le fluttuazioni di temperatura possono minare tramite la dilatazione termica la precisione di una ca- vit`a Fabry-Perot, utilizzata per controllare e misurare la lunghezza d’onda della luce, dato che nominalmente ∆ν/ν = − ∆L/L. Negli esperimenti di Laser Cooling infi- ne si lavora spesso con transizioni la cui larghezza naturale Γ ∼ 1MHz , mentre la frequenza di un laser pu o ́ dipendere dalla temperatura con coefficienti tipicamente dell’ordine del GHz/K. Questa stabilizzazione risulta dunque fondamentale per una vasta classe di esperi- menti nei quali le derive termiche possono influenzare drammaticamente il processo di misura. La tesi, in particolare, si apre con un capitolo nel quale si tratta brevemente il con- testo matematico di riferimento per i sistemi di controllo a retroazione. Tra questi e ` di particolare interesse la regolazione proporzionale-integrale. Il secondo capitolo si concentra sulla caratterizzazione del sistema in oggetto al fine di trovare la sua funzione di trasferimento ad anello aperto. Nel terzo capitolo infine, si utilizzano gli strumenti matematici descritti precedente- mente per ottimizzare i parametri del regolatore e si discutono i risultati ottenuti e le misure finali.
Resumo:
L’obiettivo della tesi è l’integrazione di alcuni dispositivi AVL e di un motore elettrico passo-passo lineare all’interno di un sistema di controllo e acquisizione dati per una sala prova motori. La sala prove in cui è svolto il lavoro è quella del laboratorio Hangar del Dipartimento di Ingegneria Industriale di Forlì. Inizialmente viene proposta una breve descrizione della sala prove; essa è divisa in una parte hardware, in cui vengono spiegati i principali device utilizzati per il controllo, e in una parte software, in cui vengono descritti i programmi utilizzati (LabView e TestIT). Successivamente, i capitoli centrali, si occuperanno dei componenti AVL e del motore lineare utilizzati in sala. Per quanto riguarda AVL i dispositivi da integrare sono la bilancia per il carburante 733s e lo smoke meter 415s. Si traccia quindi una descrizione degli impianti e si indicano i principi operativi. Entrambi sfruttano il linguaggio seriale, quindi si procede con la creazioni di un’interfaccia grafica in grado di convertire i comandi desiderati dall’utente in codice ASCII. Allo stesso modo viene affrontato il motore lineare NEMA. In questo caso il dialogo avviene tramite una connessione Ethernet. La parte centrale si conclude con un capitolo nel quale si spiega l’introduzione dei VI all’interno di TestIT e le problematiche che ne possono scaturire. Nell’appendice finale saranno descritte brevemente le connessioni pratiche e gli interventi di progettazione avvenuti per organizzare il rack.
Resumo:
In questa tesi si vuole fornire una descrizione generale dei principali parametri cosmologici e di come questi possano essere determinati attraverso osservazioni. In particolare saremo interessati alla natura dei parametri di densità, che hanno un ruolo fondamentale nella geometria dell'Universo, e al parametro di Hubble, che stabilisce una relazione lineare tra la distanza e la velocità di recessione, garantisce quindi una legge generale di espansione per l'Universo.
Resumo:
Il presente elaborato finale ha l’obiettivo di effettuare una ricerca, un’analisi e una catalogazione in glossari dei germanismi all’interno della lingua slovacca, la quale presenta all’incirca tremila termini provenienti dalle lingue germano-tedesche. Sulla base del lavoro svolto precedentemente da numerosi linguisti slovacchi (tra cui Petrovič, Žilová, Adamcová, Dolník, Decsy, Habovštiak, Habovštiaková, Žigo, Múcsková, Blanár, Doruľa, Palkovič, Papsonová, Kozmová) e altri linguisti germanofoni e ungheresi (tra cui Ziegler, Greule, Meier, Toth, Rudolf, Muhr) è stato raccolto il materiale fondamentale per la stesura della presente tesi di laurea. Tuttavia l’opera che getta le basi per l’analisi è Sprachontakte Deutsch - Tschechisch - Slowakisch dello slavista e professore presso l’Università di Vienna Stephan Michael Newerkla, il quale ha stilato un vero e proprio dizionario dei germanismi presenti nello slovacco e nel ceco suddividendoli in categorie temporali, a cominciare dal gotico per finire con il nuovo tedesco standard. All’interno della sua opera l’autore austriaco ha inserito anche le parole che solo presumibilmente o secondo alcuni precedenti linguisti avrebbero origine germanica e i termini la cui presunta provenienza dal tedesco è stata riconosciuta come erronea; nel presente elaborato sono state prese in considerazione invece solo le parole di certa origine tedesca. Le parole sono state selezionate e suddivise in quattordici categorie semantico-lessicali: 1. Industria mineraria, utensili, numismatica e minerali, 2. Edifici, locali e arredamento, 3. Tessuti e stoffe, 4. Strumenti musicali, 5. Vestiti, 6. Alimentari e consumo, 7. Termini bellici, 8. Persone e funzioni, 9. Piante ed elementi chimici, 10. Religione e costumi, 11. Animali e le loro parti del corpo, 12. Verbi, 13. Aggettivi, 14. Parole rimanenti In ogni singolo glossario vi sono tre colonne: nella prima si trova il termine slovacco accompagnato dalla sua definizione, nella seconda vi è la traduzione della parola in italiano e nella terza il significato e la spiegazione dell’origine in tedesco. Al presente elaborato viene allegato un appendice finale in cui sono riportati in ordine alfabetico tutti i germanismi analizzati assieme a quelli non più in uso.
Resumo:
In questo elaborato si presentano alcuni risultati relativi alle equazioni differenziali stocastiche (SDE) lineari. La soluzione di un'equazione differenziale stocastica lineare è un processo stocastico con distribuzione multinormale in generale degenere. Al contrario, nel caso in cui la matrice di covarianza è definita positiva, la soluzione ha densità gaussiana Γ. La Γ è inoltre la soluzione fondamentale dell'operatore di Kolmogorov associato alla SDE. Nel primo capitolo vengono presentate alcune condizioni necessarie e sufficienti che assicurano che la matrice di covarianza sia definita positiva nel caso, più semplice, in cui i coefficienti della SDE sono costanti, e nel caso in cui questi sono dipendenti dal tempo. A questo scopo gioca un ruolo fondamentale la teoria del controllo. In particolare la condizione di Kalman fornisce un criterio operativo per controllare se la matrice di covarianza è definita positiva. Nel secondo capitolo viene presentata una dimostrazione diretta della disuguaglianza di Harnack utilizzando una stima del gradiente dovuta a Li e Yau. Le disuguaglianze di Harnack sono strumenti fondamentali nella teoria delle equazioni differenziali a derivate parziali. Nel terzo capitolo viene proposto un esempio di applicazione della disuguaglianza di Harnack in finanza. In particolare si osserva che la disuguaglianza di Harnack fornisce un limite superiore a priori del valore futuro di un portafoglio autofinanziante in funzione del capitale iniziale.
Resumo:
Lo scopo di questa tesi è di offrire una descrizione dei corpi rigidi in movimento, sfruttando il concetto di velocità angolare istantanea e di operatore lineare d'inerzia, i cui autovalori e autovettori consentono di definire l'ellissoide d'inerzia del corpo da cui si possono ricavare più facilmente alcune delle caratteristiche del sistema. Infine si riporta un esempio notevole di corpo rigido, la trottola di Lagrange.
Resumo:
La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.
Resumo:
La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
Nella presente Tesi è affrontata l’analisi sperimentale e teorica del comportamento di pareti in muratura rinforzate con FRCM e sollecitate da azioni di taglio fuori piano. Lo schema statico adottato per i campioni sperimentati consiste in uno schema appoggio-appoggio, mentre le forze esterne di taglio sono state applicate secondo uno schema di carico a quattro punti. Durante il corso della prova, i pannelli murari sono inoltre stati soggetti ad un carico di precompressione verticale costante, che simula l’effetto della presenza del solaio in un edificio in muratura. Dopo una descrizione teorica delle principali caratteristiche dei materiali compositi e dei loro costituenti, all’interno della Tesi sono richiamati alcuni studi scientifici relativi al comportamento fuori piano di elementi strutturali rinforzati con FRCM. In seguito vengono presentati i materiali impiegati per la campagna sperimentale e le prove di caratterizzazione meccanica eseguite. Vengono poi riportati i risultati sperimentali delle prove a taglio fuori piano in termini di spostamenti, di deformazioni e di scorrimenti, affrontando infine un confronto tra i risultati ottenuti per i campioni esaminati e riportando alcune considerazioni circa la strumentazione impiegata. L’ultima parte della Tesi è dedicata all’analisi teorica delle pareti. Viene proposto un modello teorico per stimare la resistenza fornita dai muri rinforzati, ipotizzando tre possibili modalità di rottura: rottura a trazione della fibra, rottura per distacco tra FRCM e supporto in muratura e rottura per delaminazione interna. Infine, viene riportata la modellazione agli elementi finiti svolta mediante il codice di calcolo MidasFea, che consente di attribuire ai materiali legami costitutivi adeguati per la modellazione di strutture in muratura, cogliendone il comportamento non lineare e il progressivo danneggiamento.
Resumo:
In questa tesi viene analizzato un problema di ottimizzazione proposto da alcuni esercizi commerciali che hanno la necessita` di selezionare e disporre i propri ar- ticoli in negozio. Il problema nasce dall’esigenza di massimizzare il profitto com- plessivo atteso dei prodotti in esposizione, trovando per ognuno una locazione sugli scaffali. I prodotti sono suddivisi in dipartimenti, dai quali solo un ele- mento deve essere selezionato ed esposto. In oltre si prevede la possibilita` di esprimere vincoli sulla locazione e compatibilita` dei prodotti. Il problema risul- tante `e una generalizzazione dei gia` noti Multiple-Choice Knapsack Problem e Multiple Knapsack Problem. Dopo una ricerca esaustiva in letteratura si `e ev- into che questo problema non `e ancora stato studiato. Si `e quindi provveduto a formalizzare il problema mediante un modello di programmazione lineare intera. Si propone un algoritmo esatto per la risoluzione del problema basato su column generation e branch and price. Sono stati formulati quattro modelli differenti per la risoluzione del pricing problem su cui si basa il column generation, per individuare quale sia il piu` efficiente. Tre dei quattro modelli proposti hanno performance comparabili, mentre l’ultimo si `e rivelato piu` inefficiente. Dai risul- tati ottenuti si evince che il metodo risolutivo proposto `e adatto a istanze di dimensione medio-bassa.
Resumo:
In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.
Resumo:
Il presente lavoro di tesi riguarda lo studio e l'impiego di architetture neurali profonde (nello specifico stacked denoising auto-encoder) per la definizione di un modello previsionale di serie temporali. Il modello implementato è stato applicato a dati industriali riguardanti un impianto fotovoltaico reale, per effettuare una predizione della produzione di energia elettrica sulla base della serie temporale che lo caratterizza. I risultati ottenuti hanno evidenziato come la struttura neurale profonda contribuisca a migliorare le prestazioni di previsione di strumenti statistici classici come la regressione lineare multipla.