148 resultados para Doru lineare
Resumo:
La statistica è un ramo della matematica che studia i metodi per raccogliere, organizzare e analizzare un insieme di dati numerici, la cui variazione è influenzata da cause diverse, con lo scopo sia di descrivere le caratteristiche del fenomeno a cui i dati si riferiscono, sia di dedurre, ove possibile, le leggi generali che lo regolano. La statistica si suddivide in statistica descrittiva o deduttiva e in statistica induttiva o inferenza statistica. Noi ci occuperemo di approfondire la seconda, nella quale si studiano le condizioni per cui le conclusioni dedotte dall'analisi statistica di un campione sono valide in casi più generali. In particolare l'inferenza statistica si pone l'obiettivo di indurre o inferire le proprietà di una popolazione (parametri) sulla base dei dati conosciuti relativi ad un campione. Lo scopo principale di questa tesi è analizzare il Teorema di Cochran e illustrarne le possibili applicazioni nei problemi di stima in un campione Gaussiano. In particolare il Teorema di Cochran riguarda un'importante proprietà delle distribuzioni normali multivariate, che risulta fondamentale nella determinazione di intervalli di fiducia per i parametri incogniti.
Resumo:
In questa tesi viene esposto il modello EU ETS (European Union Emission Trading Scheme) per la riduzione delle emissoni di gas serra, il quale viene formalizzato matematicamente da un sistema di FBSDE (Forward Backward Stochastic Differential Equation). Da questo sistema si ricava un'equazione differenziale non lineare con condizione al tempo finale non continua che viene studiata attraverso la teoria delle soluzioni viscosità. Inoltre il modello viene implementato numericamente per ottenere alcune simulazioni dei processi coinvolti.
Resumo:
Il lavoro svolto per questa tesi è stato effettuato presso il reparto di Fisica Medica dell’Ospedale Bellaria di Bologna, e ha lo scopo di mettere in evidenza l’efficacia dell’utilizzo di pellicole Gafchromic EBT3 nei controlli di qualità effettuati sull’acceleratore lineare LINAC SynergyS per radioterapia a fasci esterni. L’utilizzo continuo e prolungato dell’acceleratore durante i trattamenti radianti può causare nel tempo una perdita della calibrazione iniziale dei suoi componenti meccanici e dosimetrici: per questo è necessario controllarne periodicamente lo stato di funzionamento. Lo scopo dei controlli di qualità è quindi quello di verificare che tale fenomeno non sia avvenuto, per garantire precisione e sicurezza durante l’irradiazione del paziente (essenziale per i trattamenti ad alta precisione come l’IMRT e il VMAT), richiedendo che il fascio erogato colpisca il tessuto malato e riducendo al minimo l’errore per evitare il danneggiamento dei tessuti sani circostanti. I test effettuati sull’acceleratore lineare rientrano nel programma di assicurazione di qualità elaborato ed implementato a cura dei reparti di Fisica Medica e Radioterapia dell' Ospedale Bellaria di Bologna. Tale programma di assicurazione di qualità, è attuato per garantire che i risultati dei test rientrino nelle tolleranze meccaniche e dosimetriche previste dal protocollo dei controlli di qualità per le prove di stato e periodiche sull’acceleratore lineare in vigore all' AUSL di Bologna. In particolare in questo lavoro di tesi sono state effettuate prove dosimetriche, quali la verifica dell’omogeneità e della simmetria del fascio radiante, e prove meccaniche quali la verifica della corrispondenza tra isocentro meccanico ed isocentro radiante. Per queste verifiche sperimentali sono state utilizzate le pellicole radiocromiche Gafchromic EBT3; si tratta di dosimetri bidimensionali particolarmente adatti alla verifica dei trattamenti ad intensità modulata (IMRT, VMAT) che consentono un’accurata stima della distribuzione e dei gradienti di dose assorbita. L'utilizzo delle pellicole Gafchromic EBT3 insieme al software FilmQA Pro si è rivelato uno strumento dosimetrico preciso, accurato e pratico per effettuare i controlli di qualità di base su un acceleratore lineare per radioterapia.
Resumo:
La Ricerca Operativa è considerata una disciplina universitaria il cui insegnamento è previsto nei corsi di laurea di Ingegneria, Matematica e Informatica. Da qualche anno si è verificata una tendenza ad anticipare l'insegnamento della Ricerca Operativa ad un grado scolastico inferiore. In Gran Bretagna e negli Stati Uniti sono presenti organizzazioni molto attive nell'ambito della sua divulgazione e sono nati progetti importanti a livello didattico: corsi di formazione per i docenti, condivisione in rete di materiali e report delle esperienze effettuate. A partire dal 2012 anche nelle indagini internazionali OCSE-PISA si sono aggiunte due aree i cui obiettivi e contenuti si avvicinano alla Ricerca Operativa: financial literacy e problem solving. In Italia, dopo la riforma governativa Gelmini del 2008, sono presenti elementi di Ricerca Operativa solo nei programmi di matematica del quinto anno degli istituti tecnici commerciali e industriali. Tuttavia la Ricerca Operativa può svolgere un ruolo fondamentale nella formazione scientifica, innanzitutto per il suo ruolo di "ponte" tra la matematica e l'informatica, poi per l'importanza dello sviluppo della modellizzazione e per l'interdisciplinarietà della materia e lo stretto contatto con il mondo del lavoro. Inoltre, le esperienze documentate di didattica della Ricerca Operativa hanno potuto verificare l'importante ruolo motivazionale che possiede nei confronti degli studenti meno amanti della matematica. In questo lavoro di tesi si è interrogata la fattibilità di un percorso di Ricerca Operativa per una classe seconda liceo scientifico (anno in cui vengono svolte le indagini internazionali). Viene poi presentata la costruzione di una lezione di Programmazione Lineare che prevede una prima fase di modellizzazione del problema e una seconda fase di soluzione tramite il solutore di excel in laboratorio.
Resumo:
Il presente lavoro di tesi si inserisce all'interno di uno studio dal titolo: "Strategia di posizionamento multi-step come approccio pragmatico per ridurre il rischio di encefalopatia epatica post-TIPS (shunt trans-giugulare porto-sistemico intraepatico) in pazienti cirrotici con ascite refrattaria". Il progetto di tesi si è concentrato sull'analisi dei segnali ottenuti tramite DCE MRI, con lo scopo di implementare in ambiente MatLab due modelli differenti (Dual input - Mono compartment e Dual input - Dual compartment) che descrivono la cinetica del tracciante all'interno del sistema vascolare epatico e valutare l'efficacia dei parametri di perfusione associati nella descrizione delle variazioni in termini di microcircolazione introdotte dall'inserimento del TIPS. Inizialmente si sono voluti valutare, tramite simulazione, gli effetti in termini di amplificazione del rumore e stima dei parametri perfusionali dell'approssimazione lineare nella conversione da intensità di segnale MR a concentrazione di mezzo di contrasto. Successivamente, sempre attraverso simulazioni, per entrambi i modelli considerati è stato scelto uno schema di model-fitting e quindi testata l'affidabilità in termini di accuratezza e precisione delle stime dei parametri ottenute in funzione del livello di rumore associato alle curve di intensità di segnale. Parallelamente all'implementazione dei modelli per la stima di parametri di perfusione, sono stati realizzati dei phantom con l'obiettivo di simulare il parenchima epatico prima e dopo l'arrivo del mezzo di contrasto e poter testare la sequenza utilizzata durante l'acquisizione dei dati su paziente. Infine sono stati considerati gli esami di DCE MRI effettuati su un campione di nove pazienti pre e post-TIPS, utilizzando per l'analisi dei segnali entrambi i modelli implementati in fase di simulazione e successivamente valutando le variazioni nel valori associati ai parametri di perfusione introdotte dall'inserimento del TIPS.
Resumo:
L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.
Resumo:
In questo lavoro di tesi si studia un processo sperimentale necessario alla realizza- zione di un esperimento di Fisica Atomica. L’attivit`a svolta consiste nell’ottimizzazione dei paramentri di un algoritmo di con- trollo PI (proporzionale-integrale) atto a stabilizzare la temperatura di un Diodo Laser entro 1mK. Nella branca dell’Ottica Non Lineare (dove la polarizzazione del mezzo ha una rispo- sta non lineare al campo elettrico) si possono presentare casi in cui la birifrangenza del mezzo ha una forte dipendenza dalla temperatura. Questa pu o ` essere control- lata per il raggiungimento delle condizioni di phase matching. Le fluttuazioni di temperatura possono minare tramite la dilatazione termica la precisione di una ca- vit`a Fabry-Perot, utilizzata per controllare e misurare la lunghezza d’onda della luce, dato che nominalmente ∆ν/ν = − ∆L/L. Negli esperimenti di Laser Cooling infi- ne si lavora spesso con transizioni la cui larghezza naturale Γ ∼ 1MHz , mentre la frequenza di un laser pu o ́ dipendere dalla temperatura con coefficienti tipicamente dell’ordine del GHz/K. Questa stabilizzazione risulta dunque fondamentale per una vasta classe di esperi- menti nei quali le derive termiche possono influenzare drammaticamente il processo di misura. La tesi, in particolare, si apre con un capitolo nel quale si tratta brevemente il con- testo matematico di riferimento per i sistemi di controllo a retroazione. Tra questi e ` di particolare interesse la regolazione proporzionale-integrale. Il secondo capitolo si concentra sulla caratterizzazione del sistema in oggetto al fine di trovare la sua funzione di trasferimento ad anello aperto. Nel terzo capitolo infine, si utilizzano gli strumenti matematici descritti precedente- mente per ottimizzare i parametri del regolatore e si discutono i risultati ottenuti e le misure finali.
Resumo:
L’obiettivo della tesi è l’integrazione di alcuni dispositivi AVL e di un motore elettrico passo-passo lineare all’interno di un sistema di controllo e acquisizione dati per una sala prova motori. La sala prove in cui è svolto il lavoro è quella del laboratorio Hangar del Dipartimento di Ingegneria Industriale di Forlì. Inizialmente viene proposta una breve descrizione della sala prove; essa è divisa in una parte hardware, in cui vengono spiegati i principali device utilizzati per il controllo, e in una parte software, in cui vengono descritti i programmi utilizzati (LabView e TestIT). Successivamente, i capitoli centrali, si occuperanno dei componenti AVL e del motore lineare utilizzati in sala. Per quanto riguarda AVL i dispositivi da integrare sono la bilancia per il carburante 733s e lo smoke meter 415s. Si traccia quindi una descrizione degli impianti e si indicano i principi operativi. Entrambi sfruttano il linguaggio seriale, quindi si procede con la creazioni di un’interfaccia grafica in grado di convertire i comandi desiderati dall’utente in codice ASCII. Allo stesso modo viene affrontato il motore lineare NEMA. In questo caso il dialogo avviene tramite una connessione Ethernet. La parte centrale si conclude con un capitolo nel quale si spiega l’introduzione dei VI all’interno di TestIT e le problematiche che ne possono scaturire. Nell’appendice finale saranno descritte brevemente le connessioni pratiche e gli interventi di progettazione avvenuti per organizzare il rack.
Resumo:
In questa tesi si vuole fornire una descrizione generale dei principali parametri cosmologici e di come questi possano essere determinati attraverso osservazioni. In particolare saremo interessati alla natura dei parametri di densità, che hanno un ruolo fondamentale nella geometria dell'Universo, e al parametro di Hubble, che stabilisce una relazione lineare tra la distanza e la velocità di recessione, garantisce quindi una legge generale di espansione per l'Universo.
Resumo:
Il presente elaborato finale ha l’obiettivo di effettuare una ricerca, un’analisi e una catalogazione in glossari dei germanismi all’interno della lingua slovacca, la quale presenta all’incirca tremila termini provenienti dalle lingue germano-tedesche. Sulla base del lavoro svolto precedentemente da numerosi linguisti slovacchi (tra cui Petrovič, Žilová, Adamcová, Dolník, Decsy, Habovštiak, Habovštiaková, Žigo, Múcsková, Blanár, Doruľa, Palkovič, Papsonová, Kozmová) e altri linguisti germanofoni e ungheresi (tra cui Ziegler, Greule, Meier, Toth, Rudolf, Muhr) è stato raccolto il materiale fondamentale per la stesura della presente tesi di laurea. Tuttavia l’opera che getta le basi per l’analisi è Sprachontakte Deutsch - Tschechisch - Slowakisch dello slavista e professore presso l’Università di Vienna Stephan Michael Newerkla, il quale ha stilato un vero e proprio dizionario dei germanismi presenti nello slovacco e nel ceco suddividendoli in categorie temporali, a cominciare dal gotico per finire con il nuovo tedesco standard. All’interno della sua opera l’autore austriaco ha inserito anche le parole che solo presumibilmente o secondo alcuni precedenti linguisti avrebbero origine germanica e i termini la cui presunta provenienza dal tedesco è stata riconosciuta come erronea; nel presente elaborato sono state prese in considerazione invece solo le parole di certa origine tedesca. Le parole sono state selezionate e suddivise in quattordici categorie semantico-lessicali: 1. Industria mineraria, utensili, numismatica e minerali, 2. Edifici, locali e arredamento, 3. Tessuti e stoffe, 4. Strumenti musicali, 5. Vestiti, 6. Alimentari e consumo, 7. Termini bellici, 8. Persone e funzioni, 9. Piante ed elementi chimici, 10. Religione e costumi, 11. Animali e le loro parti del corpo, 12. Verbi, 13. Aggettivi, 14. Parole rimanenti In ogni singolo glossario vi sono tre colonne: nella prima si trova il termine slovacco accompagnato dalla sua definizione, nella seconda vi è la traduzione della parola in italiano e nella terza il significato e la spiegazione dell’origine in tedesco. Al presente elaborato viene allegato un appendice finale in cui sono riportati in ordine alfabetico tutti i germanismi analizzati assieme a quelli non più in uso.
Resumo:
In questo elaborato si presentano alcuni risultati relativi alle equazioni differenziali stocastiche (SDE) lineari. La soluzione di un'equazione differenziale stocastica lineare è un processo stocastico con distribuzione multinormale in generale degenere. Al contrario, nel caso in cui la matrice di covarianza è definita positiva, la soluzione ha densità gaussiana Γ. La Γ è inoltre la soluzione fondamentale dell'operatore di Kolmogorov associato alla SDE. Nel primo capitolo vengono presentate alcune condizioni necessarie e sufficienti che assicurano che la matrice di covarianza sia definita positiva nel caso, più semplice, in cui i coefficienti della SDE sono costanti, e nel caso in cui questi sono dipendenti dal tempo. A questo scopo gioca un ruolo fondamentale la teoria del controllo. In particolare la condizione di Kalman fornisce un criterio operativo per controllare se la matrice di covarianza è definita positiva. Nel secondo capitolo viene presentata una dimostrazione diretta della disuguaglianza di Harnack utilizzando una stima del gradiente dovuta a Li e Yau. Le disuguaglianze di Harnack sono strumenti fondamentali nella teoria delle equazioni differenziali a derivate parziali. Nel terzo capitolo viene proposto un esempio di applicazione della disuguaglianza di Harnack in finanza. In particolare si osserva che la disuguaglianza di Harnack fornisce un limite superiore a priori del valore futuro di un portafoglio autofinanziante in funzione del capitale iniziale.
Resumo:
Lo scopo di questa tesi è di offrire una descrizione dei corpi rigidi in movimento, sfruttando il concetto di velocità angolare istantanea e di operatore lineare d'inerzia, i cui autovalori e autovettori consentono di definire l'ellissoide d'inerzia del corpo da cui si possono ricavare più facilmente alcune delle caratteristiche del sistema. Infine si riporta un esempio notevole di corpo rigido, la trottola di Lagrange.
Resumo:
La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.
Resumo:
La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.