383 resultados para Doru lineare


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro è incentrato sulla pianificazione delle acquizioni e scaricamento del satellite PLATiNO. Le operazioni permesse a questo satellite sono vincolate da varie attività tra cui acquisizioni, manovre e scaricamento di dati. L'obiettivo finale è quello di soddisfare più richieste possibili massimizzando le operazioni del satellite senza però violare i vincoli imposti. A questo scopo, è stato sviluppato un modello in formulazione MILP per una versione rilassata del problema. In questa Tesi vengono innanzitutto trattati i principali argomenti di programmazione lineare e intera in modo da poter affrontare il modello matematico inerente al problema di downlink di PLATiNO. Successivamente viene descritto nel dettaglio il problema da modellizzare, con particolare attenzione alla strategia di downlink, che costituisce l'aspetto più problematico nella costruzione del modello. Si opta, infatti, per una formulazione mista rilassando i vincoli inerenti allo scaricamento dei dati. Infine, vengono valutate le prestazioni del modello rilassato confrontandolo con la sua versione esatta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I contenuti principali trattati in questa tesi sono stati ispirati da due lavori presentati nel corso dello scorso decennio. Il primo lavoro, pubblicato nel 2013 da O. A. Manita e S. V. Shaposhnikov, presenta un nuovo risultato di esistenza di soluzioni, nel senso delle distribuzioni, che siano misure di probabilità per PDE paraboliche non lineari del primo e secondo ordine. Vengono fornite condizioni sufficienti per l’esistenza locale e globale di tale tipo di soluzioni per il problema di Cauchy associato a tali equazioni. Equazioni di tale tipo compaiono in maniera del tutto naturale in diversi ambiti applicativi, fra cui la finanza matematica. Nel lavoro presentato da G. Tataru e T. Fisher per Bloomberg nel 2010, viene proposto un modello stocastico per la modellazione del tasso di cambio di valuta estera al fine di prezzare dei particolari tipi di opzione, le opzioni a barriera, con le quali modelli più classici faticano maggiormente. Nella calibrazione di tale modello, per "fittare" il modello ai prezzi delle opzioni scambiate sul mercato, sorge il problema di risolvere un’equazione alle derivate parziali parabolica non lineare integro-differenziale e che dunque appartiene alla classe di PDE citata precedentemente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questo studio è quello di valutare la stabilità foto-ossidativa di oli vegetali esposti a luce ultravioletta di bassa intensità per tempi brevi (da 5 min a 8 ore); lo scopo è quello di monitorare le prime fasi di ossidazione. Per la realizzazione di questo studio, è stato messo a punto un sistema di foto-ossidazione al fine di poter adottare condizioni di analisi le più ripetibili possibili e al fine di poter escludere il possibile effetto della temperatura. I campioni di olio analizzati nel presente lavoro di ricerca, tre oli raffinati e un olio extravergine di oliva, sono stati posti in provette di vetro trasparente da 20 ml, caricati poi all’interno della camera di ossidazione in gruppi di quattro e lasciati sotto l’effetto della luce ultravioletta per diversi tempi ovvero 0, 5, 10, 20, 30, 60, 240 e 480 minuti. Sono stati presi in considerazione i seguenti parametri qualitativi di analisi per valutare lo stato ossidativo dei nostri campioni, e cioè il numero di perossido, la concentrazione di esanale e il valore di p-anisidina. Dai risultati ottenuti è stato possibile osservare che complessivamente, a livelli di insaturazione e di presenza di antiossidanti naturali differenti, l’impatto dell’esposizione alla luce è stato piuttosto simile. I tre oli raffinati hanno mostrato valori ossidativi più contenuti, mentre per l’olio EVO sono state rilevate concentrazioni più alte sia per i perossidi che per l’esanale. Questo è dovuto alla presenza di alcuni composti ad azione pro-ossidante e composti aromatici che permangono nel prodotto in quanto questo olio non subisce il processo di raffinazione. La p-anisidina per tutte e quattro gli oli testati è rimasta piuttosto costante e lineare nel tempo senza subire considerevoli variazioni. Questo sottolinea il fatto che le condizioni di stress foto-ossidativo impiegate non sono state sufficienti a determinare un aumento significativo dei prodotti di ossidazione secondaria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’argomento di questa tesi nasce dall’idea di unire due temi che stanno assumendo sempre più importanza nei nostri giorni, ovvero l’economia circolare e i big data, e ha come obiettivo quello di fornire dei punti di collegamento tra questi due. In un mondo tecnologico come quello di oggi, che sta trasformando tutto quello che abbiamo tra le nostre mani in digitale, si stanno svolgendo sempre più studi per capire come la sostenibilità possa essere supportata dalle tecnologie emergenti. L’economia circolare costituisce un nuovo paradigma economico in grado di sostituirsi a modelli di crescita incentrati su una visione lineare, puntando ad una riduzione degli sprechi e ad un radicale ripensamento nella concezione dei prodotti e nel loro uso nel tempo. In questa transizione verso un’economia circolare può essere utile considerare di assumere le nuove tecnologie emergenti per semplificare i processi di produzione e attuare politiche più sostenibili, che stanno diventando sempre più apprezzate anche dai consumatori. Il tutto verrà sostenuto dall’utilizzo sempre più significativo dei big data, ovvero di grandi dati ricchi di informazioni che permettono, tramite un’attenta analisi, di sviluppare piani di produzione che seguono il paradigma circolare: questo viene attuato grazie ai nuovi sistemi digitali sempre più innovativi e alle figure specializzate che acquisiscono sempre più conoscenze in questo campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le equazioni alle derivate parziali lineari (PDE’s) hanno un ruolo centrale in molte applicazioni di tipo scientifico, ingegneristico, medico, finanziario e sociale. È necessario, per questo motivo, avere metodi robusti che permettano di approssimare soluzioni di classi di PDE’s. Nell’ambito dei problemi lineari ellittici stazionari, una delle procedure comunemente utilizzate consiste nel discretizzare l’equazione differenziale mediante l’approssimazione delle derivate con differenze finite nel dominio considerato, e risolvere il sistema lineare algebrico risultante. Lo scopo dell’elaborato è studiare la dipendenza della convergenza del metodo dei Gradienti Coniugati dal parametro di discretizzazione per problemi ellittici autoaggiunti. Studieremo inoltre accelerazioni del metodo di tipo “Operator preconditioning”, che permettono di rendere l’algoritmo indipendente da tale parametro di discretizzazione in termini di numero di iterazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il guadagno di un PMT è il fattore di amplificazione tra la corrente generata dal fotocatodo e quella finale dell’anodo. Quando un PMT è soggetto a una sorgente luminosa per lunghi periodi di tempo (processo noto come "invecchiamento"), il suo guadagno tende a diminuire. In questa tesi sono riportati i risultati della campagna di invecchiamento di un fotomoltiplicatore Hamamatsu R760. In particolare, è stato studiato come variasse il guadagno in funzione della carica integrata dal PMT tramite due principali tipi di misure: quella del guadagno assoluto, che consiste in singole misure di guadagno nella condizione di emissione di un singolo fotoelettrone alla volta, e quelle di guadagno relativo, le quali hanno permesso di studiare la dipendenza tra guadagno e voltaggio applicato al PMT. Il PMT in esame è stato fatto invecchiare fino a una carica integrata totale pari a 342 C. Una volta raggiunti i 282 C, è stato spento per 20 giorni, in modo da studiare l’eventuale capacità di recuperare guadagno durante i periodi di inattività. É stata osservata una rapida decrescita del guadagno nei primi 40 C integrati, com- inciando da 7.79 · 10^6 fino a un valore pari a 1.68 · 10^6, seguita da oscillazioni minori attorno a una decrescita lineare media. Dopo il periodo di inattività non è stato rilevato alcun recupero significativo di guadagno. Il guadagno del PMT dipende dal voltaggio applicato tramite una legge a potenza, i cui parametri sono stati misurati. In particolare, gli esponenti di tale relazione sono stati soggetti a una decrescita rapida iniziale (nei primi 40 C di carica integrata), seguita da una stabilizzazione. Inoltre, sono stati ricavati i valori di tensione da applicare al PMT per mantenere il guadagno a un valore costante di 1.5 · 10^5 in funzione della carica integrata. Questo valore è stato scelto come punto di lavoro per il rivelatore PLUME installato nell’esperimento LHCb, che utilizzerà questo tipo di PMT per la sua campagna di misure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I grandi invasi artificiali e le opere idrauliche ad essi connesse rappresentano al giorno d’oggi una delle principali fonti di approvvigionamento idrico. Nel corso degli ultimi decenni, sono stati oggetto di discussione riguardo le problematiche che comportano nei territori in cui sono localizzati, legate soprattutto allo spopolamento e alla delocalizzazione delle attività antropiche nelle zone immediatamente limitrofe all’opera. Un'altra tematica sempre più discussa negli ultimi tempi è la distribuzione della risorsa idrica immagazzinata in tali invasi, e i diversi effetti sulle dinamiche antropiche che tali opere causano nelle zone a monte e a valle di esse. L’obiettivo dello studio, svolto su una popolazione di 313 dighe ad utilizzo acquedottistico localizzate negli Stati Uniti d’America, è stimare tali effetti, attraverso un’analisi comparativa dell’evoluzione spazio-temporale della densità abitativa nelle due unità territoriali considerate (zone poste a monte e a valle della diga) e verificare se le dighe possono quindi essere considerate o meno degli attrattori di popolazione. L’analisi ha previsto l’individuazione delle zone di monte e di valle attraverso una suddivisione del territorio statunitense in sottobacini, tra i quali sono stati selezionati quelli prossimi alle dighe prese in considerazione. Attraverso l’applicazione di un modello di regressione lineare, si è poi stimato l’andamento della densità di popolazione nei suddetti territori attraverso il calcolo della pendenza della retta di regressione lineare. Dai risultati emerge che complessivamente le dighe incidono positivamente sul trend di crescita di popolazione in entrambe le unità territoriali considerate, con un beneficio apportato più evidente nelle zone poste a monte di esse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I mareografi sono strumenti che misurano il livello del mare in un punto della costa. Tuttavia, essendovi ancorati, essi sono soggetti al suo movimento. Inoltre, il livello del mare è fortemente influenzato da effetti locali. In una prima parte, si è quindi selezionato un insieme di questi in base alla completezza dei dati e a restrizioni geografiche, in modo che nel loro complesso fossero il più possibile rappresentativi della situazione media globale. Di ognuno di essi si sono studiati la monotonicità e l’andamento in due ventenni consecutivi, il primo dal 1980. In questo modo è stato possibile evidenziare, ove presenti, modifiche nel tasso di variazione annuale del livello del mare in ogni località nei due periodi. Studiati i singoli mareografi si è poi proceduto ad effettuarne uno stacking per ottenere una stima meno influenzata da effetti locali. Il test di monotonia identifica in entrambi i casi un chiaro trend crescente. Il risultato della regressione lineare sui due periodi ha fornito tassi pari rispettivamente a (2.1 ± 0.5)mm/yr e (4.7 ± 0.5)mm/yr. Per migliorare la significatività del test di monotonia, si sono poi rimossi i modi semi-periodici mediante il metodo di decomposizione EMD (Empirical Mode Decomposition). Ripetendo la regressione lineare si ottengono risultati simili ma con minore incertezza: (2.3 ± 0.2)mm/yr e (4.9 ± 0.2)mm/yr. Come approccio alternativo, per cercare di superare l’arbitrarietà della scelta dei due archi temporali, si è effettuato un fit quadratico sulle serie dati dal 1980 al 2020. In questi modo, è stato possibile identificare e raggruppare situazioni contraddistinte da andamenti generali simili. In seguito, si è mostrato come, in entrambi i periodi, ci sia una forte correlazione lineare fra i mareografi sulla costa occidentale degli Stati Uniti e fra i mareografi posti nel Mediterraneo. Infine, viene studiato il caso dei mareografi della Laguna Veneta e la loro correlazione con altri posizionati nell'Adriatico settentrionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi intende approfondire da un punto di vista, sia teorico sia computazionale, le proprietà fondamentali dei fononi. A tal fine, sono presentati i modelli quantistici di Einstein e di Debye che permettono la derivazione analitica degli osservabili macroscopici principali di un solido, come l’energia media e la capacità termica. Ciò è possibile tramite una trattazione meccano-statistica basata sull’approssimazione armonica dei modi normali di vibrazione degli ioni reticolari. Quindi, all’inizio si mostrano brevemente i risultati principali riguardanti l’oscillatore armonico quantistico. Successivamente, si approfondiscono i temi della dispersione fononica e della densità degli stati vibrazionali per reticoli cristallini 1D e 3D. Si ottiene che la prima non può essere considerata lineare se non nel limite di alte lunghezze d’onda, e che la seconda può presentare punti di singolarità correlati alla forma della relazione di dispersione. Infine, sono state svolte alcune analisi computazionali ab initio relative alla dispersione fononica, la densità degli stati vibrazionali e la frequenza di Debye del Carbonio (diamante) tramite i programmi VASP e Phonopy, confrontando i risultati con dati sperimentali presenti in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

HERMES (High Energy Rapid Modular Ensemble of Satellites) è una missione basata su una costellazione di nano-satelliti in orbita terrestre bassa, ospitanti rivelatori di raggi X e gamma, avente l'obiettivo di indagare l'emissione di Gamma Ray Burst (GRB). Si tratta di un insieme di spettrografi ad alta risoluzione temporale, attivi nella banda 3–2000 keV, che operando congiuntamente sono in grado di localizzare eventi transienti. Questo esperimento fornirà un metodo veloce e complementare alla rivelazione di onde gravitazionali per l'osservazione di eventi brillanti come i GRB nell'ambito dell'astrofisica multimessaggero. Il rivelatore di ogni nano-satellite di HERMES è composto da Silicon Drift Deterctors (SDD) collegati otticamente a cristalli scintillatori di tipo GAGG:Ce. Il GAGG:Ce è uno scintillatore inorganico di nuova generazione (sviluppato attorno al 2012). L'obiettivo di questa tesi è studiare la risposta, in termini di ampiezza assoluta e uscita luce, del GAGG:Ce accoppiato a una SDD, concentrandosi nello studio della risposta non lineare dello scintillatore, dovuta al K-edge del gadolinio all'energia di 50.23 keV, per contribuire all'ottimizzazione della calibrazione strumentale per il satellite HERMES. Per l'esperimento sono stati usati tre diversi campioni di scintillatore GAGG:Ce. L'esperimento si è basato sull'osservazione di sorgenti radioattive di calibrazione e di un fascio monocromatico di fotoni X, prodotto attraverso il generatore disponibile presso la facility LARIX-A dell'Università di Ferrara, con un rivelatore composto dallo scintillatore in analisi letto con una SDD. L'intervallo di energie scelto per il fascio monocromatico è di 20-160 keV, mentre i radioisotopi consentono di acquisire dati anche ad energie maggiori. La risposta dello scintillatore è stata quindi studiata dalla minima energia rivelabile (20-40 keV) all'energia della riga del 137Cs a 661.65 keV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.