681 resultados para problema di Cauchy teorema di dipendenza continua dai dati iniziali teorema di dipendenza regolare dai dati e dai parametri


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si pone il problema di studiare lo stato dell’arte degli impianti di produzione farmaceutici e di formulare, in base ai risultati ottenuti, uno o più possibili ipotesi di recupero d’energia, con particolare attenzione ai fluidi termo-vettori: in altri termini, questa tesi si prefissa l’obiettivo di realizzare un sistema utile e concreto per recuperare parte dell’energia termica, che nell'attuale concezione dell’impianto e dei suoi macchinari andrebbe smaltita e persa nei fluidi in uscita dal processo, e convertirla in energia riutilizzabile. Come modello per lo studio del problema, si fa riferimento a un tipico layout di produzione del farmaco, progettato e dimensionato dalla ditta IMA S.p.A. , settore Active, il quale entra come “materiale grezzo” ed esce come prodotto finito. L’azienda concepisce e progetta tipicamente le sue macchine e, di conseguenza, i suoi impianti in base alla quantità di prodotto che mediamente ogni ciclo produttivo lavorerà: in parole povere, gli impianti della divisione Active di IMA S.p.A. sono dimensionati e suddivisi per “taglie”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I materiali per applicazioni fotovoltaiche hanno destato un interesse crescente nella comunità scienti�ca negli ultimi decenni. Le celle HIT (Het- erojunction Intrinsic Thin Layer ) sono dispositivi di ultima generazione che hanno raggiunto e�cienza elevata mantenendo bassi i costi di pro- duzione, e impiegano silicio amorfo (a-Si) come strato emettitore per il suo buon assorbimento della luce e silicio cristallino come regione attiva. La struttura amorfa del silicio presenta però una bassa conducibilità, oltre ad e�etti di degradazione che limitano considerevolmente la durevolezza di una cella. Per questo motivo si stanno cercando possibili alternative al silicio amorfo, in particolare strutture multifase e composti di silicio, ossigeno ed azoto. In questo lavoro sono esposti i risultati dell'analisi di sottili lay- er di Silicon Oxynitride ossigenato (SiOx Ny :H), in forma microcristallina, deposti tramite PECVD (P lasma-Enhanced Chemical Vapor Deposition) su vetro presso l'università di Costanza. La forma microcristallina è una distribuzione di agglomerati cristallini dell'ordine di grandezza di un mi- crometro in una matrice di silicio amorfo, e attualmente le sue proprietà ottiche ed elettroniche non sono ancora state studiate in maniera appro- fondita. Nonostante ciò, è invece evidente che la fase microstallina non presenta tanti difetti intrinseci come la forma amorfa e ne è quindi una val- ida alternativa. In questa ottica, si è svolto uno studio sperimentale delle proprietà ottiche di layers in forma microcristallina di SiOx Ny :H, quali la misura del gap energetico. I risultati sperimentali, volti a trovare la dipen- denza delle caratteristiche dai parametri di deposizione dei layers, hanno mostrato una riduzione del gap energetico con la concentrazione di N2 O, uno dei gas precursori utilizzati nella deposizione dei layers in camera di processo. In conclusione si può dire che il μc−SiOx Ny :H ha le buone carat- teristiche tipiche dei semiconduttori cristallini, che unite alla possibilità di regolare il valore del gap energetico in base alle scelte in fase di deposizione, gli conferisce buone prospettive per applicazioni in celle fotovoltaiche, come emettitore in celle ad eterogiunzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In alcuni paesi in via di sviluppo la forte crescita demografica ha favorito l’insinuarsi di un sistema consumistico, che comporta la generazione di ingenti quantitativi di rifiuti urbani. In tali paesi il problema è aggravato dalla progressiva urbanizzazione, con la conseguente necessità di smaltire i rifiuti solidi urbani nelle immediate vicinanze delle città dove vengono prodotti in gran quantità.Storicamente nei piani di gestione dei rifiuti si è sempre tenuta in considerazione la tutela della salute pubblica e dell’ambiente; negli ultimi anni è cresciuta l’attenzione verso l’utilizzo dei rifiuti come fonte di materie prime o di energia. Ai metodi di smaltimento tradizionali, rappresentati dalle discariche e dagli impianti di incenerimento, si sono progressivamente affiancate tecniche per la valorizzazione dei rifiuti: alcune di queste differenziano i rifiuti in base al materiale di cui sono costituiti per ottenere materie prime (raccolta differenziata), altre invece ricavano energia mediante opportuni trattamenti termici(termovalorizzazione). Se l’incenerimento dei rifiuti è nato con l’obiettivo di ridurne il volume e di distruggere le sostanze pericolose in essi presenti, la termovalorizzazione comprende un secondo obiettivo, che è quello di valorizzare il potere calorifico dei rifiuti, recuperando la potenza termica sviluppata durante la combustione e utilizzandola per produrre vapore, successivamente impiegato per produrre energia elettrica o come vettore termico per il teleriscaldamento. Il presente lavoro di tesi fa seguito ad un tirocinio svolto presso il termovalorizzatore costituito dal forno F3 per rifiuti speciali anche pericolosi della società Herambiente, ubicato in via Baiona a Ravenna. L’impianto utilizza un forno a tamburo rotante, scelto proprio per la sua versatilità nell’incenerire varie tipologie di rifiuti: solidi, liquidi organici e inorganici, fluidi fangosi. Negli ultimi anni si è delineato un aumento della richiesta di incenerimento di liquidi inorganici pericolosi, che sono prodotti di scarto di processi industriali derivanti dagli impianti del polo chimico ravennate. La presenza di un’elevata quantità di liquidi inorganici in ingresso al forno fa calare l’energia disponibile per la combustione e, di conseguenza, porta ad un consumo maggiore di combustibile ausiliario (metano). Si pone un problema di ottimo e cioè, a parità di potenza elettrica prodotta, occorre trovare la portata di rifiuti inorganici da inviare al forno che limiti la portata di metano in ingresso in modo da ottenere un utile netto positivo; ovviamente la soluzione ottimale è influenzata dal prezzo del metano e dalla remunerazione che il gestore riceve per lo smaltimento dei reflui inorganici. L’impostazione del problema di ottimo richiede la soluzione dei bilanci di materia e di energia per il termovalorizzatore. L’obiettivo del lavoro di tesi è stato l’impostazione in un foglio di calcolo dei bilanci di materia e di energia per il tamburo rotante e per la camera statica di post-combustione a valle del tamburo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi consiste nella ricerca di un candidato ideale per la soluzione del problema di Dirichlet. Vengono affrontati gli argomenti in maniera graduale, partendo dalle funzioni armoniche e le loro relative proprietà, passando per le identità e le formule di rappresentazione di Green, per finire nell'analisi del problema sopra citato, mediante i risultati precedentemente ottenuti, per concludere trovando la formula integrale di Poisson come soluzione ma anche come formula generale per sviluppi in vari ambiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente studio è stato affrontato il problema di effettuare l’acquisizione di impronte digitali mediante la fotocamera di uno Smartphone. Si tratta di un’applicazione potenzialmente molto interessante in quanto l’utilizzo di uno Smartphone renderebbe molto più semplice l’acquisizione delle impronte, non essendo necessari dispositivi specifici come, ad esempio, scanner d’impronte digitali. D’altra parte, l’utilizzo di una fotocamera per l’acquisizione delle impronte introduce diverse problematiche, fra cui individuare l’area del dito corrispondente all'impronta, valutare la qualità di un'immagine e determinare quali minuzie estratte corrispondano effettivamente a quelle di interesse. Questo studio conferma la fattibilità di un sistema del genere che risulta essere in grado di fornire buone prestazioni di riconoscimento biometrico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi vengono trattati i fenomeni di urto tra fotoni e elettroni, nella fattispecie si riconoscono tre urti differenti: lo scattering Thomson, Compton e Compton Inverso (IC). L'attenzione viene focalizzata sull'effetto IC. Una volta riportati i risultati sui tre processi sopracitati, il testo prosegue con la trattazione del problema di interesse astrofisico, ovvero la Comptonizzazione. La Comptonizzazione è il caso più generale in cui IC e effetto Compton competono, e stabilisce come lo spettro fotonico viene modificato a causa delle interazioni col plasma. Vengono in seguito trattati due interessanti applicazioni astrofisiche della Comptonizzazione: l' effetto Sunyaev-Zel'Dovich e il Synchrotron-self-Compton.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il modello di Bondi rappresenta il modello di accrescimento più semplice, in quanto studia l'accrescimento su un BH isolato immerso in una distribuzione di gas infinita. In questa semplice trattazione puramente idrodinamica vengono trascurati molti aspetti importanti, come ad esempio il momento angolare, il campo magnetico, gli effetti relativistici, ecc. L'obiettivo di questa Tesi consiste nell'affinare tale modello aggiungendo alcune nuove componenti. In particolare, vogliamo studiare come queste nuove componenti possano influire sul tasso di accrescimento della materia. Dopo una Introduzione (Capitolo 1), nel Capitolo 2 viene presentato il modello di Bondi originale, con lo scopo di ricostruire il procedimento matematico che porta alla soluzione e di verificare il funzionamento del codice numerico scritto per la soluzione dell'equazione di Bondi finale. Tuttavia, il modello di accrescimento sferico stazionario tratta il potenziale gravitazionale di un oggetto puntiforme isolato, mentre in questo lavoro di Tesi si vogliono considerare i BH che si trovano al centro delle galassie. Pertanto, nel Capitolo 3 è stata rivisitata la trattazione matematica del problema di Bondi aggiungendo alle equazioni il potenziale gravitazionale prodotto da una galassia con profilo di densità descritto dal modello di Hernquist. D'altronde, ci si aspetta che l'energia potenziale gravitazionale liberata nell'accrescimento, almeno parzialmente, venga convertita in radiazione. In regime otticamente sottile, nell'interazione tra la radiazione e la materia, domina l'electron scattering, il che permette di estendere in maniera rigorosa la trattazione matematica del problema di Bondi prendendo in considerazione gli effetti dovuti alla pressione di radiazione. Infatti, in un sistema a simmetria sferica la forza esercitata dalla pressione di radiazione segue l'andamento "1/r^2", il che comporta una riduzione della forza gravitazionale della stessa quantità per tutti i raggi. Tale argomento rappresenta l'oggetto di studio del Capitolo 4. L'idea originale alla base di questo lavoro di Tesi, che consiste nell'unire i due modelli sopra descritti (ossia il modello di Bondi con la galassia e il modello di Bondi con feedback radiativo) in un unico modello, è stata sviluppata nel Capitolo 5. Utilizzando questo nuovo modello abbiamo cercato di determinare delle "ricette" per la stima del tasso di accrescimento, da utilizzare nell'analisi dei dati osservativi oppure da considerare nell'ambito delle simulazioni numeriche. Infine, nel Capitolo 6 abbiamo valutato alcune applicazioni del modello sviluppato: come una possibile soluzione al problema di sottoluminosità dei SMBH al centro di alcune galassie dell'universo locale; per la stima della massa del SMBH imponendo la condizione di equilibrio idrostatico; un possibile impiego dei risultati nell'ambito dei modelli semi-analitici di coevoluzione di galassie e SMBH al centro di esse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di presentare l'applicazione di tecniche legate alla Teoria di Taglia a un problema di analisi di immagini biomediche. Il lavoro nasce dalla collaborazione del gruppo di Matematica della Visione dell'Università di Bologna, con il progetto PERFECT del Centro di Ricerca ARCES. La tesi si pone quindi come analisi preliminare di approccio alternativo ai metodi preesistenti. I metodi sono principalmente di Topologia Algebrica Applicata, ambito emergente e rilevante nel mondo della Matematica Computazionale. Il nucleo dell'elaborazione è costituito dall'analisi di forma dei dati per mezzo di Funzioni di Taglia. Questa nozione è stata introdotta nel 1999 da Patrizio Frosini e in seguito sviluppata principalmente dallo stesso, Massimo Ferri, Claudia Landi e altri collaboratori appartenuti al Gruppo di Ricerca di Matematica della Visione dell'Università di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’acustica delle aule scolastiche è uno dei fattori che influenzano principalmente la qualità ed il livello di apprendimento degli alunni. L'obiettivo della tesi è quello di dimostrare come si possono avere miglioramenti in termini di qualità acustica negli edifici scolastici con interventi mirati e dai costi ragionevoli. L’analisi è stata condotta su un edificio esistente che ospita una scuola media. Sono stati misurati in situ tutti gli aspetti acustici rilevanti e richiesti per legge: l’isolamento di facciata, il rumore di calpestio ed il tempo di riverberazione. Sono stati studiati anche altri parametri importanti, ma spesso trascurati o sconosciuti come Sti o Sti-PA, capaci di quantificare il grado di comprensione del parlato in ambienti chiusi. Lo studente, oltre ad aver contribuito allo svolgimento delle misurazioni, ha elaborato i dati e rilevato le criticità presenti nell’edificio scolastico. Attraverso l’uso di software di simulazione ha studiato gli interventi necessari per il ripristino e per il miglioramento dei requisiti acustici dei locali. Le soluzioni adottate sono un compromesso tra un buon livello di prestazioni acustiche ed i costi necessari per gli interventi proposti

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi Magistrale è frutto di un'attività di ricerca, che consiste nella realizzazione di un'indagine geofisica di tipo geoelettrico (ERT Electrical Resistivity Tomography). Lo scopo è quello di caratterizzare l'idrogeologia di una porzione limitata dell'acquifero freatico costiero ravennate, situato nella Pineta Ramazzotti di Lido di Dante, cercando di apportare nuove conoscenze sulle dinamiche che favoriscono l'ingressione marina (problema di forte attualità)che potrebbero contribuire a migliorare la gestione e la tutela delle risorse idriche. In questo contesto la tesi si pone come obiettivo quello di valutare l'applicabilità del metodo geoelettrico verificando se questo è in grado d'individuare efficacemente l'interfaccia acqua dolce-salata e le strutture presenti nel sottosuolo, in due tipologie di ambiente, con e senza un sistema di dune. I risultati dimostrano che dal punto di vista scientifico, il metodo geoelettrico ha verificato il principio di Ghyben-Herzberg, il quale suppone che vi sia una relazione inversa tra quota topografica e limite superiore della zona satura con acqua salata, inoltre si è riscontrata una certa stagionalità tra i profili acquisiti in momenti diversi (influenzati dalla piovosità). Mentre dal punto di vista tecnologico, il metodo, è di difficile utilizzo negli ambienti di transizione tanto ché chi si occupa professionalmente di questi rilievi preferisce non eseguirli. Questo è dovuto alla mancanza di un protocollo per le operazioni di acquisizione e a causa dell'elevato rumore di fondo che si riscontra nelle misurazioni. Con questo studio è stato possibile calibrare e sviluppare un protocollo, utilizzabile con diverse spaziature tra gli elettrodi, che è valido per l'area di studio indagata. Si è riscontrato anche che l'utilizzo congiunto delle informazioni delle prospezioni e quelle dei rilievi classici (monitoraggio della superficie freatica, parametri chimico-fisici delle acque sotterranee, rilievo topografico e sondaggi geognostici), generino un prodotto finale di semplice interpretazione e di facile comprensione per le dinamiche in atto.