1000 resultados para percezione problema di Cauchy stabilità metodo di Lyapunov
Resumo:
Per il telescopio di neutrini ANTARES, sul quale è basata questa tesi, il principale problema nella ricostruzione delle tracce dei muoni provenienti dal basso, i quali possono essere generati solo da neutrini provenienti dall’emisfero sud che interagiscono nei pressi del rivelatore, è rappresentato dai muoni atmosferici (in particolare dagli sciami muonici). La luce Cherenkov da essi prodotta può essere utilizzata per ricostruire erroneamente tracce dirette verso l’alto (upgoing). Lo scopo di questa tesi è la valutazione, tramite un metodo Montecarlo, della probabilità che i muoni atmosferici vengano ricostruiti come muoni diretti verso l’alto. L’esposizione è organizzata in quattro capitoli: nei primi due vengono descritti la fisica dell’astronomia a neutrini e i principi di funzionamento di un telescopio di neutrini, con particolare attenzione al telescopio ANTARES.Nel terzo capitolo è riportata la descrizione del software utilizzato per simulare lo sciame di muoni atmosferici e la conseguente risposta del rivelatore. Infine, nel quarto capitolo, sono presentati i grafici eseguiti con ROOT che riassumono ed evidenziano i risultati della simulazione.
Resumo:
Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.
Resumo:
Il presente lavoro di tesi presenta la progettazione, realizzazione e applicazione di un setup sperimentale miniaturizzato per la ricostruzione di immagine, con tecnica di Tomografia ad Impedenza Elettrica (EIT). Il lavoro descritto nel presente elaborato costituisce uno studio di fattibilità preliminare per ricostruire la posizione di piccole porzioni di tessuto (ordine di qualche millimetro) o aggregati cellulari dentro uno scaffold in colture tissutali o cellulari 3D. Il setup disegnato incorpora 8 elettrodi verticali disposti alla periferia di una camera di misura circolare del diametro di 10 mm. Il metodo di analisi EIT è stato svolto utilizzando i) elettrodi conduttivi per tutta l’altezza della camera (usati nel modello EIT bidimensionale e quasi-bidimensionale) e ii) elettrodi per deep brain stimulation (conduttivi esclusivamente su un ridotto volume in punta e posti a tre diverse altezze: alto, centro e basso) usati nel modello EIT tridimensionale. Il metodo ad elementi finiti (FEM) è stato utilizzato per la soluzione sia del problema diretto che del problema inverso, con la ricostruzione della mappa di distribuzione della conduttività entro la camera di misura. Gli esperimenti svolti hanno permesso di ricostruire la mappa di distribuzione di conduttività relativa a campioni dell’ordine del millimetro di diametro. Tali dimensioni sono compatibili con quelle dei campioni oggetto di studio in ingegneria tissutale e, anche, con quelle tipiche dei sistemi organ-on-a-chip. Il metodo EIT sviluppato, il prototipo del setup realizzato e la trattazione statistica dei dati sono attualmente in fase di implementazione in collaborazione con il gruppo del Professor David Holder, Dept. Medical Physics and Bioengineering, University College London (UCL), United Kingdom.
Resumo:
This study aims at exploring listeners’ perception of disfluencies, i.e. ungrammatical pauses, filled pauses, repairs, false starts and repetitions, which can irritate listeners and impede comprehension. As professional communicators, conference interpreters should be competent public speakers. This means that their speech should be easily understood by listeners and not contain elements that may be considered irritating. The aim of this study was to understand to what extent listeners notice disfluencies and consider them irritating, and to examine whether there are differences between interpreters and non-interpreters and between different age groups. A survey was therefore carried out among professional interpreters, students of interpreting and people who regularly attend conferences. The respondents were asked to answer a questionnaire after listening to three speeches: three consecutive interpretations delivered during the final exams held at the Advanced School of Languages, Literature, Translation and Interpretation (SSLLTI) in Forlì. Since conference interpreters’ public speaking skills should be at least as good as those of the speakers at a conference, the speeches were presented to the listeners as speeches delivered during a conference, with no mention of interpreting being made. The study is divided into five chapters. Chapter I outlines the characteristics of the interpreter as a professional communicator. The quality criterion “user-friendliness” is explored, with a focus on features that make a speech more user-friendly: fluency, intonation, coherence and cohesion. The Chapter also focuses on listeners’ quality expectations and evaluations. In Chapter II the methodology of the study is described. Chapter III contains a detailed analysis of the texts used for the study, focusing on those elements that may irritate listeners or impede comprehension, namely disfluencies, the wrong use of intonation and a lack of coherence or cohesion. Chapter IV outlines the results of the survey, while Chapter V presents our conclusions.
Resumo:
In questo lavoro di tesi si intende fornire un'analisi in chiave quantomeccanica di una serie di caratteristiche della molecola di idrogeno ionizzata. Il fatto che l'equazione di Schrödinger per l'elettrone sia nel caso di H2+ risolvibile in maniera esatta rende questo sistema fisico un prezioso banco di prova per qualsiasi metodo di approssimazione. Il lavoro svolto in questa trattazione consisterà proprio nella risoluzione dell'equazione d'onda per l'elettrone nel suo stato fondamentale, dapprima in maniera esatta poi mediante LCAO, e successivamente nell'analisi dei risultati ottenuti, che verranno dapprima discussi e interpretati in chiave fisica, e infine messi a confronto per la verifica della bontà dell'approssimazione. Il metodo approssimato fornirà approssimazioni relative anche al primo stato elettronico eccitato; anche questo verrà ampiamente discusso, e ci si soffermerà in particolare sulla caratterizzazione di orbitali di "legame" e di "antilegame", e sul loro rapporto con la stabilità dello ione molecolare.
Resumo:
Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).
Resumo:
Analisi riguardante la tenacizzazione della matrice di laminati compositi. Lo scopo è quello di aumentare la resistenza alla frattura di modo I e, a tal proposito, sono stati modificati gli interstrati di alcuni provini tramite l’introduzione di strati, di diverso spessore, di nanofibre in polivinilidenfluoruro (PVDF). La valutazione di tale metodo di rinforzo è stata eseguita servendosi di dati ottenuti tramite prove sperimentali svolte in laboratorio direttamente dal sottoscritto, che si è occupato dell’elaborazione dei dati servendosi di tecniche e algoritmi di recente ideazione. La necessità primaria per cui si cerca di rinforzare la matrice risiede nel problema più sentito dei laminati compositi in opera da molto tempo: la delaminazione. Oltre a verificare le proprietà meccaniche dei provini modificati sottoponendoli a test DCB, si è utilizzata una tecnica basata sulle emissioni acustiche per comprendere più approfonditamente l’inizio della delaminazione e i meccanismi di rottura che si verificano durante le prove. Quest’ultimi sono illustrati servendosi di un algoritmo di clustering, detto Fuzzy C-means, tramite il quale è stato possibile identificare ogni segnale come appartenente o meno ad un determinato modo di rottura. I risultati mostrano che il PVDF, applicato nelle modalità esposte, è in grado di aumentare la resistenza alla frattura di modo I divenendo contemporaneamente causa di un diverso modo di propagazione della frattura. Infine l’elaborato presenta alcune micrografie delle superfici di rottura, le quali appoggiano i risultati ottenuti nelle precedenti fasi di analisi.
Resumo:
La principale finalità di questo lavoro sperimentale riguarda la messa a punto di un metodo analitico rapido ed economico di tipo colorimetrico, che possa essere attuato anche in laboratori attrezzati per eseguire solo semplici determinazioni spettrofotometriche, con il quale quantificare il contenuto in composti fenolici in accordo con quanto riportato nell’health claim salutistico relativo ai polifenoli negli oli d’oliva (Reg. UE 432/2012). A questo scopo, il metodo sarà testato su dodici oli extra vergini di oliva, sia italiani che spagnoli, caratterizzati da concentrazioni diverse in composti fenolici, in parallelo ad un metodo cromatografico (HPLC-UV-MS) preceduto da idrolisi acida, già presente in letteratura. Tale reazione idrolitica consente, infatti, una conversione dei fenoli complessi tipici dell’oliva - i secoiridoidi - in fenoli semplici (idrossitirosolo e tirosolo), permettendo una determinazione semplificata del contenuto fenolico di un campione rispetto a quanto possibile mediante l’applicazione del solo metodo COI ("Determinazione dei biofenoli degli oli di oliva mediante HPLC", COI/T.20/Doc.n.29, 2009) per la verifica di quanto richiesto dall’health claim. Sulla base dei risultati ottenuti, sarà possibile valutare se i test colorimetrici più comunemente applicati per la determinazione dei composti fenolici negli oli d’oliva (Folin-Ciocalteu e metodo per la determinazione degli orto-difenoli con sodio molibdato) siano effettivamente applicabili per la determinazione del contenuto totale di idrossitirosolo e derivati in oli vergini di oliva, indicando se gli oli oggetto dello studio soddisfino o meno i requisiti UE per l’indicazione in etichetta del claim salutistico.
Resumo:
L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.
Resumo:
Il lavoro di tesi si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale “S. Maria delle Croci” di Ravenna, Azienda Unità Sanitaria Locale della Romagna, ed ha come obiettivo lo sviluppo di un metodo per l’individuazione dell’atrio sinistro in sequenze di immagini ecografiche intracardiache acquisite durante procedure di ablazione cardiaca transcatetere per il trattamento della fibrillazione atriale. La localizzazione della parete posteriore dell'atrio sinistro in immagini ecocardiografiche intracardiache risulta fondamentale qualora si voglia monitorare la posizione dell'esofago rispetto alla parete stessa per ridurre il rischio di formazione della fistola atrio esofagea. Le immagini derivanti da ecografia intracardiaca sono state acquisite durante la procedura di ablazione cardiaca ed esportate direttamente dall’ecografo in formato Audio Video Interleave (AVI). L’estrazione dei singoli frames è stata eseguita implementando un apposito programma in Matlab, ottenendo così il set di dati su cui implementare il metodo di individuazione della parete atriale. A causa dell’eccessivo rumore presente in alcuni set di dati all’interno della camera atriale, sono stati sviluppati due differenti metodi per il tracciamento automatico del contorno della parete dell’atrio sinistro. Il primo, utilizzato per le immagini più “pulite”, si basa sull’utilizzo del modello Chan-Vese, un metodo di segmentazione level-set region-based, mentre il secondo, efficace in presenza di rumore, sfrutta il metodo di clustering K-means. Entrambi i metodi prevedono l’individuazione automatica dell’atrio, senza che il clinico fornisca informazioni in merito alla posizione dello stesso, e l’utilizzo di operatori morfologici per l’eliminazione di regioni spurie. I risultati così ottenuti sono stati valutati qualitativamente, sovrapponendo il contorno individuato all'immagine ecografica e valutando la bontà del tracciamento. Inoltre per due set di dati, segmentati con i due diversi metodi, è stata eseguita una valutazione quantitativa confrontatoli con il risultato del tracciamento manuale eseguito dal clinico.
Resumo:
Questo elaborato tratta la convalida di un metodo per l’analisi delle sostanze correlate presenti in un preparato farmaceutico. Il prodotto analizzato è il propranololo HCL 160 mg dose. Le prove sono state effettuate nel laboratorio di controllo qualità della Valpharma International (Pennabilli (RN) Italia). Il metodo studiato era già stato convalidato dalla farmacopea europea, di conseguenza ci si aspettava che risultasse idoneo all’uso per cui è stato creato. Tuttavia le variabili che entrano in gioco durante l’esecuzione di una procedura sono numerose e non tutte prevedibili. Nasce da qui l’esigenza di riconvalidare il metodo anche all’interno dei laboratori aziendali.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
Il progetto per la città romana di Suasa, prevede la realizzazione di edifici nuovi a supporto del nuovo parco, tra cui i due visitor center, un edificio nell'area del Tappatino e una nuova copertura e funzionalizzazione per la Domus dei Coiedii.
Resumo:
Gli argomenti trattati in questa tesi sono le catene di Markov reversibili e alcune applicazioni al metodo Montecarlo basato sulle catene di Markov. Inizialmente vengono descritte alcune delle proprietà fondamentali delle catene di Markov e in particolare delle catene di Markov reversibili. In seguito viene descritto il metodo Montecarlo basato sulle catene di Markov, il quale attraverso la simulazione di catene di Markov cerca di stimare la distribuzione di una variabile casuale o di un vettore di variabili casuali con una certa distribuzione di probabilità. La parte finale è dedicata ad un esempio in cui utilizzando Matlab sono evidenziati alcuni aspetti studiati nel corso della tesi.
Resumo:
I materiali a base di carbone vengono utilizzati in catalisi come supporti per fasi attive, ma anche direttamente come catalizzatori essi stessi, grazie soprattutto alla versatilità delle loro proprietà di massa e superficiali. L’attività catalitica dei carboni è influenzata soprattutto dalla natura, dalla concentrazione e dall’accessibilità dei siti attivi tra cui i più comuni sono: gruppi funzionali superficiali, difetti, ed eteroatomi inseriti nella struttura. Per ridurre i problemi diffusionali legati alla microporosità dei carboni attivi sono in corso numerosi studi sulla sintesi di carboni mesoporosi, i quali possono fornire benefici unici come alta area superficiale ed elevato volume dei pori, uniti a buone proprietà chimiche e stabilità meccanica. Nel corso di questa tesi, sono state svolte diverse attività finalizzate principalmente alla preparazione e alla caratterizzazione di carboni mesoporosi da utilizzare in ambito catalitico. La sintesi di carboni porosi è stata eseguita con la metodologia soft-templating, un metodo basato sulla replica di un agente templante polimerico che si organizza in micelle attorno alle quali avviene la reticolazione di un precursore polimerico termoindurente. Precursore e templante vengono pirolizzati ad elevate temperature per rimuovere in un primo momento l’agente templante e successivamente carbonizzare il precursore. Sono state scelte due metodologie di sintesi riportate in letteratura con lo scopo di sintetizzare due tipologie di carboni. La sintesi Mayes è stata utilizzata per sintetizzare carboni mesoporosi classici, mentre la sintesi Hao è stata utilizzata per ottenere carboni porosi contenenti azoto. Le due sintesi sono state ottimizzate variando diversi parametri, tra cui il tempo di reticolazione (curing) e la temperatura di pirolisi. Sui diversi carboni ottenuti sono stati effettuati alcuni trattamenti superficiali di ossidazione al fine di modificarne la funzionalità. In particolare si sono utilizzati agenti ossidanti come HNO3, H2O2 e N2O.