897 resultados para topologia complessi simpliciali casuali omologia topologia algebrica applicata probabilità grafi casuali gruppo fondamentale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si inserisce nell'ambito delle analisi statistiche e dei metodi stocastici applicati all'analisi delle sequenze di DNA. Nello specifico il nostro lavoro è incentrato sullo studio del dinucleotide CG (CpG) all'interno del genoma umano, che si trova raggruppato in zone specifiche denominate CpG islands. Queste sono legate alla metilazione del DNA, un processo che riveste un ruolo fondamentale nella regolazione genica. La prima parte dello studio è dedicata a una caratterizzazione globale del contenuto e della distribuzione dei 16 diversi dinucleotidi all'interno del genoma umano: in particolare viene studiata la distribuzione delle distanze tra occorrenze successive dello stesso dinucleotide lungo la sequenza. I risultati vengono confrontati con diversi modelli nulli: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi) e la distribuzione geometrica per le distanze. Da questa analisi le proprietà caratteristiche del dinucleotide CpG emergono chiaramente, sia dal confronto con gli altri dinucleotidi che con i modelli random. A seguito di questa prima parte abbiamo scelto di concentrare le successive analisi in zone di interesse biologico, studiando l’abbondanza e la distribuzione di CpG al loro interno (CpG islands, promotori e Lamina Associated Domains). Nei primi due casi si osserva un forte arricchimento nel contenuto di CpG, e la distribuzione delle distanze è spostata verso valori inferiori, indicando che questo dinucleotide è clusterizzato. All’interno delle LADs si trovano mediamente meno CpG e questi presentano distanze maggiori. Infine abbiamo adottato una rappresentazione a random walk del DNA, costruita in base al posizionamento dei dinucleotidi: il walk ottenuto presenta caratteristiche drasticamente diverse all’interno e all’esterno di zone annotate come CpG island. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per migliorare l’individuazione di queste aree di interesse nel genoma umano e di altri organismi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OPERA è un esperimento installato ai Laboratori del Gran Sasso, lungo la linea del fascio di neutrini CNGS prodotto al CERN. Il suo scopo principale è osservare - per la prima volta in modo diretto - il fenomeno dell'oscillazione di neutrini muonici del CNGS, in neutrini-tau. L'esperimento è attualmente in fase di analisi dati. Accanto al canale di oscillazione dominante nu_mu--> nu_tau OPERA può studiare anche il canale nu_mu--> nu_e grazie all'ottima capacità di identificazione degli elettroni. OPERA utilizza un bersaglio attivo, finemente segmentato in moduli ("brick") costituiti da pile di fogli di emulsioni nucleare e lastre di piombo. Ogni "brick", il cui spessore è equivalente a 10 lunghezze di radiazione, è un rivelatore "stand-alone" attraverso il quale è possibile identificare e ricostruire gli sciami elettromagnetici e quindi le interazioni a corrente carica di neutrini elettronici. Il progetto di tesi si inquadra in questo contesto. Gli obiettivi specifici sono: - implementazione di una nuova procedura di trigger applicata per l'identificazione degli sciami elettromagnetici; - validazione della suddetta procedura sui dati simulati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I capodogli (Physeter macrocephalus) sono mammiferi marini con distribuzione cosmopolita; sono presenti anche nel Mar Mediterraneo, soprattutto nella zona occidentale del bacino. Per individuare la presenza di questi animali possono essere utilizzate differenti modalità. Questo studio è stato condotto tramite l’uso di metodi acustici passivi, in quanto i capodogli (P. macrocephalus) sono animali che emettono suoni. L’uso di metodi acustici ha alcuni vantaggi, infatti permette di individuare la presenza di un animale anche se si trova al di sotto della superficie dell’acqua, purché stia emettendo suoni. Le registrazioni possono essere effettuate indipendentemente dalle condizioni meteorologiche e per lunghi periodi di tempo, permettendo la continuità nella raccolta dei dati. Il lavoro di tesi è stato svolto nell’ambito di un Progetto di Ricerca de L’Oceanogràfic di Valencia. Le registrazioni sono state effettuate tramite lo strumento EAR (Ecological Acoustic Recorder) in due aree del Mar Balear, il Mar di Bamba e il Parco Nazionale di Cabrera, in differenti periodi, profondità e con diverse frequenze di campionamento (50 kHz e 5 kHz). I dati ottenuti sono stati analizzati tramite i programmi X-BAT (Extensible Bioacoustic Tool) e Adobe Audition 3.0 al fine di rilevare i pulsi emessi dai capodogli. Per entrambe le aree di studio i dati sono stati elaborati in modo da ottenere modelli giornalieri e stagionali delle ore positive e del numero di pulsi emessi. La presenza di P. macrocephalus è stata confermata in entrambe le aree di studio, e dal confronto delle analisi spettrali dei pulsi si può affermare che, nonostante le differenze, i pulsi registrati in entrambe le aree sono effettivamente emessi da capodogli. Il lavoro di Tesi permette di suggerire che per futuri studi sia applicata la frequenza di registrazione di 20 kHz utilizzando lo strumento SAMARUC, alla cui progettazione ha partecipato L’Oceanogràfic di Valencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi abbiamo dimostrato la Disuguaglianza di Doob in L^p per sub-martingale discrete, utilizzando un metodo moderno, che consiste nel ricavarla come conseguenza dell'elementare controparte deterministica applicata a traiettorie di martingale. Abbiamo inoltre fornito un'interpretazione finanziaria in termini di super-replicazione indipendente dal modello per un'opzione esotica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si fornisce un'introduzione al formalismo geometrico della meccanica classica e quantistica, studiando dapprima lo spazio delle fasi come varietà simplettica ricavando le equazioni di Hamilton. Si descrivono in seguito gli strumenti necessari per operare in uno spazio di Hilbert, i quali risultano più complessi di quelli utilizzati per descrivere lo spazio delle fasi classico. In particolare notiamo l'esigenza di definire anche una struttura riemanniana sugli spazi complessi per poter ivi definire il prodotto scalare, le parentesi e i commutatori simmetrici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi presenta alcuni aspetti dell'analisi convessa, in spazi vettoriali topologici, indirizzati allo studio di problemi generali di minimizzazione. Dai risultati geometrici dei teoremi di Hahn-Banach, attraverso la descrizione di proprietà fondamentali delle funzioni convesse e del sottodifferenziale, viene descritta la dualità di Fenchel-Moreau, e poi applicata a problemi generali di Ottimizzazione convessa, sotto forma prima di problema primale-duale, e poi come rapporto tra i punti di sella della Lagrangiana e le soluzioni della funzione da minimizzare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi è stata valutata l’influenza della tostatura a diverse condizioni di tempo e temperatura sulle principali caratteristiche qualitative di nocciole polacche (Coryllus avellana L.) di varietà Kataloński. In particolare, le prove di tostatura sono state condotte a due differenti temperature, 130 e 160 °C, ognuna delle quali applicata rispettivamente per tre diversi tempi: 40, 50, 60 e 20, 25, 30 minuti. Al fine di definire le condizioni ottimali di tostatura, i campioni ottenuti sono stati sottoposti ad analisi colorimetrica (L*,a*,b*), dell’attività dell’acqua e del contenuto in acqua (%). Inoltre, per ottenere un quadro completo della qualità delle diverse nocciole tostate, è stato valutato anche il loro contenuto in composti bioattivi per mezzo della determinazione del contenuto in fenoli totali (metodo del Folin-Ciocalteu), dei singoli composti fenolici (HPLC-MS) e dell’attività antiossidante (metodo dell’ABTS·+). In seguito ad estrazione della frazione lipidica, è stato determinato anche il contenuto in tocoferoli (HPLC-FLD) e lo stato ossidativo delle nocciole tostate per mezzo dell’analisi del numero di perossidi. Infine è stato studiato anche l’effetto della tostatura sullo sviluppo di composti volatili (GC-MS), caratteristici dell’aroma tipico delle nocciole tostate. Questo studio rappresenta un importante screening di valutazione delle nocciole tostate a diversi tempi e temperature e mostra come la temperatura sia un parametro molto importante, con una forte influenza sulle caratteristiche compositive e sensoriali del prodotto finito. Sulla varietà Kataloński non sono presenti lavori in letteratura, questo studio quindi rappresenta una novità per quanto riguarda questa specifica varietà. Le numerose analisi svolte, poi, consentono un ampio quadro dei fenomeni che si verificano durante la tostatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La determinazione del modulo di Young è fondamentale nello studio della propagazione di fratture prima del rilascio di una valanga e per lo sviluppo di affidabili modelli di stabilità della neve. Il confronto tra simulazioni numeriche del modulo di Young e i valori sperimentali mostra che questi ultimi sono tre ordini di grandezza inferiori a quelli simulati (Reuter et al. 2013)⁠. Lo scopo di questo lavoro è stimare il modulo di elasticità studiando la dipendenza dalla frequenza della risposta di diversi tipi di neve a bassa densità, 140-280 kg m-3. Ciò è stato fatto applicando una compressione dinamica uniassiale a -15°C nel range 1-250 Hz utilizzando il Young's modulus device (YMD), prototipo di cycling loading device progettato all'Istituto per lo studio della neve e delle valanghe (SLF). Una risposta viscoelastica della neve è stata identificata a tutte le frequenze considerate, la teoria della viscoelasticità è stata applicata assumendo valida l'ipotesi di risposta lineare della neve. Il valore dello storage modulus, E', a 100 Hz è stato identificato come ragionevolmente rappresentativo del modulo di Young di ciascun campione neve. Il comportamento viscoso è stato valutato considerando la loss tangent e la viscosità ricavata dai modelli di Voigt e Maxwell. Il passaggio da un comportamento più viscoso ad uno più elastico è stato trovato a 40 Hz (~1.1•10-2 s-1). Il maggior contributo alla dissipazione è nel range 1-10 Hz. Infine, le simulazioni numeriche del modulo di Young sono state ottenute nello stesso modo di Reuter et al.. La differenza tra le simulazioni ed i valori sperimentali di E' sono, al massimo, di un fattore 5; invece, in Reuter et al.⁠, era di 3 ordini di grandezza. Pertanto, i nostri valori sperimentali e numerici corrispondono meglio, indicando che il metodo qui utilizzato ha portato ad un miglioramento significativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.