205 resultados para Morphing, classificazione
Resumo:
In questo lavoro di tesi si presenta il primo studio multi-scala e multi-frequenza focalizzato sul getto della radiogalassia IC1531 (z=0.026) con i satelliti Chandra, XMM-Newton e Fermi con l’obiettivo di tracciarne l’emissione alle alte energie; definire i processi radiativi responsabili dell’emissione osservata e stimare i principali parametri fisici del getto; stimare l’energetica del getto alle diverse scale. La sorgente è stata selezionata per la presenza di un getto esteso (≈5’’) osservato in radio e ai raggi X, inoltre, era riportata come possibile controparte della sorgente gamma 3FGLJ0009.6-3211 presente nel terzo catalogo Fermi (3FGL). La presenza di emissione ai raggi γ, confermata dal nostro studio, è importante per la modellizzazione della SED della regione nucleare. L’emissione X del nucleo è dominata da una componente ben riprodotta da una legge di potenza con indice spettrale Γ=2.2. L’analisi dell’emissione in banda gamma ha evidenziato una variabilità su scale di 5 giorni, dalla quale è stato possibile stimare le dimensioni delle regione emittente. Inoltre viene presentato lo studio della distribuzione spettrale dell’energia della regione nucleare di IC 1531 dalla banda radio ai raggi γ. I modelli ci permettono di determinare la natura dell’emissione gamma e stimare la potenza cinetica del getto a scale del su-pc. Gli osservabili sono stati utilizzati per ottenere le stime sui parametri del modello. La modellizzazione così ottenuta ha permesso di stimare i parametri fisici del getto e la potenza trasportata del getto a scale del sub-pc. Le stime a 151MHz suggerisco che il getto abbia basse velocita' (Γ≤7) e angolo di inclinazione rispetto alla linea di vista 10°<ϑ<20°; nel complesso, il trasporto di energia da parte del getto risulta efficiente. L’origine dell’emissione X del getto a grandi scale è consistente con un’emissione di sincrotrone, che conferma la classificazione di IC1531 come sorgente di bassa potenza MAGN.
Resumo:
Nella tesi si studiano le varietà toriche e si mostrano metodi per costruirle. Si mostra una corrispondenza tra esse e i coni convessi di un reticolo (o, piu' generalmente i "fan" di coni convessi per le varietà toriche proiettive). Si analizzano aspetti e caratteristiche di queste varietà e si studiano le singolarità di esse, se ne fa una classificazione in relazione agli aspetti geometrici degli oggetti combinatori ad esse associati.
Studio sperimentale del coefficiente di compressibilità secondaria al variare del contenuto organico
Resumo:
Questa tesi svolta nell’ambito della geotecnica ha L’obiettivo di porre l’attenzione sul comportamento dei cedimenti secondari, quindi sul coefficiente di consolidazione secondaria Cα mediante l’esecuzione di una prova edometrica su di una sezione di campione estratto in sito, dove si evidenzia una percentuale di contenuto organico molto alta (torba).Si introduce il concetto di terreno organico a partire dalla genesi fino ad una classificazione atta a distinguere terreni con percentuali di componente organica differenti. Si spiega la teoria della consolidazione monodimensionale, quindi la prova edometrica, riportando in maniera grafica e analitica tutti i coefficienti che da essa si possono ricavare a partire dai parametri di compressione volumetrica fino alla consolidazione primaria e secondaria (o creep)si descrivono dettagliatamente la strumentazione e la procedura di prova. Descrivendo l’edometro utilizzato in laboratorio e tutti gli accessori ad esso collegati, il campione da analizzare, la procedura di preparazione del campione alla prova edometrica, trovando alcune proprietà fisiche del campione, come il contenuto d’acqua e il contenuto organico, ed in fine riportando i passaggi della prova edometrica in modo tale da poter essere riprodotta.Si analizzano tutti i risultati ottenuti durante la prova in maniera analitica e grafica, osservando e commentando la forma dei grafici ottenuti in relazione al materiale che compone il campione ed i tempi impiegati per eseguire la prova.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
Gli ultimi 10 anni hanno visto un crescente aumento delle richieste di fornitura di servizi legati alla manutenzione edilizia da parte della Grande Distribuzione Organizzata; la domanda è quella di servizi riconducibili al Facility Management, ovvero rapporti basati sul raggiungimento di standard qualitativi predefiniti in sede contrattuale e garanzia di intervento 24h/24. Nella prima parte del progetto di tesi viene inquadrata la disciplina del FM, le motivazioni, gli strumenti e gli attori coinvolti. Dopo un excursus normativo sulla manutenzione in Italia, una classificazione delle tipologie di intervento manutentivo e una valutazione sull’incidenza della manutenzione nel Life Cycle Cost, viene effettuata un’analisi delle modalità interoperative del FM applicato alla manutenzione edilizia nel caso della GDO. La tesi è stata svolta nell'ambito di un tirocinio in azienda, il che ha permesso alla laureanda di affrontare il caso di studio di un contratto di Global Service con un’importante catena di grande distribuzione, e di utilizzare un software gestionale (PlaNet) con il quale viene tenuta traccia, per ogni punto vendita, degli interventi manutentivi e della loro localizzazione nell’edificio. Questo permette di avere un quadro completo degli interventi, con modalità di attuazione già note, e garantisce una gestione più efficace delle chiamate, seguite tramite un modulo di Call Center integrato. La tesi esamina criticamente i principali documenti di riferimento per l’opera collegati alla manutenzione: il Piano di Manutenzione e il Fascicolo dell’Opera, evidenziando i limiti legati alla non completezza delle informazioni fornite. L’obbiettivo finale della tesi è quello di proporre un documento integrativo tra il Piano di Manutenzione e il Fascicolo, al fine di snellire il flusso informativo e creare un documento di riferimento completo ed esaustivo, che integra sia gli aspetti tecnici delle modalità manutentive, sia le prescrizioni sulla sicurezza.
Resumo:
Il presente lavoro di tesi consiste nello studio petrografico (in sezione sottile) e geochimico (con analisi in XRF), di 18 campioni della successione di vulcaniti permiane del Gruppo Vulcanico Atesino. I campioni sono stati prelevati durante un rilevamento geologico nelle aree del Passo Rolle e S. Martino di Castrozza. Lo scopo della tesi è di fornire una precisa classificazione dei litotipi su base petrografica-geochimica.
Resumo:
Questo lavoro nasce dal desiderio di approfondire i fondamenti del linguaggio della matematica, osservandone gli usi ed analizzandone gli scopi dal punto di vista didattico e non solo. Il linguaggio è il mezzo su cui si costruiscono i pensieri o semplicemente lo strumento coi quali si comunica il sapere? Il linguaggio è uno strumento della pratica matematica o è la matematica ad essere un linguaggio? Se lo è, che caratteristiche ha? Queste sono le domande che hanno accompagnato la stesura dei primi capitoli di questa tesi, in cui si approfondisce il tema del linguaggio della matematica da un punto di vista epistemologico, tecnico e didattico, a partire dai riferimenti teorici e dalle ricerche sul campo curate da Bruno D’Amore e Pier Luigi Ferrari. Nella seconda parte si presentano i risultati e le osservazioni della sperimentazione condotta nella classe 5a As del Liceo Scientifico “A. Righi” di Cesena. L’indagine di tipo qualitativo sui protocolli degli studenti ha permesso di definire le modalità d’uso del linguaggio da parte degli stessi al termine del percorso scolastico, di mostrare alcuni possibili legami tra le competenze linguistiche e quelle matematiche e di delineare una classificazione di tre profili di allievi relativamente al loro modo di scrivere e parlare di matematica. La tesi ha favorito uno sguardo trasversale verso la matematica in cui il linguaggio offre una fruttuosa possibilità di incontro tra prospettive opposte nel guardare la scienza e l’uomo. Questo apre alla possibilità di costruire una didattica che non sia la mera somma di conoscenze o la divisione di settori disciplinari, ma il prodotto di elementi che armoniosamente costruiscono il pensiero dell’uomo.
Resumo:
Partendo dalla definizione di UAV e UAS, arrivando a quella di drone, nella tesi saranno definiti i termini precedenti, ossia un sistema aereo senza pilota a bordo, la nascita del termine drone e le tendenze attuali. Dopo una precisa classificazione nelle quattro categorie principali (droni per hobbisti, commerciali e militari di me- dia grandezza, militari specifici di grandi dimensioni e stealth da combattimento) saranno descritti gli ambiti di utilizzo: da un lato quello militare e della sicurezza, dall’altro quello civile e scientifico. I capitoli centrali della tesi saranno il cuore dell’opera: l’architettura dell’UAV sarà descritta analizzando la totalità delle sue componenti, sia hardware che software. Verranno, quindi, analizzati i problemi relativi alla sicurezza, focalizzandosi sull’hacking di un UAV, illustrandone le varie tecniche e contromisure (tra cui anche come nascondersi da un drone). Il lavoro della tesi prosegue nei capitoli successivi con un’attenta trattazione della normativa vigente e dell’etica dei droni (nonché del diritto ad uccidere con tali sistemi). Il capitolo relativo alla tecnologia stealth sarà importante per capire le modalità di occultamento, le tendenze attuali e i possibili sviluppi futuri degli UAV militari da combattimento. Il capitolo finale sugli sviluppi futuri esporrà le migliorie tecnologiche e gli obiettivi degli UAV negli anni a venire, insieme ad eventuali utilizzi sia militari che civili. La ricerca sarà orientata verso sistemi miniaturizzati, multiple UAV e swarming.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Quando si fa una ricerca su Internet con i motori di ricerca, tipo Google, lo scopo è quello di trovare tutte le pagine Web contenenti le parole richieste. Ancor di più, si vorrebbe avere la miglior risposta alla nostra richiesta tra le prime pagine lette, senza dover passare in rassegna tutte le migliaia di pagine che il motore di ricerca propone. Quello che riceviamo come risposta dal motore di ricerca, è infatti una lista lunghissima di pagine Web, contenenti le parole chiave e ordinate in base all’importanza. Nelle prime posizioni della lista troveremo le pagine più significative, mentre in fondo ci saranno quelle di meno rilevanza. In questa tesi affronteremo, appunto, il problema di classificazione, il quale non è basato su un giudizio umano, ma sulla struttura dei link del Web. Studieremo, per l’esattezza, il concetto di pagerank usato da Google e di conseguenza l’algoritmo, chiamato proprio PageRank, per classificare le pagine Web. Vedremo che il tutto si basa su un’equazione matematica, ossia sul calcolo dell’autovettore, relativo all’autovalore uguale a 1, di una certa matrice che rappresenta la rete Internet.
Resumo:
La modellazione di una pompa gerotor può essere svolta mediante l'utilizzo di modelli matematici di tipo numerico. Questo tipo di soluzione prevedere la realizzazione di un dominio fluido discretizzato. In questo lavoro l'analisi è stata effettuata mediante il software STAR-CCM+. Sono state applicate due tecniche per la discretizzazione del dominio, l'Overset ed il Morphing, applicabili in problemi di interazione tra fluido e struttura in movimento. Analizzate le due tecniche, la seconda è stata applicata nello studio del comportamento di una pompa gerotor. I risultati ottenuti hanno portato alla definizione di un secondo modello ottimizzato mediante la variazione della luce di aspirazione.
Resumo:
I rifiuti plastici, oggigiorno, rappresentano una grande minaccia per l’ambiente, per gli ecosistemi e per la salute umana, tanto da essere al centro della attenzione di numerosi studi. La preoccupazione maggiore è destata dalle microplastiche (frammenti di dimensioni inferiori ai 5 mm) che per la loro dimensione, la loro ubiquità e la loro lunga persistenza in ambiente possono interferire in maniera allarmante con gli organismi viventi. L’ampia gamma di dimensioni delle microplastiche e la natura complessa delle loro forme, colori e tipi di polimero hanno impedito ai ricercatori di sviluppare una classificazione coerente data anche dall'attuale assenza di una standardizzazione nel metodo di campionamento, preparazione e analisi del campione. Infatti lo studio di questa tipologia di inquinanti può essere effettuato mediante diverse metodologie analitiche sia di tipo spettroscopico che termico. Con questo studio si è cercato di valutare le potenzialità della pirolisi analitica (PyGCMS) per la quantificazione e identificazione di sei polimeri: PE, PP, PS, PET, PVC e PA. Tramite un attento confronto con la letteratura sono stati identificati alcuni punti critici nell'analisi quantitativa di alcuni polimeri in miscela. In particolare, la miscela PET/PA è risultata essere soggetta a grandi interferenze date dalla comparsa di prodotti pirolitici secondari che ne impediscono una corretta quantificazione. Inoltre un diverso rapporto dei polimeri nella miscela binaria va a modificare la risposta quantitativa rendendola non prevedibile. L’uso di derivatizzanti come agenti metilanti sembra ridurre alcuni effetti di interazione in pirolisi, ma non sembra essere così vantaggioso come riportato in altri studi. Complessivamente la pirolisi analitica risulta una tecnica applicabile alla identificazione e quantificazione delle microplastiche, ma emerge dallo studio una scarsa conoscenza in letteratura delle interazioni in fase pirolitica tra prodotti di pirolisi di diversi polimeri.
Resumo:
L’obiettivo del seguente elaborato è quello di spiegare le modalità con cui viene monitorato il misfire, le varie strategie a supporto e la calibrazione che ne consegue in un motore V6 Twin Spark con sistema a precamera. Le varie attività sono state svolte nel gruppo OBD presso il dipartimento Powertrain dell’azienda Maserati S.p.A. nell’ambito della diagnosi misfire. Nella prima parte dell’elaborato verrà introdotto un quadro illustrativo delle normative vigenti in tema di emissioni per un motore a combustione interna che delineerà l’esigenza di avere un sistema di monitoraggio On-Board Diagnostic, e verranno descritte le principali diagnosi per i componenti meccanici ed elettronici. Nel secondo capitolo verrà introdotto il concetto di misfire, la sua classificazione e i requisiti che devono essere rispettati per il suo monitoraggio; nell’ultima parte, verrà descritto il motore oggetto di studi e le strumentazioni utilizzate per lo sviluppo dell’attività. Nel terzo capitolo verranno introdotte le varie strategie utilizzate per il rilevamento della mancata accensione della miscela e verrà illustrato come il sistema a precamera ha richiesto la loro revisione. In particolare, per quanto riguarda l’utilizzo della corrente di ionizzazione saranno analizzate le criticità dovute a questo nuovo sviluppo e per l’analisi della variazione di velocità angolare della ruota fonica verrà analizzato come tale sviluppo ha impattato nelle temperature del catalizzatore e nella robustezza della diagnosi effettuata. Infine, nell’ultimo capitolo verrà illustrato come ci si è approcciati alla calibrazione della finestra di osservazione, partendo dalle prove effettuate al banco, proseguendo con l’analisi di tali prove nelle varie condizioni di funzionamento del motore e concludendo con l’implementazione del processo di calcolo automatizzato per la calibrazione. In merito a quest'ultimo punto è stato sviluppato un Tool finalizzato a calcolare la finestra ottimale per ogni punto motore.
Resumo:
La presente tesi ha come obiettivo lo studio dei gruppi dei fregi e dei gruppi cristallografici piani. L’elaborato si articola in sei capitoli: il primo e il secondo riguardano rispettivamente alcuni richiami sui gruppi e sulle isometrie; il terzo tratta i gruppi finiti e i gruppi discreti di movimenti. Nel quarto sono classificati i gruppi dei fregi e vi è un esempio per ciascuno nell’arte decorativa. Nel quinto vi è la classificazione dei gruppi cristallografici piani. Infine l’ultimo capitolo riguarda l’artista M.C.Escher e sono presenti quindici sue opere, ognuna delle quali rappresenta un gruppo cristallografico piano diverso.
Resumo:
L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.