280 resultados para Morphing, classificazione
Studio sperimentale del coefficiente di compressibilità secondaria al variare del contenuto organico
Resumo:
Questa tesi svolta nell’ambito della geotecnica ha L’obiettivo di porre l’attenzione sul comportamento dei cedimenti secondari, quindi sul coefficiente di consolidazione secondaria Cα mediante l’esecuzione di una prova edometrica su di una sezione di campione estratto in sito, dove si evidenzia una percentuale di contenuto organico molto alta (torba).Si introduce il concetto di terreno organico a partire dalla genesi fino ad una classificazione atta a distinguere terreni con percentuali di componente organica differenti. Si spiega la teoria della consolidazione monodimensionale, quindi la prova edometrica, riportando in maniera grafica e analitica tutti i coefficienti che da essa si possono ricavare a partire dai parametri di compressione volumetrica fino alla consolidazione primaria e secondaria (o creep)si descrivono dettagliatamente la strumentazione e la procedura di prova. Descrivendo l’edometro utilizzato in laboratorio e tutti gli accessori ad esso collegati, il campione da analizzare, la procedura di preparazione del campione alla prova edometrica, trovando alcune proprietà fisiche del campione, come il contenuto d’acqua e il contenuto organico, ed in fine riportando i passaggi della prova edometrica in modo tale da poter essere riprodotta.Si analizzano tutti i risultati ottenuti durante la prova in maniera analitica e grafica, osservando e commentando la forma dei grafici ottenuti in relazione al materiale che compone il campione ed i tempi impiegati per eseguire la prova.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
This presentation was both an illustrated lecture and a published paper presented at the IMPACT 9 Conference Printmaking in the Post-Print Age, Hangzhou China 2015. It was an extension of the exhibition catalogue essay for the Bluecoat Gallery Exhibition of the same name. In 2014 I curated an exhibition The Negligent Eye at the Bluecoat Gallery in Liverpool as the result of longstanding interest in scanning and 3D printing and the role of these in changing the field of Print within Fine Art Practice. In the aftermath of curatingshow I have continued to reflect on this material with reference to the writings of Vilém Flusser and Hito Steyerl. The work in the exhibition came from a wide range of artists of all generations most of whom are not explicitly located within Printmaking. Whilst some work did not use any scanning technology at all, a shared fascination with the particular translating device of the systematizing ‘eye’ of a scanning digital video camera, flatbed or medical scanner was expressed by all the work in the show. Through writing this paper I aim to extend my own understanding of questions, which arose from the juxtapositions of work and the production of the accompanying catalogue. The show developed in dialogue with curators Bryan Biggs and Sarah-Jane Parsons of the Bluecoat Gallery who sent a series of questions about scanning to participating artists. In reflecting upon their answers I will extend the discussions begun in the process of this research. A kind of created attention deficit disorder seems to operate on us all today to make and distribute images and information at speed. What value do ways of making which require slow looking or intensive material explorations have in this accelerated system? What model of the world is being constructed by the drive to simulated realities toward ever-greater resolution, so called high definition? How are our perceptions of reality being altered by the world-view presented in the smooth colourful ever morphing simulations that surround us? The limitations of digital technology are often a starting point for artists to reflect on our relationship to real-world fragility. I will be looking at practices where tactility or dimensionality in a form of hard copy engages with these questions using examples from the exhibition. Artists included in the show were: Cory Arcangel, Christiane Baumgartner, Thomas Bewick, Jyll Bradley, Maurice Carlin, Helen Chadwick, Susan Collins, Conroy/Sanderson, Nicky Coutts, Elizabeth Gossling, Beatrice Haines, Juneau Projects, Laura Maloney, Bob Matthews, London Fieldworks (with the participation of Gustav Metzger), Marilène Oliver, Flora Parrott, South Atlantic Souvenirs, Imogen Stidworthy, Jo Stockham, Wolfgang Tillmans, Alessa Tinne, Michael Wegerer, Rachel Whiteread, Jane and Louise Wilson. Scanning, Art, Technology, Copy, Materiality.
Resumo:
Gli ultimi 10 anni hanno visto un crescente aumento delle richieste di fornitura di servizi legati alla manutenzione edilizia da parte della Grande Distribuzione Organizzata; la domanda è quella di servizi riconducibili al Facility Management, ovvero rapporti basati sul raggiungimento di standard qualitativi predefiniti in sede contrattuale e garanzia di intervento 24h/24. Nella prima parte del progetto di tesi viene inquadrata la disciplina del FM, le motivazioni, gli strumenti e gli attori coinvolti. Dopo un excursus normativo sulla manutenzione in Italia, una classificazione delle tipologie di intervento manutentivo e una valutazione sull’incidenza della manutenzione nel Life Cycle Cost, viene effettuata un’analisi delle modalità interoperative del FM applicato alla manutenzione edilizia nel caso della GDO. La tesi è stata svolta nell'ambito di un tirocinio in azienda, il che ha permesso alla laureanda di affrontare il caso di studio di un contratto di Global Service con un’importante catena di grande distribuzione, e di utilizzare un software gestionale (PlaNet) con il quale viene tenuta traccia, per ogni punto vendita, degli interventi manutentivi e della loro localizzazione nell’edificio. Questo permette di avere un quadro completo degli interventi, con modalità di attuazione già note, e garantisce una gestione più efficace delle chiamate, seguite tramite un modulo di Call Center integrato. La tesi esamina criticamente i principali documenti di riferimento per l’opera collegati alla manutenzione: il Piano di Manutenzione e il Fascicolo dell’Opera, evidenziando i limiti legati alla non completezza delle informazioni fornite. L’obbiettivo finale della tesi è quello di proporre un documento integrativo tra il Piano di Manutenzione e il Fascicolo, al fine di snellire il flusso informativo e creare un documento di riferimento completo ed esaustivo, che integra sia gli aspetti tecnici delle modalità manutentive, sia le prescrizioni sulla sicurezza.
Resumo:
Il presente lavoro di tesi consiste nello studio petrografico (in sezione sottile) e geochimico (con analisi in XRF), di 18 campioni della successione di vulcaniti permiane del Gruppo Vulcanico Atesino. I campioni sono stati prelevati durante un rilevamento geologico nelle aree del Passo Rolle e S. Martino di Castrozza. Lo scopo della tesi è di fornire una precisa classificazione dei litotipi su base petrografica-geochimica.
Resumo:
A alexitimia é o termo usado para caracterizar as pessoas com défices no processamento, na compreensão e na descrição de emoções. Definida também como um traço de personalidade multifatorial, a alexitimia tem uma prevalência de 10% na população em geral e está associada a uma menor qualidade de vida. Apesar de este estudo incidir-se numa população saudável, a alexitimia está frequentemente associada a patologias físicas e perturbações mentais. O objetivo deste estudo consistiu em verificar a influência da alexitimia na categorização das expressões faciais emocionais, numa tarefa de apresentação de faces dinâmicas. 87 participantes com diferentes índices de alexitimia completaram uma tarefa que consistia na apresentação de faces dinâmicas cujo o intuito era categorizar as expressões faciais de raiva, nojo e alegria. A precisão das respostas e os níveis de intensidade emocional foram manipulados. Os resultados indicaram que os indivíduos, no geral, identificaram mais precisamente e com menores níveis de intensidade emocional a expressão de alegria comparativamente com as expressões negativas (raiva e nojo). Verificou-se também diferenças significativas entre a alexitimia e as expressões faciais emocionais relativamente à precisão na categorização. Deste modo, foi possível verificar neste estudo, que indivíduos com altos níveis de alexitimia foram significativamente menos precisos na identificação da expressão facial de raiva comparativamente com indivíduos com baixos níveis de alexitimia.
Resumo:
Questo lavoro nasce dal desiderio di approfondire i fondamenti del linguaggio della matematica, osservandone gli usi ed analizzandone gli scopi dal punto di vista didattico e non solo. Il linguaggio è il mezzo su cui si costruiscono i pensieri o semplicemente lo strumento coi quali si comunica il sapere? Il linguaggio è uno strumento della pratica matematica o è la matematica ad essere un linguaggio? Se lo è, che caratteristiche ha? Queste sono le domande che hanno accompagnato la stesura dei primi capitoli di questa tesi, in cui si approfondisce il tema del linguaggio della matematica da un punto di vista epistemologico, tecnico e didattico, a partire dai riferimenti teorici e dalle ricerche sul campo curate da Bruno D’Amore e Pier Luigi Ferrari. Nella seconda parte si presentano i risultati e le osservazioni della sperimentazione condotta nella classe 5a As del Liceo Scientifico “A. Righi” di Cesena. L’indagine di tipo qualitativo sui protocolli degli studenti ha permesso di definire le modalità d’uso del linguaggio da parte degli stessi al termine del percorso scolastico, di mostrare alcuni possibili legami tra le competenze linguistiche e quelle matematiche e di delineare una classificazione di tre profili di allievi relativamente al loro modo di scrivere e parlare di matematica. La tesi ha favorito uno sguardo trasversale verso la matematica in cui il linguaggio offre una fruttuosa possibilità di incontro tra prospettive opposte nel guardare la scienza e l’uomo. Questo apre alla possibilità di costruire una didattica che non sia la mera somma di conoscenze o la divisione di settori disciplinari, ma il prodotto di elementi che armoniosamente costruiscono il pensiero dell’uomo.
Resumo:
Partendo dalla definizione di UAV e UAS, arrivando a quella di drone, nella tesi saranno definiti i termini precedenti, ossia un sistema aereo senza pilota a bordo, la nascita del termine drone e le tendenze attuali. Dopo una precisa classificazione nelle quattro categorie principali (droni per hobbisti, commerciali e militari di me- dia grandezza, militari specifici di grandi dimensioni e stealth da combattimento) saranno descritti gli ambiti di utilizzo: da un lato quello militare e della sicurezza, dall’altro quello civile e scientifico. I capitoli centrali della tesi saranno il cuore dell’opera: l’architettura dell’UAV sarà descritta analizzando la totalità delle sue componenti, sia hardware che software. Verranno, quindi, analizzati i problemi relativi alla sicurezza, focalizzandosi sull’hacking di un UAV, illustrandone le varie tecniche e contromisure (tra cui anche come nascondersi da un drone). Il lavoro della tesi prosegue nei capitoli successivi con un’attenta trattazione della normativa vigente e dell’etica dei droni (nonché del diritto ad uccidere con tali sistemi). Il capitolo relativo alla tecnologia stealth sarà importante per capire le modalità di occultamento, le tendenze attuali e i possibili sviluppi futuri degli UAV militari da combattimento. Il capitolo finale sugli sviluppi futuri esporrà le migliorie tecnologiche e gli obiettivi degli UAV negli anni a venire, insieme ad eventuali utilizzi sia militari che civili. La ricerca sarà orientata verso sistemi miniaturizzati, multiple UAV e swarming.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Quando si fa una ricerca su Internet con i motori di ricerca, tipo Google, lo scopo è quello di trovare tutte le pagine Web contenenti le parole richieste. Ancor di più, si vorrebbe avere la miglior risposta alla nostra richiesta tra le prime pagine lette, senza dover passare in rassegna tutte le migliaia di pagine che il motore di ricerca propone. Quello che riceviamo come risposta dal motore di ricerca, è infatti una lista lunghissima di pagine Web, contenenti le parole chiave e ordinate in base all’importanza. Nelle prime posizioni della lista troveremo le pagine più significative, mentre in fondo ci saranno quelle di meno rilevanza. In questa tesi affronteremo, appunto, il problema di classificazione, il quale non è basato su un giudizio umano, ma sulla struttura dei link del Web. Studieremo, per l’esattezza, il concetto di pagerank usato da Google e di conseguenza l’algoritmo, chiamato proprio PageRank, per classificare le pagine Web. Vedremo che il tutto si basa su un’equazione matematica, ossia sul calcolo dell’autovettore, relativo all’autovalore uguale a 1, di una certa matrice che rappresenta la rete Internet.