217 resultados para varietà topologia triangolazione nodi chirurgia
Resumo:
Dopo aver dato una definizione formale per il modello di Erdos-Rényi, si dimostra che in un grafo ER il grado dei nodi (misura della connessione) risulta essere una variabile aleatoria con distribuzione binomiale, mentre il clustering (misura della densità di archi a livello locale) tende a zero. Successivamente si determinano le funzioni soglia per alcune proprietà monotone particolarmente significative, consentendo così di descrivere diverse configurazioni possibili per un grafo ER al variare dei suoi parametri. Infine, si mostra come si possano utilizzare i grafi ER per modellizzare la diffusione di una malattia infettiva all’interno di una popolazione numerosa.
Resumo:
L'espressione del gene MYCN è un importante indicatore della severità del NBL. Poiché il numero di copie di MYCN è un indice grezzo della sua espressione quantificarle utilizzando tecniche come la “fluorescent in situ hybridization” (FISH) può servire a formulare una stima del livello di espressione MYCN [Shapiro 1993]. Tuttavia, l'espressione aberrante di MYCN nel NBL non è sempre associata all'amplificazione genica; pertanto la valutazione diretta del livello di espressione di questo gene sarebbe un miglior indicatore prognostico. Questa tesi è stata sviluppata nell'ambito di un progetto che si propone di realizzare un sensore biomolecolare sintetico per l'identificazione del livello di espressione di MYCN. Di seguito saranno presentati i dettagli relativi alla progettazione della topologia circuitale e all’analisi in silico che sono state condotte per caratterizzare il comportamento dinamico del sistema. Questo lavoro è stato svolto nel laboratorio di Ingegneria Cellulare e Molecolare "S. Cavalcanti", presso la Sede di Cesena del Dipartimento di Ingegneria dell'Energia elettrica e dell'Informazione "Guglielmo Marconi" (DEI) dell’Ateneo di Bologna.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
Grazie alla costante evoluzione tecnologica, negli ultimi anni sempre più oggetti di vita quotidiana stanno accedendo ad Internet. Il proliferare dei dispositivi “smart” ha dato il via ad una nuova rivoluzione tecnologica: quella di Internet of Things (IoT), che sta portando nelle mani degli utenti un elevatissimo numero di informazioni in grado di offrire notevoli benefici alla vita di ogni giorno. Per poter accedere ai dati messi a disposizione risulterà necessario realizzare un servizio in grado di consentire la scoperta, l’accesso e l’interazione con i nodi della rete che si occuperanno della gestione delle informazioni. In letteratura sono già disponibili alcuni di questi meccanismi, ma essi presentano dei difetti che verrebbero ancor più accentuati dalle ridotte capacità computazionali dei terminali IoT. In questo progetto di tesi verrà presentato un servizio di discovery per gateway IoT Kura-based, pensato, grazie all’utilizzo del protocollo di messaggistica MQTT, per operare con terminali dalle performance limitate ed in situazioni di scarsa connettività. Il servizio realizzato prevede che degli smartphone Android richiedano a tutti i gateway in una determinata località i parametri per entrare nel loro network. La richiesta verrà inviata mediante un messaggio MQTT pubblicato in un topic location-specific su un broker remoto. I gateway che riceveranno il messaggio, se interessati alle caratteristiche del client, gli risponderanno comunicando i dati di accesso al network in modo che il dispositivo possa auto-configurarsi per accedervi. Ad accesso avvenuto client e gateway comunicheranno in modo diretto attraverso un broker locale. In fase di testing si valuteranno le performance del servizio analizzando i tempi di risposta e l’utilizzo di risorse lato gateway, e l’assorbimento di potenza lato client.
Resumo:
High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.
Resumo:
In questa tesi vengono studiate alcune caratteristiche dei network a multiplex; in particolare l'analisi verte sulla quantificazione delle differenze fra i layer del multiplex. Le dissimilarita sono valutate sia osservando le connessioni di singoli nodi in layer diversi, sia stimando le diverse partizioni dei layer. Sono quindi introdotte alcune importanti misure per la caratterizzazione dei multiplex, che vengono poi usate per la costruzione di metodi di community detection . La quantificazione delle differenze tra le partizioni di due layer viene stimata utilizzando una misura di mutua informazione. Viene inoltre approfondito l'uso del test dell'ipergeometrica per la determinazione di nodi sovra-rappresentati in un layer, mostrando l'efficacia del test in funzione della similarita dei layer. Questi metodi per la caratterizzazione delle proprieta dei network a multiplex vengono applicati a dati biologici reali. I dati utilizzati sono stati raccolti dallo studio DILGOM con l'obiettivo di determinare le implicazioni genetiche, trascrittomiche e metaboliche dell'obesita e della sindrome metabolica. Questi dati sono utilizzati dal progetto Mimomics per la determinazione di relazioni fra diverse omiche. Nella tesi sono analizzati i dati metabolici utilizzando un approccio a multiplex network per verificare la presenza di differenze fra le relazioni di composti sanguigni di persone obese e normopeso.
Resumo:
Nella tesi viene studiata la dinamica stocastica di particelle non interagenti su network con capacita di trasporto finita. L'argomento viene affrontato introducendo un formalismo operatoriale per il sistema. Dopo averne verificato la consistenza su modelli risolvibili analiticamente, tale formalismo viene impiegato per dimostrare l'emergere di una forza entropica agente sulle particelle, dovuta alle limitazioni dinamiche del network. Inoltre viene proposta una spiegazione qualitativa dell'effetto di attrazione reciproca tra nodi vuoti nel caso di processi sincroni.
Resumo:
Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.
Resumo:
Questa tesi si pone l'obiettivo di implementare in ambiente Linux un'applicazione di sincronizzazione, chiamata DTNbox, che permetta lo scambio di file tra due nodi di una rete classificabile come Delay-/Disruption-Tolerant Network (DTN), ossia una rete in cui a causa di ritardi, interruzioni, partizionamento, non sia possibile utilizzare l'usuale architettura di rete TCP/IP. E' evidente che i problemi menzionati rendono estremamente più complessa la sincronizzazione fra cartelle rispetto ad Internet, da cui le peculiarità di DTNbox rispetto ad altre applicazioni in rete visto che, ad esempio, non è possibile la sincronizzazione tramite un nodo centrale, come in Dropbox e similari, ma occorre basarsi su comunicazioni peer-to-peer. L'oggetto della mia tesi si è quindi sviluppato principalmente su tre direzioni: • Implementare, utilizzando il linguaggio di programmazione C, le funzionalità previste dal nuovo progetto per Linux • Integrarne e modificarne le parti ritenute carenti, man mano che i test parziali ne hanno mostrato la necessità • Testarne il suo corretto funzionamento Si è deciso pertanto di dare precedenza alla scrittura delle parti fondamentali del programma quali i moduli di controllo, la struttura e gestione del database e lo scambio di messaggi tra due nodi appartenenti ad una rete DTN per poter arrivare ad una prima versione funzionante del programma stesso, in modo che eventuali future tesi possano concentrarsi sullo sviluppo di una interfaccia grafica e sull'aggiunta di nuovi comandi e funzionalità accessorie. Il programma realizzato è stato poi testato su macchine virtuali grazie all'uso dello strumento Virtualbricks.
Resumo:
Il presente elaborato nasce dalla proposta di traduzione del documentario “C’era una volta un trenino azzurro”, il quale ripercorre il tragitto del trenino che fino al 1968 collegava le città umbre di Spoleto e Norcia e che è oggi una via di mobilità dolce promossa in particolar modo dalla Confederazione Mobilità Dolce (Co.Mo.Do.). La varietà dei paesaggi attraversati, le difficoltà tecniche e gli astuti escamotage messi in atto per superarle sono stati il punto di partenza per una riflessione metaforica in cui quest’avventuroso viaggio si riflette nell’altrettanto interessante e complesso viaggio della traduzione. Allo stesso modo, il genere audiovisivo del documentario viene descritto sulla base di un confronto tra i suoi elementi e le caratteristiche fondamentali dell’attività di traduzione. Inoltre, si osservano brevemente i caratteri della traduzione audiovisiva, con un’attenzione particolare alle tecniche del voice-over e della sottotitolazione. Per concludere, viene analizzata la traduzione proposta, seguendo le fasi attraverso cui il lavoro è stato svolto.
Resumo:
Lo studio si occupa di fluency e analizza alcuni aspetti che la definiscono (pause vuote, pause piene, segnali discorsivi, riformulazioni). Si analizzano frequenza e durata di tali fenomeni, attraverso due corpora di produzioni orali di due gruppi di parlanti della lingua inglese: gli studenti italiani del corso di Mediazione Linguistica Interculturale della Scuola di Lingue, Letterature, Interpretazione e Traduzione di Forlì, Università di Bologna, e partecipanti britannici di un programma radiofonico. Si è ritenuto utile comparare le produzioni orali di studenti della lingua inglese a quelle di oratori pubblici madrelingua. Si è cercato di bilanciare i due corpora in termini di genere. Sono stati utilzzati i software Praat, per identificare la morfologia e la durata delle variabili, e Notetab Light, per l'annotazione dei corpora. I risultati della ricerca mostrano che le differenze maggiori tra i due gruppi risiedono nella durata delle pause vuote e nella frequenza, durata e e varietà di suoni delle pause piene, oltre a sillabe aggiuntive, sillabe allungate e riformulazioni. Le sillabe aggiuntive appaiono tipiche della produzione orale degli studenti italiani, in quanto, per la maggior parte, le parole della lingua italiana terminano con un suono vocalico. E' inoltre emersa una questione di genere. Le parlanti di sesso femminile, in entrambi i corpora, impiegano maggiormente le variabili della fluency prese in esame, rispetto ai parlanti di sesso maschile. Sulla base di questa ricerca e ricerche future si potranno ideare moduli di insegnamento dell'inglese basati sulla fluency come fattore primario di competenza linguistica. Il Capitolo 1 introduce lo studio. Il Capitolo 2 presenta lo stato dell'arte sul tema. Il Capitolo 3 presenta la metodologia dello studio. Il Capitolo 4 è dedicato a illustrare e discutere i risultati della ricerca. Il Capitolo 5 presenta considerazioni conclusive e future prospettive per l'insegnamento dell'inglese e per la ricerca.
Resumo:
Questo elaborato di tesi ha lo scopo di illustrare un'applicazione realizzata per dispositivi Android in grado di localizzare l'utente all'interno di un ambiente indoor sfruttando l'utilizzo dei Beacon e dare una valutazione dei risultati ottenuti. L'utente potrà registrare i dispositivi Beacon in suo possesso all'interno dell'applicazione, caricare la planimetria di un ambiente e configurarlo indicando esattamente quale Beacon si trova in una determinata posizione. Infine potrà scegliere quale tra i tre algoritmi implementati (Prossimità, Triangolazione e Fingerprinting) utilizzare per visualizzare la propria posizione sulla mappa. I tre algoritmi sono stati sottoposti a vari test che hanno permesso di analizzare le differenze tra di essi in termini di accuratezza e le performance generali dell'applicativo.
Resumo:
Le regioni HII sono nubi di idrogeno ionizzato da stelle di recente formazione, massicce e calde. Tali stelle, spesso raggruppate in ammassi, emettono copiosamente fotoni di lunghezza d’onda λ ≤ 912 Å, capaci di ionizzare quasi totalmente il gas che le circonda, composto prevalentemente da idrogeno, ma in cui sono presenti anche elementi ionizzati più pesanti, come He, O, N, C e Ne. Le dimensioni tipiche di queste regioni vanno da 10 a 100 pc, con densità dell’ordine di 10 cm−3. Queste caratteristiche le collocano all’interno del WIM (Warm Ionized Medium), che, insieme con HIM (Hot Ionized Medium), WNM (Warm Neutral Medium) ed CNM (Cold Neutral Medium), costituisce la varietà di fasi in cui si presenta il mezzo interstellare (ISM, InterStellar Medium). Il tema che ci prestiamo ad affrontare è molto vasto e per comprendere a fondo i processi che determinano le caratteristiche delle regioni HII sarebbero necessarie molte altre pagine; lo scopo che questo testo si propone di raggiungere, senza alcuna pretesa di completezza, è dunque quello di presentare l’argomento, approfondendone ed evidenziandone alcuni particolari tratti. Prima di tutto descriveremo le regioni HII in generale, con brevi indicazioni in merito alla loro formazione e struttura. A seguire ci concentreremo sulla descrizione dei processi che determinano gli spettri osservati: inizialmente mostreremo quali siano i processi fisici che generano l’emissione nel continuo, concentrandoci poi su quello più importante, la Bremmstrahlung. Affronteremo poi una breve digressione riguardo al processo di ricombinazione ione-elettrone nei plasmi astrofisici ed alle regole di selezione nelle transizioni elettroniche, concetti necessari per comprendere ciò che segue, cioè la presenza di righe in emissione negli spettri delle regioni foto-ionizzate. Infine ci soffermeremo sulle regioni HII Ultra-Compatte (UC HII Region), oggetto di numerosi recenti studi.
Resumo:
Fin dall'antichità, arte e geometria sono state spesso accostate, ma mai come nel caso delle opere di Maurits Cornelis Escher. Le celebri litografie del grafico olandese, infatti, traggono quasi sempre ispirazione dal mondo geometrico, in particolare le cosiddette ''stampe impossibili'', in cui compaiono edifici irrealizzabili, costruzioni illusorie e fenomeni che non rispettano le leggi della fisica. Oltre che su illusioni ottiche, esse sono basate su concetti matematici veri e propri, così come vedremo durante l'elaborato. Questa tesi, partendo dal Capitolo 8 del libro Yearning for the impossible di John Stillwell, studia gli spazi in cui immergere le costruzioni impossibili di Escher per renderle realizzabili, basandosi in particolare sul concetto di varietà topologica e di proiezione di rivestimento. Dopo un primo capitolo introduttivo sulla vita di Escher e sulle opere che andremo ad approfondire, la trattazione procede con un capitolo in cui si definiscono alcuni strumenti matematici: essi saranno utilizzati per giustificare la consistenza dei soggetti delle litografie precedentemente mostrate. Nell'ultima sezione ci dedichiamo a mostrare come tali strumenti matematici possano rendere possibili le visioni del grafico olandese, esplicando caso per caso come intervengano nella realizzazione e come conducano a un risultato impossibile nella realtà tridimensionale in cui viviamo ma non nello spazio in cui vengono immerse.
Resumo:
Si danno la definizione formale e alcune proprietà elementari della funzione zeta di Hasse-Weil. Si forniscono poi alcuni esempi di calcolo della stessa, in particolare si esaurisce il caso delle coniche affini.