221 resultados para Raspberry Pi Linux Reti Calcolatori Python
Resumo:
La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.
Resumo:
La fisica del sapore è uno dei settori di ricerca più promettenti per realizzare misure di altissima precisione del Modello Standard e per osservare indirettamente, attraverso i decadimenti mediati dalle interazioni deboli nuove particelle. L'esperimento LHCb \`e stato progettato per realizzare misure di altissima precisione in questo settore. Grazie all'alta luminosità integrata disponibile (3 fb \ap{-1}) ed alla elevata sezione d’urto di produzione dei quark charm, LHCb \`e in grado di realizzare misure di una precisione mai raggiunta fino ad ora da altri esperimenti. In questo lavoro di tesi \`e stata realizzata una misura preliminare della simmetria di violazione di CP, realizzata mediante i decadimenti dei mesoni neutri $D^0$ negli stati finali $K^+K^-$ e $\pi^+\pi^-$. Per realizzare la misura sono stati selezionati i decadimenti $D^{*\pm} \to D^0(K^+K^-)\pi^\pm_s$ e $D^{*\pm} \to D^0(\pi^+\pi^-)\pi^\pm_s$ utilizzando i dati raccolti da LHCb durante il RUN-1 (2010-2012) ed \`e stato sviluppato un modello di adattamento ai dati in grado di misurare la differenza di asimmetria di CP integrate nel tempo nei decadimenti $D^0 \rightarrow K^+K^-$ e $D^0 \rightarrow \pi^+\pi^-$, $\Delta A_{CP}$. Il modello \`e stato sviluppato in modo da descrivere le distribuzioni di massa invariante del $D^0$ e del $D^{*\pm}$ sia per la componente di segnale sia per quelle di fondo ed \`e stato adattato ai dati, per sottrarne i fondi e misurare le asimmetrie $A_{RAW}(K^+K^-)$ e $A_{RAW}(\pi^+\pi^-)$, corrispondenti alla differenza tra il numero di eventi di segnale $D^{*+}$ e $D^{*-}$, diviso la loro somma. La differenza di queste asimmetrie corrisponde a $\Delta A_{CP}$, la cui misura, non ufficiale, \`e stata determinata essere $\Delta A_{CP}= (-0.12\pm 0.08)\% $. Questo risultato rappresenta la miglior misura al mondo mai realizzata da un singolo esperimento.
Resumo:
Negli ultimi anni, parallelamente allo sviluppo di calcolatori elettronici sempre più performanti, la fluidodinamica computazionale è diventata uno strumento di notevole utilità nell’analisi dei flussi e nello sviluppo di dispositivi medici. Quando impiegate nello studio di flussi di fluidi fisiologici, come il sangue, il vantaggio principale delle analisi CFD è che permettono di caratterizzare il comportamento fluidodinamico senza dover eseguire test in-vivo/in-vitro, consentendo quindi notevoli vantaggi in termini di tempo, denaro e rischio derivante da applicazioni mediche. Inoltre, simulazioni CFD offrono una precisa e dettagliata descrizione di ogni parametro di interesse permettendo, già in fase di progettazione, di prevedere quali modifiche al layout garantiranno maggiori vantaggi in termini di funzionalità. Il presente lavoro di tesi si è posto l’obiettivo di valutare, tramite simulazioni CFD, le performances fluidodinamiche del comparto sangue “camera venosa” di un dispositivo medico monouso Bellco impiegato nella realizzazione di trattamenti di emodialisi. Dopo una panoramica del contesto, è presentata una breve descrizione della disfunzione renale e dei trattamenti sostitutivi. Notevole impegno è stato in seguito rivolto allo studio della letteratura scientifica in modo da definire un modello reologico per il fluido non-Newtoniano preso in considerazione e determinarne i parametri caratteristici. Il terzo capitolo presenta lo stato dell’arte delle apparecchiature Bellco, rivolgendosi con particolare attenzione al componente “cassette” del dispositivo monouso. L’analisi fluidodinamica del compartimento “camera venosa” della cassette, che sarà presa in considerazione nei capitoli quinto e sesto, si inserisce nell’ambito della riprogettazione del dispositivo attualmente in commercio: il quarto capitolo si incentra sul suo nuovo design, ponendo specifico interesse sul layout della camera venosa di nuova generazione. Per lo studio dei flussi che si sviluppano internamente ad essa ci si è avvalsi del modulo CFD del software COMSOL multiphysics® (versione 5.0); la definizione del modello implementato e della tipologia di studio effettuato sono presi in considerazione nel quinto capitolo. Le problematiche di maggior impatto nella realizzazione di un trattamento di emodialisi sono l’emolisi e la coagulazione del sangue. Nell'evenienza che si verifichino massivamente occorre infatti interrompere il trattamento con notevoli disagi per il paziente, per questo devono essere evitate. Nel sesto capitolo i risultati ottenuti sono stati esaminati rivolgendo particolare attenzione alla verifica dell’assenza di fenomeni che possano portare alle problematiche suddette.
Resumo:
I sistemi di autenticazione con secondo fattore permettono una migliore protezione dell'identità digitale degli utenti. Questo lavoro descrive l'analisi e progettazione della soluzione di autenticazione a più fattori da integrare nel sistema di Ateneo, conclusasi con lo sviluppo del modulo di integrazione tra il servizio di autenticazione Web Single Sign-On dell'Università di Bologna (ADFS 3.0) e la piattaforma scelta per la fornitura (Time4ID). L'integrazione è stata effettuata programmando un Authentication Provider, costituito da una libreria di integrazione scritta in C#, capace di integrarsi con la piattaforma cloud-based di verifica del secondo fattore.
Resumo:
Presentazione generale delle reti neuronali e descrizione della loro evoluzione. Introduzione al connessionismo e studio di tre casi di applicazione delle reti neuronali per la composizione musicale.
Resumo:
Descrizione dei vari standard 802.11 e della loro evoluzione, analisi dei protocolli di sicurezza e possibili attacchi alle reti wireless.
Resumo:
L’insufficienza renale cronica è una malattia di grande impatto sulla sanità pubblica. Il punto di approdo per la maggior parte dei pazienti, alternativo al trapianto renale, è il trattamento dialitico che rappresenta una cura ad alto costo sia sociale che economico. Il rene artificiale è il dispositivo attraverso il quale si effettua la terapia, ed è frutto di un costante sviluppo che mira a sostituire la funzione renale in quanto sottosistema dell’organismo umano. Per questo è sempre più importante dotarlo di un adeguato set di sensori che permettano di monitorare l’efficacia del trattamento. L’emodialisi prevede la rimozione dei liquidi in eccesso accumulati nel periodo che intercorre tra due trattamenti successivi, per questo un parametro molto importante da monitorare è la variazione relativa del volume ematico (RBV, Relative Blood Volume Variation). A questo scopo gli attuali dispositivi per dialisi in commercio utilizzano tecnologie ad ultrasuoni o ottiche: è stata però recentemente evidenziata la sensibilità indesiderata di questa seconda tecnica ai cambiamenti di osmolarità del sangue sotto analisi. Lo studio presentato in questa tesi è volto a migliorare l’accuratezza con la quale effettuare la stima del RBV nel corso del trattamento dialitico, attraverso un sistema di misura ottico sperimentale. Il prototipo realizzato prevede di aumentare le informazioni raccolte sia aumentando la distribuzione spaziale dei sensori ottici che allargando la banda di lunghezze d’onda alla quale i dati vengono acquisiti. La stima del RBV è gestita attraverso algoritmi basati sulle combinazioni lineari, sulle reti neurali e su modelli autoregressivi.
Resumo:
Riscrivere la storia di un luogo urbano, risolverlo sviluppando un sistema progettuale complesso, rende necessario cogliere le caratteristiche stesse del luogo, individuare le possibilità e le potenzialità strutturali che lo spazio offre e svelare rapporti talvolta sottesi. Il progetto ha origine dalle necessità e da esse trae forza: l’architettura ideata deriva direttamente dal confronto tra il luogo, la sua storia e le sue trasformazioni, e gli esempi, le architetture che conosciamo, quelle costruite e quelle soltanto disegnate. La risoluzione della Caserma Mameli, la restituzione del suo spazio alla grande città, l’auspicabile creazione di un nuovo nucleo di riferimento per la zona Milano Nord, porta a riflettere sull’importanza del riutilizzo urbano al fine di ottenere nuove unioni e sinergie all’interno del complesso schema della città del XXI secolo. La città contemporanea, in continua trasformazione, vive un’epoca di profondi cambiamenti: si intende progettare e pensare la città in maniera sostenibile, limitando l’impatto della nuova costruzione, favorendo il riutilizzo, urbano ed umano, sviluppando reti sempre più estese per la mobilità collettiva e cercando di limitare quanto più possibile la mera speculazione.
Resumo:
La città di Bologna, la storia, i flussi e le connessioni. Questo progetto di gruppo nasce dalla necessità di ripensare il ruolo dell’infrastruttura nella contemporaneità e nell’atteggiamento che l’architettura può assumere di fronte alle rinnovate priorità delle città italiane che, tra espansione demografica, monumenti e centri storici da preservare, nuove reti di comunicazione e scambio delle informazioni, necessitano sempre più di una pianificazione che prenda in analisi il passato, interpreti il presente e si ponga l’obiettivo primario di dialogare con il futuro. Il capoluogo Emiliano è collocato in una posizione strategica per le comunicazioni d i trasporti, tenendo uniti gli estremi dello stivale e svolgendo un ruolo di snodo a cui oggi la penisola Italiana non può in alcun modo rinunciare. Ogni giorno una quantità spropositata di pendolari e viaggiatori è indotta nella città concentrandosi in un primo momento nell’area della stazione ferroviaria e dei piazzali antistanti, per poi distribuirsi all’interno del tessuto urbano, chi utilizzando il sistema di rete tramviaria, chi a piedi o in bicicletta. L’intento principale del masterplan proposto è quindi valutare un range di informazioni supplementari ai tradizionali studi urbani. Si è notato come le aree più degradate della città (spesso limitrofe ad infrastrutture consegnate al comune senza valutarne l’integrazione e l’impatto urbano e ambientale) manchino di una circolazione costante e di attività. Si è identificato nelle migliaia di soggetti che ogni giorno giungono a Bologna usufruendo dei servizi delle Ferrovie dello Stato la linfa vitale di un’importante parte della città. Poiché progettare per un futuro prossimo è pensare a un presente in grado di accettare i propri limiti e assimilare le aberrazioni del passato, rifacendosi ad un immaginario che non può che sconfinare i paradigmi prefissati che hanno portato ad uno status irrisolto ma non irrisolvibile.
Resumo:
Lo scopo della tesi è quello di descrivere e mettere a confronto tre diversi linguaggi, e quindi approcci, alla programmazione server-side e di back-end, ovvero il linguaggio PHP, il linguaggio Python ed il linguaggio Javascript, utilizzato però per una programmazione “Server Side”, e quindi associato al framework NodeJS. Questo confronto si pone l’obiettivo di sottolineare le differenti caratteristiche di ogni linguaggio, gli scopi a cui esso maggiormente si addice e di fornire una sorta di guida per far in modo che si possa comprendere al meglio quale dei tre linguaggi maggiormente usati per la programmazione backend si conformi meglio all’obiettivo prepostosi.
Resumo:
L'argomento di questa tesi è l'architettura di rete Delay-/Disruption-Tolerant Networking (DTN), progettata per operare nelle reti “challenged”, dove la suite di protocolli TCP/IP risulta inefficace a causa di lunghi ritardi di propagazione del segnale, interruzioni e disturbi di canale, ecc. Esempi di reti “challenged” variano dalle reti interplanetarie alle Mobile Ad-Hoc Networks (MANETs). Le principali implementazioni dell'architettura DTN sono DTN2, implementazione di riferimento, e ION, sviluppata da NASA JPL per applicazioni spaziali. Una grande differenza tra reti spaziali e terrestri è che nello spazio i movimenti dei nodi sono deterministici, mentre non lo sono per i nodi mobili terrestri, i quali generalmente non conoscono la topologia della rete. Questo ha portato allo sviluppo di diversi algoritmi di routing: deterministici per le reti spaziali e opportunistici per quelle terrestri. NASA JPL ha recentemente deciso di estendere l'ambito di applicazione di ION per supportare anche scenari non deterministici. Durante la tesi, svolta presso NASA JPL, mi sono occupato di argomenti diversi, tutti finalizzati a questo obiettivo. Inizialmente ho testato la nuova implementazione dell'algoritmo IP Neighbor Discovery (IPND) di ION, corretti i bug e prodotta la documentazione ufficiale. Quindi ho contribuito ad integrare il Contact Graph Routing (CGR) di ION nel simulatore DTN “ONE” utilizzando la Java Native Interface (JNI) come ponte tra il codice Java di ONE e il codice C di ION. In particolare ho adattato tutte le librerie di ION necessarie per far funzionare CGR all'interno dell'ambiente di ONE. Infine, dopo aver analizzato un dataset di tracce reali di nodi mobili, ho contribuito a progettare e a sviluppare OCGR, estensione opportunistica del CGR, quindi ne ho curato l'integrazione in ONE. I risultati preliminari sembrano confermare la validità di OCGR che, una volta messo a punto, può diventare un valido concorrente ai più rinomati algoritmi opportunistici.
Resumo:
Lo scopo di questa tesi è dimostrare quale sia il miglior Web Framework con linguaggio Python fra i tre principali esponenti: Django, web2py e TurboGears. Inizialmente verrà effettuata un’analisi generale sui Web Framework, in particolare quelli con architettura MVC poiché sarà l’architettura utilizzata da Django, web2py e TurboGears. Successivamente, per ogni Web Framework verrà analizzata la struttura generale e i componenti core degli stessi. Tuttavia per stabilire chi sia il migliore fra di essi bisogna anche analizzare come essi gestiscono altri ambiti dello sviluppo web e quindi vengono analizzati tutti i tools messi a disposizione dai Web Framework. Alla fine verranno tratte le conclusioni in cui verrà chiarito quale sia il Web Framework migliore per uno sviluppatore e perché, andando a riassumere le caratteristiche di tutti e tre.
Resumo:
L’obbiettivo ultimo di questo elaborato è quello di valutare il rischio per un evento sismico e un evento idrogeologico di tre reti di condotte per la distribuzione dell’acqua, per poter assegnare ai vari gradi di rischio un opportuno intervento. Le condotte delle reti sono identificate con: ID, materiale, pressione nominale, diametro nominale, portata, spessore, tipologia di giunti, rivestimento, protezione catodica, anno di posa, collocazione. Noti i dati, si possono calcolare le classi dei fattori vulnerabilità, esposizione e pericolosità, relativa ad ogni singola condotta e all’intera rete. La vulnerabilità valuta i fattori di suscettibilità e resilienza di una condotta, l’esposizione valuta i costi ad essa associati e la pericolosità valuta la possibilità degli eventi scelti in base alla collocazione fisica della condotta. Le classi sono successivamente combinate per conoscere il rischio della condotta rispetto l’intera rete. Valutato il livello di rischio abbinato al livello di vulnerabilità della condotta, si ottiene l’intervento opportuno per la condotta analizzata.
Confronto simulativo tra architetture per la mobilità: analisi simulatore MIPv6 e confronto con ABPS
Resumo:
Il presente elaborato tratta il lavoro di studio, analisi e sperimentazione effettuato dal sottoscritto, Giovanni Sitta, in conclusione al Corso di Laurea Magistrale in Informatica presso l'Università degli Studi di Bologna. Questo ha dapprima previsto un periodo di approfondimento di alcune architetture di supporto alla mobilità dei terminali di rete, in particolare di due protocolli allo stato dell'arte, Mobile IPv6 (MIPv6) e Locator/Identifier Separation Protocol (LISP), e di una terza architettura sperimentale denominata Always Best Packet Switching (ABPS). Sono stati in seguito esaminati tre simulatori, uno per ciascuna architettura di supporto alla mobilità considerata, realizzati come estensioni della libreria INET del framework OMNeT++, assicurandosi che fossero conformi alle specifiche del protocollo implementato (almeno entro i limiti di semplificazione rilevanti ai fini del lavoro), e correggendone eventuali problematiche, mancanze e anomalie in caso questi non le rispettassero. Sono poi stati configurati alcuni scenari simulativi utilizzando le tre librerie, in prima battuta di natura molto semplice, utilizzati per verificare il corretto funzionamento dei simulatori in condizioni ideali, e successivamente più complessi, allestendo un ambiente di esecuzione più verosimile, dotato di un maggior numero di host connessi alla rete e di ostacoli per i segnali radio usati nelle comunicazioni wireless. Tramite i risultati sperimentali ottenuti da queste simulazioni è stato infine possibili realizzare un confronto tra le prestazioni di MIPv6, LISP e ABPS.
Resumo:
L'utilizzo sempre crescente di dispositivi mobili, lo sviluppo di applicazioni mobile in continuo aumento, e la necessità di una sempre migliore qualità della comunicazione, ha portato grande interesse ad analizzare i protocolli di supporto alla mobilità dei terminali. Questi, tra i quali il più conosciuto è forse Mobile IP, vengono posti in esame utilizzando diverse metriche per valutarne le prestazioni. Si confrontano dunque due protocolli: LISP e ABPS; per ognuno dei quali ne viene presentata e descritta l'architettura e le principali funzionalità; entrambe queste architetture per il supporto alla mobilità, prevedono delle specifiche per fornire continuità nella comunicazione durante il roaming di un nodo multihomed. Vengono presentati poi gli strumenti con i quali verrà effettuata il l'analisi: il simulatore a eventi discreti OMNeT++ e il suo framework INET. Successivamente sono descritte le principali componenti dei simulatori per LISP e ABPS, che modellano le meccaniche dei due protocolli analizzati. Questi sono stati sottoposti a modifiche mirate a correggerne eventuali anomalie di comportamento, e ad introdurre nuove funzionalità, soprattutto per quanto riguarda ABPS, che era solo parzialmente implementato. Sono mostrati gli scenari in cui verranno effettuati i test per il confronto delle prestazioni: uno scenario semplice e uno che cerca di proporre una rete urbana verosimile; di seguito vengono elencati i parametri e le configurazioni utilizzate per ognuno dei due scenari. Infine vengono presentati i risultati mettendo a confronto due aspetti della mobilità dei terminali: durata dell'intervallo di indisponibilità e latenza dei pacchetti.