360 resultados para Impostazione soggettivistica, Numeri aleatori ed Eventi, Coerenza, Dipendenza logica, Dipendenza lineare
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
Il presente documento si prefigge di affrontare lo sviluppo di un idea astratta e di descrivere accuratamente il processo che la trasforma in un prodotto finito. L'idea in questione si basa su un'applicazione Mobile per Android ed il conseguente progetto si articola su un portale di gestione di eventi (MiRambla) del quale l'app rappresenta una sua estensione. Tramite diversi step tra i quali descrizione del mondo social mobile, analisi, progettazione e sviluppo di affronterà tutto il lavoro che sta dietro alla creazione di quest'applicazione.
Resumo:
Le tematiche presentate in questa tesi fanno parte di una disciplina in ampio sviluppo nella ricerca scientifica moderna denominata “Dronistica”. I droni possiedono caratteristiche fisiche differenti in base alle esigenze dettate dall'ambito di utilizzo. La dronistica è infatti una disciplina molto varia e completa grazie alla versatilità dei dispositivi utilizzati, principalmente però tratta aeromobili a pilotaggio remoto e la loro applicazione nella computer vision. Nonostante il ricco hardware ed i molteplici software attualmente a disposizione dei ricercatori, questo settore è attualmente nelle prime fasi di vita; le prospettive di miglioramento e di sviluppo infatti sono ampie ed in mano a chi si occuperà di effettuare operazioni di ricerca e sperimentazione in tale campo. Nel seguente lavoro viene presentata la dronistica sotto ogni suo aspetto fondamentale, ponendo particolare attenzione ai dettagli tecnici ed alle applicazioni presenti e future. Il lavoro svolto inizia descrivendo la storia dei droni, presentando una panoramica sui modelli, le normative attualmente in vigore ed una classificazione delle applicazioni. La parte centrale della tesi tratta invece gli aspetti tecnici della dronistica, descrivendo le tecnologie hardware e le tecnologie software attualmente disponibili sul mercato. L'ultima parte descrive invece il legame tra i droni e la computer vision, il loro interfacciamento, le applicazioni ed i vantaggi di tale combinazione, mostrando inoltre casi di studio di diverse facoltà tra cui quella di Ingegneria e Scienze Informatiche di Cesena. Infine termina con una conclusione riguardante il lavoro svolto ed una prospettiva sugli sviluppi futuri.
Resumo:
La determinazione del modulo di Young è fondamentale nello studio della propagazione di fratture prima del rilascio di una valanga e per lo sviluppo di affidabili modelli di stabilità della neve. Il confronto tra simulazioni numeriche del modulo di Young e i valori sperimentali mostra che questi ultimi sono tre ordini di grandezza inferiori a quelli simulati (Reuter et al. 2013). Lo scopo di questo lavoro è stimare il modulo di elasticità studiando la dipendenza dalla frequenza della risposta di diversi tipi di neve a bassa densità, 140-280 kg m-3. Ciò è stato fatto applicando una compressione dinamica uniassiale a -15°C nel range 1-250 Hz utilizzando il Young's modulus device (YMD), prototipo di cycling loading device progettato all'Istituto per lo studio della neve e delle valanghe (SLF). Una risposta viscoelastica della neve è stata identificata a tutte le frequenze considerate, la teoria della viscoelasticità è stata applicata assumendo valida l'ipotesi di risposta lineare della neve. Il valore dello storage modulus, E', a 100 Hz è stato identificato come ragionevolmente rappresentativo del modulo di Young di ciascun campione neve. Il comportamento viscoso è stato valutato considerando la loss tangent e la viscosità ricavata dai modelli di Voigt e Maxwell. Il passaggio da un comportamento più viscoso ad uno più elastico è stato trovato a 40 Hz (~1.1•10-2 s-1). Il maggior contributo alla dissipazione è nel range 1-10 Hz. Infine, le simulazioni numeriche del modulo di Young sono state ottenute nello stesso modo di Reuter et al.. La differenza tra le simulazioni ed i valori sperimentali di E' sono, al massimo, di un fattore 5; invece, in Reuter et al., era di 3 ordini di grandezza. Pertanto, i nostri valori sperimentali e numerici corrispondono meglio, indicando che il metodo qui utilizzato ha portato ad un miglioramento significativo.
Resumo:
La tesi fornisce una chiave di lettura del rapporto che si instaura tra la biologia e la matematica, nello specificio nell'analisi della Teoria dell'Evoluzione proposta da Charles Darwin e del processo di Selezione Naturale attraverso l'utilizzo di modelli matematici forniti dalla Teoria dei giochi e la Teoria dei giochi Evolutivi.
Resumo:
Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
Ricerca di un sistema in grado di ridurre le vibrazioni trasmesse da un sedile di un'auto sportiva al guidatore, a causa delle asperità della strada, tramite lo sviluppo di un sistema di molle ad aria compressa, un sistema di regolazione del sedile e l'utilizzo di materiali innovativi ad elevato comfort.
Resumo:
In questo studio vengono misurati e descritti nel dettaglio i canali sottomarini che si sviluppano sulle testate dei canyon presenti nella Baia di Milazzo (NE Sicilia) attraverso sezioni sismiche a riflessione e dati batimetrici di tipo Multibeam. In base alla creazione della carta geomorfologica della piattaforma continentale che copre l'intera area di studio (31 km2) ed alla correlazione dei profili sismici è stato possibile formulare ipotesi sulle dinamiche in atto nell'evoluzione geomorfologica delle testate dei canyon dell'area. L'evoluzione e la posizione attuale delle testate dei canyon sono condizionate dall'intensa attività tettonica della Sicilia nord-orientale caratterizzata da un forte uplift. Sono anche state descritte le relazioni tra l'assetto tettonico e le dinamiche fluviali poiché queste contribuiscono ai fenomeni osservati in ambiente sottomarino. Si è visto infine che le testate dei canyon sono in arretramento e che ciò produce un forte disequilibrio nel bilancio sedimentario delle spiagge dell'area causandone l'erosione.
Resumo:
Studio ed ottimizzazione di una stufa a pellet ad elevata economia di fabbricazione.
Resumo:
I sistemi software nati dall'esigenza di supportare agevolmente ed efficacemente il lavoro cooperativo, in particolare quelli orientati al supporto di azioni di soccorso in scenari di emergenza, appaiono tutt'ora fortemente limitati e frammentati. In molti casi vengono affrontate solamente specifiche dimensioni del problema complessivo, anche se il livello al quale è giunto lo sviluppo tecnologico e i risultati osservati in ambito di ricerca permettono di delineare soluzioni complete e significative per l'impiego in ambiti reali. Tale tipologia di sistemi è stata scelta per il grande interesse che desta sia dal punto di vista accademico, essendo costituita da molteplici sotto--sistemi spesso eterogenei che debbono necessariamente interagire e supportare l'azione umana, sia dal punto di vista industriale, interpretando la necessità crescente di iniettare nel maggior numero possibile di livelli sociali la forte dipendenza (il supporto allo stesso tempo) dalle scienze tecnologiche ed informatiche, per rafforzare e talvolta estendere le possibilità dell'essere umano in quanto tale. Dopo una prima fase in cui verrà delineato un quadro concettuale piuttosto dettagliato circa i principali elementi e problematiche che caratterizzano la classe di sistemi considerati, sarà dato spazio alla validazione di tali principi e considerazioni emerse, confrontandosi con la progettazione e sviluppo in forma prototipale di un sotto--sistema relativo ad un caso di studio reale, significativo per l'ambito di applicazione, nato dalla collaborazione con l'Università degli Studi di Bologna di un'azienda della regione Emilia--Romagna. Il sistema software realizzato vuole essere innanzi tutto la risposta alle esigenze emerse nel caso di studio trattato, in modo tale da potersi sostituire agli attuali limitati supporti alla cooperazione, ma anche un esperimento che possa essere considerato un artefatto centrale da utilizzare come base di conoscenza condivisa, in cui vengano fattorizzati i concetti e meccanismi chiave, fondamentali per sviluppi futuri.
Resumo:
Studio di un motore Diesel due tempi veloce per utilizzo su aereo senza pilota (UAV).
Resumo:
I prodotti fitosanitari sono sostanze attive e preparati, contenenti una o più sostanze attive, destinati a proteggere i vegetali, a favorire e regolare i loro processi vitali, a conservarli, a eliminare le parti non necessarie, a frenare o evitare un loro indesiderato accrescimento, ad eliminare le piante indesiderate. Il prodotto fitosanitario è composto normalmente da tre tipologie di sostanze: sostanza attiva, coadiuvante e coformulante. Le sostanze attive rappresentano la parte del prodotto fitosanitario che serve a combattere l’avversità che si vuole controllare, cioè la sostanza tossica che, a seconda della pericolosità e della concentrazione presente nella formulazione, concorre a determinare la classe di tossicità e quindi di pericolosità del prodotto. Gli stabilimenti che detengono fitosanitari sono suddivisi in depositi e siti produttivi. Secondo la classificazione dell’ISPRA, i depositi di fitosanitari costituiscono una delle 15 categorie di attività a rischio di incidente rilevante, mentre, i siti produttivi rientrano nella categoria degli stabilimenti chimici e/o petrolchimici. Il presente lavoro di tesi ha riguardato la valutazione del rischio di incidente rilevante per i depositi di fitosanitari, con particolare attenzione al rischio associato alla produzione di composti tossici a seguito di scenari incidentali di incendio. È stata in primo luogo effettuata una ricerca approfondita finalizzata a comprendere che cosa sono i prodotti fitosanitari, a quale scopo servono e quali sono i rischi ad essi associati. Successivamente, è stato effettuato un approfondimento delle norme a cui i siti che producono e detengono fitosanitari sono soggetti. È stato quindi effettuato un censimento per individuare quali e quanti sono i depositi e i siti di produzione di prodotti fitosanitari suscettibili di causare incidenti rilevanti in Italia. Si è poi proceduto all’analisi storica sulle banche dati MHIDAS, E-MARS ed ARIA, al fine di individuare gli eventi incidentali che hanno interessato depositi e siti produttivi di fitosanitari. Successivamente, si è analizzato il Regolamento CPR-15, quale metodo raccomandato dal ministero olandese VROM (Ministerie van Volkshuisvesting, Ruimtelijke Ordening en Milieu) per la valutazione del rischio associato a depositi di fitosanitari. Come applicazione della metodologia per la valutazione del rischio descritta dal Regolamento CPR 15, è stata effettuata la modellazione di uno scenario di incendio in un deposito reale di fitosanitari attraverso il Warehouse Model, implementato nel software PHAST 6.54. La simulazione ha portato a definire l’estensione delle aree di danno associate alla dispersione dei fumi tossici prodotti dall’incendio.