37 resultados para Oksanen, Atte
Resumo:
Il trattamento numerico dell'equazione di convezione-diffusione con le relative condizioni al bordo, comporta la risoluzione di sistemi lineari algebrici di grandi dimensioni in cui la matrice dei coefficienti è non simmetrica. Risolutori iterativi basati sul sottospazio di Krylov sono ampiamente utilizzati per questi sistemi lineari la cui risoluzione risulta particolarmente impegnativa nel caso di convezione dominante. In questa tesi vengono analizzate alcune strategie di precondizionamento, atte ad accelerare la convergenza di questi metodi iterativi. Vengono confrontati sperimentalmente precondizionatori molto noti come ILU e iterazioni di tipo inner-outer flessibile. Nel caso in cui i coefficienti del termine di convezione siano a variabili separabili, proponiamo una nuova strategia di precondizionamento basata sull'approssimazione, mediante equazione matriciale, dell'operatore differenziale di convezione-diffusione. L'azione di questo nuovo precondizionatore sfrutta in modo opportuno recenti risolutori efficienti per equazioni matriciali lineari. Vengono riportati numerosi esperimenti numerici per studiare la dipendenza della performance dei diversi risolutori dalla scelta del termine di convezione, e dai parametri di discretizzazione.
Resumo:
La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.
Resumo:
I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.
Resumo:
L'indipendenza dai combustibili fossili è uno degli argomenti maggiormente trattati negli ultimi anni e lo sviluppo di tecnologie atte a produrre energia attraverso fonti rinnovabili è uno dei punti cruciali della ricerca moderna. L'utilizzo dei veicoli elettrici nel quotidiano rappresenta una delle vie principali per l'abbandono delle fonti non rinnovabili, tuttavia siamo ancora in presenza di qualche limite. Una delle principali ragioni per cui gli automobilisti sono restii ad utilizzare le auto elettriche è quella che in inglese viene definita Range Anxiety, ossia la preoccupazione di non riuscire a raggiungere la propria meta con l'autonomia residua del veicolo. Altri fattori che contribuiscono a scoraggiare gli automobilisti sono i lunghi tempi di ricarica e dove effettuare queste ultime. Per cercare di ridurre queste problematiche nel seguente elaborato viene descritto lo sviluppo di un applicazione per sistema Android, con lo scopo di simulare dei percorsi inseriti dall'utente come se venissero effettuati utilizzando un veicolo elettrico: l'applicativo, sfruttando un servizio esterno fornirà all'utente tutti i dati del percorso, come ad esempio dove effettuare una ricarica. Di seguito viene illustrato l'utilizzo dell'applicativo, la sua architettura, come è stato sviluppato e le sue future estensioni.
Resumo:
In questo lavoro si parla di un particolare comportamento emergente nei sistemi complessi: il flocking. Dopo aver dato una panoramica generale di come sia stato affrontato finora lo studio della formazione degli stormi, vengono portati come esempio un modello matematico e uno studio empirico particolare, il quale fonda le basi del flocking su un’interazione topologica. Il modello matematico, basato su un’interazione metrica, viene dapprima presentato, cercando di darne una parziale spiegazione tramite le proprietà delle matrici laplaciane, per poi essere testato attraverso delle simulazioni numeriche. Lo studio empirico, invece, viene presentato nei dettagli fornendo risultati e ipotesi atte a spiegarli. Infine prendendo spunto da questi due lavori, nell’ultima parte vengono posti a confronto due modelli, uno metrico e uno topologico, tramite simulazioni al calcolatore. L’esito di queste simulazioni conferma le ipotesi avanzate per spiegare i risultati empirici.
Resumo:
Guidata dall'interesse per lo studio della fissione nucleare, per molto tempo la ricerca nel campo dei neutroni si è concentrata su energie medio-basse (E<20 MeV) mentre per la regione a più alte energie le informazioni risultavano scarse o mancanti. Recentemente, invece, si è sviluppato un nuovo interesse per i Neutroni di Alta Energia, utilizzabili nelle terapie mediche per la cura di tumori, e di grande importanza per la radioprotezione e la trasmutazione delle scorie radioattive derivanti da produzione di energia nucleare. Queste applicazioni richiedono precisi fasci di neutroni quasi-monoenergetici, con energie dai 20 a qualche centinaia di MeV, servono perciò misurazioni intese a determinare le caratteristiche del fascio e atte a ottenere valori precisi della sezione d'urto relativa ai processi innescati da neutroni veloci. La sezione d'urto di un certo processo nucleare si deduce dalla misura del numero di eventi acquisiti per unità di tempo da un rivelatore, conoscendo l'efficienza di questo, l'intensità del fascio che incide nel bersaglio e le caratteristiche del target. Diventa, quindi, determinante la conoscenza dell'intensità del fascio dei neutroni, anche nel caso di un intervallo energetico ampio, come quello prodotto al CERN dalla facility n_TOF, che possiede energie che vanno dal meV al GeV. Sulla base di queste motivazioni, in questo lavoro di tesi, si vuole proporre un prototipo semplice di rivelatore per Neutroni di Alta Energia e si presenta uno studio preliminare del primo test sotto fascio, focalizzando l'attenzione sulla massima energia misurabile.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
L’odierno mercato concorrenziale ha portato le aziende a rinnovare il sistema produttivo, spostandosi da un approccio innovativo convergente, in cui le imprese erano le uniche detentrici del controllo dell’intero processo, fin dalla generazione di nuove idee e proposte di innovazione, ad un approccio aperto, denominato Open Innovation, che fa leva sul concetto di flusso libero e bidirezionale di idee e tecnologie tra l’azienda e l’ambiente esterno. È in questo contesto che è stata progettata in Carpigiani una piattaforma e-maintenance chiamata Teorema che, sfruttando un sistema di telemetria, consente di monitorare in tempo reale le macchine installate presso l’utente finale, acquisendo importanti informazioni sul reale utilizzo e sulle effettive funzionalità impiegate dal cliente. Grazie a tale gestione remota, allo stesso tempo è possibile garantire un’efficace operazione di diagnostica e prognostica atte a prevenire eventuali malfunzionamenti. Il presente elaborato fornisce un concreto metodo di utilizzo di tale piattaforma per il monitoraggio real time di macchine per gelato espresso, al fine di verificarne l’effettivo utilizzo da parte del cliente ed il corretto dimensionamento dell’impianto. Per mezzo della piattaforma Teorema è stato inoltre possibile eseguire un’indagine comparativa sui consumi energetici misurati in macchina, testando l’efficienza di funzionamento. Infine è stata eseguita un’analisi FMEA degli allarmi rilevati sul parco di macchine analizzate, per valutare l’affidabilità della macchina e dei suoi componenti.
Resumo:
Le macchine automatiche prodotte dall’azienda VIRE Automation di Faenza sono atte al confezionamento di prodotti igienico sanitari del settore baby, femminile e adulto. La macchina può essere suddivisa in due gruppi funzionali, il primo legato al raggruppamento dei prodotti in pile e il secondo dedicato al confezionamento vero e proprio. Il presente elaborato consiste nello studio e nella progettazione del raggruppatore della macchina dedicata ai prodotti femminili; in particolare lo scopo è il corretto funzionamento del gruppo con performance superiori a quelle attuali. Il progetto si è articolato nell’applicazione del metodo della Casa della Qualità come strumento di supporto, per poi passare allo studio della parte logica della macchina e ad un'analisi cinematica e dinamica del gruppo estrattore; infine vengono presentate ulteriori soluzioni tecniche adottate.
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
Il percorso intrapreso per la scrittura della tesi, si snoda essenzialmente in due fasi e nove capitoli. La prima fase ha avuto come scopo l’analisi dal punto di vista tecnologico dell’evoluzione tecnologica avuta nel campo di realtà aumentata e dispositivi wearable in particolare orientandosi verso una tipologia di interazioni hands-free. Questo ha portato ad una ricognizione sullo stato dell’arte permettendo di attenere una base di conoscenza solida per la costruzione del sistema presentato all’interno del caso di studi. I capitoli successivi, in particolare dal quinto, introducono alla seconda fase ed hanno lo scopo di progettare e realizzare il sistema proposto, partendo da un’attenta analisi delle caratteristiche richieste passando per la prototipazione e successiva definizione delle caratteristiche atte alla valutazione del sistema stesso.
Resumo:
In questa tesi si è progettata una applicazione Android che permettesse di controllare da remoto funzionalità hardware e software offerte da una piattaforma Raspberry Pi. Si sono infine svolte alcune misure atte a testare le performance di rete di questa scheda.
Resumo:
L’obiettivo di questo trattato è lo studio di un aeromobile militare a pilotaggio remoto (APR), volto ad una sua conversione per usi prettamente civili: il velivolo in questione è il Predator Canard-Long. Tale studio è basato sulle problematiche dovute alla sostituzione del propulsore originale Rotax 914 (4 cilindri da 115 CV del peso di 95 kg) con un Peugeot HDi Fap (4 cilindri da 175 CV del peso di 240 kg). L’aeromobile in questione dovrà svolgere compiti di monitoraggio e sorveglianza di siti archeologici, dunque si richiederà un alto livello di autonomia affinché le missioni vengano svolte nel modo più efficiente possibile. Preso un modello pre-esitente, costruito al CAD tramite il software Solidworks2016, è stato studiato il comportamento del velivolo tramite simulazioni CFD. Data l’insufficienza della portanza a causa dell’aggiunta di peso dovuta alla rimotorizzazione, sono state provate diverse soluzioni atte a colmare lo scompenso. Scelta come soluzione migliore l’installazione di alette canard e la modifica del profilo aerodinamico, è stato infine necessario verificare che la risposta ai comandi dell’aeromobile modificato soddisfacesse le richieste desiderate.
Resumo:
Il presente lavoro si propone di analizzare il calcestruzzo armato come materiale da costruzione, in particolare focalizzando l’attenzione sulle tecniche di prevenzione di alcuni tipi di degrado con l’utilizzo di trattamenti superficiali. Il calcestruzzo è uno dei materiali da costruzione più utilizzati in quanto presenta molteplici vantaggi come la libertà di forma, il basso costo dei materiali ed il buon comportamento strutturale. Nonostante quanto detto, si possono evidenziare delle criticità inerenti all’utilizzo di questo materiale, il tema centrale di questo lavoro è quello di analizzare nuove tecniche di protezione atte a salvaguardare la struttura da tre diverse tipologie di degrado, valutandone l’effettiva efficacia nell’ottenere quello per cui sono state previste. Nei primi capitoli si esaminerà il calcestruzzo come materiale da costruzione e saranno spiegati i processi che il conglomerato cementizio deve compiere per diventare un materiale indurito e resistente. Nel terzo capitolo si affronteranno, senza entrare nella descrizione puntuale di ciascuna di esse, le diverse cause di degrado del calcestruzzo armato. Infine nel quarto ed ultimo capitolo, verranno esposti tre casi studio: il primo tratta di un tipo di degrado spesso non preso in considerazione ma causante ingenti danni all’aspetto paesaggistico e al patrimonio storico: si analizzano i rivestimenti da poter applicare al calcestruzzo per rendere più semplificato il processo di rimozione dai graffiti. Il secondo si ripromette di analizzare l’efficacia nel proteggere le armature di acciaio dalla corrosione per mezzo un nuovo tipo di pigmenti core-shell poco costosi ma soprattutto ecosostenibili. Infine si porrà lo sguardo su un problema non indifferente ovvero quello della protezione del calcestruzzo armato dalle alte temperature anche in questo caso utilizzando un trattamento superficiale volto a migliorare le performance del calcestruzzo durante l’incendio.
Resumo:
La preparazione di nanoparticelle (NPs) metalliche risulta complessa a causa di diversi parametri operativi in grado di modificare le proprietà del prodotto finale, per questo la ricerca di nuove strategie sintetiche atte a controllare morfologia e geometria di questi sistemi costituisce uno dei temi di maggior interesse scientifico per la chimica della catalisi. La tecnica di sol immobilization permette di ottenere catalizzatori nanostrutturati composti da nanoparticelle stabilizzate da polimeri e depositate su un materiale che funga da supporto. La possibilità di preparare polimeri con proprietà specifiche, ha aperto l’opportunità di sfruttare questi sistemi per modellare le caratteristiche delle nanoparticelle e la loro attività catalitica. In particolare, in quest’attività di ricerca è stato studiato, attraverso una reazione modello, in che modo il peso molecolare ed il grado di idrolisi degli stabilizzanti polimerici a base di poli-vinilalcol, possono influenzare la morfologia e l’attività delle nanoparticelle di oro.