778 resultados para Nanosatelliti Cubesat struttura
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.
Resumo:
In questa tesi si propone il miglioramento sismico di un capannone in calcestruzzo armato prefabbricato a due piani a pilastri isostatici mediante l'inserimento di controventi dissipativi in acciaio con forma speciale (Crescent-Shaped-Braces). PREMESSA In primo luogo si dimostra come la struttura studiata soddisfi già i requisiti del DM 2008, sia allo SLD (spostamenti d’ interpiano) che allo SLV (elementi strutturali verificati). OBIETTIVO Migliorare le caratteristiche prestazionali di un edificio in calcestruzzo armato prefabbricato a due piani, sottoposto ad azione sismica. STRATEGIA Inserimento di dispositivi dissipativi di tipo Crescent Shaped Brace in alcune specchiature del capannone prefabbricato, in entrambe le direzioni. PROGETTAZIONE DELLA STRUTTURA RINFORZATA 1) Identificazione delle caratteristiche (rigidezza e resistenza) dei dispositivi CSB, sulla base di obiettivi scalati al livello superiore (deformabilità allo SLV e resistenza allo SLC) per il sistema «struttura + dispositivi», attraverso lo sviluppo di una procedura specifica per capannoni prefabbricati a 2 piani. 2) Progettazione dei dispositivi CSB (scelta della geometria e della sezione) 3) Verifica delle effettive prestazioni ottenute mediante simulazioni numeriche time-history
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
Il lavoro si pone l’obiettivo di studiare in modo approfondito il fenomeno del ritiro del calcestruzzo, in un primo momento come fenomeno fisico verificandone gli effetti su elementi strutturali semplici, per poi approfondire in un secondo momento gli effetti indotti su una struttura reale, nello specifico su un impalcato da ponte a sezione mista. Tramite questo percorso di studio articolato in fasi di studio prettamente teoriche, seguite dall’analisi del fenomeno su modelli realizzati con software FEM, si vuole indagare il fenomeno del ritiro del calcestruzzo dal punto di vista fisico, capire l’entità delle azioni che si manifestano nelle strutture come effetto di tale fenomeno ed infine valutare se effettivamente il ritiro abbia rilevanza pratica solo nell’ambito delle verifiche allo Stato Limite di Esercizio.
Resumo:
La tesi illustra le funzionalita e l'architettura di Node.js elencando e analizzando le caratteristiche che lo rendono un framework vincente nella sfida che il web attuale pone. La tesi comprende l'analisi e la descrizione del lavoro svolto per creare una libreria HTTP/ File system, integrata nel sistema di sviluppo cloud proprietario: Instant Developer , funzionante sia su Node.JS che sui browser che supportano appieno le nuove API File system di HTML 5. Particolare attenzione viene riservata per la descrizione della struttura della libreria, pensata per permettere all'utente dell'IDE di utilizzarla indifferentemente su server/browser senza preoccuparsi di chiamare metodi diversi. Fs.js permette di operare con file/cartelle, richieste HTTP in modo semplificato rispetto alle API Ufficiali dei rispettivi ambienti.
Resumo:
Lo scopo di questa tesi è dimostrare quale sia il miglior Web Framework con linguaggio Python fra i tre principali esponenti: Django, web2py e TurboGears. Inizialmente verrà effettuata un’analisi generale sui Web Framework, in particolare quelli con architettura MVC poiché sarà l’architettura utilizzata da Django, web2py e TurboGears. Successivamente, per ogni Web Framework verrà analizzata la struttura generale e i componenti core degli stessi. Tuttavia per stabilire chi sia il migliore fra di essi bisogna anche analizzare come essi gestiscono altri ambiti dello sviluppo web e quindi vengono analizzati tutti i tools messi a disposizione dai Web Framework. Alla fine verranno tratte le conclusioni in cui verrà chiarito quale sia il Web Framework migliore per uno sviluppatore e perché, andando a riassumere le caratteristiche di tutti e tre.
Resumo:
Il grafene è un cristallo bidimensionale di atomi di carbonio, isolato per la prima volta nel 2004 da due fisici che per questo risultato vinsero il premio Nobel per la Fisica nel 2010. Il grafene possiede proprietà chimiche e fisiche superiori, quali un’elevata resistenza chimica e meccanica e un’eccellente conducibilità termica ed elettrica. Inoltre possiede altre due caratteristiche che lo rendono particolarmente promettente in diversi ambiti applicativi: leggerezza e trasparenza ottica. In questo elaborato ho descritto le attività svolte seguendo le ricerche che vengono svolte al CNR-IMM di Bologna, dove questo materiale viene prodotto tramite la tecnica di Chemical Vapor Deposition e studiato per l’integrazione in dispositivi elettronici ed elettro-meccanici innovativi. Durante la mia esperienza di laboratorio all’IMM ho seguito i procedimenti che portano al trasferimento del grafene sintetizzato su substrati catalitici di rame sui substrati finali per la successiva integrazione nella tecnologia del silicio. Nell’elaborato vengono da prima descritte la struttura cristallina ed elettronica e successivamente presentate alcune proprietà di cui gode e messe in relazione con i materiali attualmente in uso. Segue una breve trattazione bibliografica di alcune delle principali tecniche di produzione del grafene, trattando più nel dettaglio la tecnica CVD attualmente in uso per la sintesi di grafene all’interno dei laboratori del CNR-IMM di Bologna. La parte principale di questa esperienza di laboratorio è stato di seguire in prima persona le attuali ricerche del gruppo di lavoro per la messa a punto di un metodo alternativo che utilizza il ciclododecano per il trasferimento del grafene sintetizzato su rame al posto del classico strato sacrificale polimerico di PMMA. Nell’elaborato il confronto tra le due tecniche viene eseguito confrontando i risultati del trasferimento analizzando la morfologia dei campioni finali con tecniche di microscopia elettronica in scansione
Resumo:
In questo lavoro si è tentato di fornire un metodo per la calibrazione di modelli numerici in analisi dinamiche spettrali. Attraverso una serie di analisi time history non lineari sono stati ottenuti gli spostamenti relativi orizzontali che nascono, in corrispondenza della connessione trave-pilastro di tipo attritivo, quando una struttura prefabbricata monopiano viene investita dalla componente orizzontale e verticale del sisma. Con un procedimento iterativo su varie analisi spettrali sono state calibrate delle rigidezze equivalenti che hanno permesso di ottenere, con buona approssimazione, gli stessi risultati delle analisi time history. Tali rigidezze sono state poi restituite in forma grafica. Per riprodurre gli spostamenti relativi orizzontali con un’analisi dinamica spettrale è quindi possibile collegare le travi ai pilastri con degli elementi elastici aventi rigidezza Kcoll. I valori di rigidezza restituiti da questo studio valgono per un’ampia gamma di prefabbricati monopiano (periodo proprio 0.20s < T < 2.00s) e tre differenti livelli di intensità sismica; inoltre è stata data la possibilità di considerare la plasticizzazione alla base dei pilastri e di scegliere fra due diverse posizioni nei confronti della rottura di faglia (Near Fault System o Far Fault System). La diminuzione di forza d’attrito risultante (a seguito della variazione dell’accelerazione verticale indotta dal sisma) è stata presa in considerazione utilizzando un modello in cui fra trave e pilastro è posto un isolatore a pendolo inverso (opportunamente calibrato per funzionare come semplice appoggio ad attrito). Con i modelli lineari equivalenti si riescono ad ottenere buoni risultati in tempi relativamente ridotti: è possibile così compiere delle valutazioni approssimate sulla perdita di appoggio e sulle priorità d’intervento in una determinata zona sismica.
Resumo:
Nel presente elaborato vengono approfonditi i principali metodi di posizionamento attualmente utilizzati, ossia il GPS e il GPS differenziale, con particolare riferimento a strutture posizionate in mare. Gli stessi sono utilizzati per il monitoraggio della subsidenza e dei movimenti tettonici cui le strutture offshore sono soggette, che, essendo movimenti dell’ordine di qualche millimetro all'anno, richiedono accuratezza nelle misure. Nell'ultima parte della tesi si è provveduto ad analizzare una serie di dati, derivanti da rilevamenti GPS, al fine di valutare gli effetti termici sulla struttura emersa di una piattaforma offshore.
Resumo:
Il traffico merci e fondamentale per lo sviluppo economico delle societa poiche lo spostamento dei prodotti consente alle aziende di poter fare affidamento su mercati piu ampi permettendo ai consumatori di scegliere fra una piu vasta gamma di prodotti. In questo contesto grande importanza ha assunto l'intermodalita ed in particolare il trasporto combinato strada rotaia; l'interporto risulta essere la struttura piu adatta a promuovere questo sistema di trasporto merci. Questo lavoro di tesi pone l'attenzione sulla gestione dei processi che avvengono all'interno del terminal intermodale dell'interporto Quadrante Europa di Verona. L'elaborato, dopo una descrizione delle caratteristiche operative e funzionali del trasporto intermodale, schematizza le diverse fasi che si susseguono all'interno del terminal, con particolare riferimento alla gestione dei semirimorchi, ai loro tempi di giacenza e alla loro allocazione nelle diverse aree di sosta.
Resumo:
In questo elaborato si affronta lo studio della tecnica di sopraelevazione di edifici esistenti in muratura con strutture in legno di tipo XLAM. Le sopraelevazioni, sebbene non siano una tipologia di intervento ancora così diffusa in Italia, offrono numerosi vantaggi e, in tale contesto, le caratteristiche del legno si prestano perfettamente a rendere vantaggioso e pratico questo sistema costruttivo. Partendo dall’analisi delle diverse caratteristiche e proprietà meccaniche che contraddistinguono la muratura e il legno, viene trattata l’interazione tra i due materiali all’interno della medesima struttura, concentrandosi sulla corretta progettazione degli elementi di collegamento. Vengono creati una serie di modelli agli elementi finiti per riprodurre il comportamento di un edificio esistente in muratura allo stato di fatto e a seguito degli interventi di sopraelevazione, analizzando le sollecitazioni che la parte di struttura sopraelevata genera sulla sottostruttura. Lo studio prevede la variazione dell’input sismico, prendendo in considerazione diversi valori di accelerazione di picco (da 0,35g a 0,05g). Particolare attenzione viene riservata per i collegamenti metallici tra sopraelevazione lignea e sottostruttura in muratura. Si propongono due diverse tecniche di sopraelevazione in XLAM: a parete unica e a pareti separate.
Resumo:
Negli ultimi anni la biologia ha fatto ricorso in misura sempre maggiore all’informatica per affrontare analisi complesse che prevedono l’utilizzo di grandi quantità di dati. Fra le scienze biologiche che prevedono l’elaborazione di una mole di dati notevole c’è la genomica, una branca della biologia molecolare che si occupa dello studio di struttura, contenuto, funzione ed evoluzione del genoma degli organismi viventi. I sistemi di data warehouse sono una tecnologia informatica che ben si adatta a supportare determinati tipi di analisi in ambito genomico perché consentono di effettuare analisi esplorative e dinamiche, analisi che si rivelano utili quando si vogliono ricavare informazioni di sintesi a partire da una grande quantità di dati e quando si vogliono esplorare prospettive e livelli di dettaglio diversi. Il lavoro di tesi si colloca all’interno di un progetto più ampio riguardante la progettazione di un data warehouse in ambito genomico. Le analisi effettuate hanno portato alla scoperta di dipendenze funzionali e di conseguenza alla definizione di una gerarchia nei dati. Attraverso l’inserimento di tale gerarchia in un modello multidimensionale relativo ai dati genomici sarà possibile ampliare il raggio delle analisi da poter eseguire sul data warehouse introducendo un contenuto informativo ulteriore riguardante le caratteristiche dei pazienti. I passi effettuati in questo lavoro di tesi sono stati prima di tutto il caricamento e filtraggio dei dati. Il fulcro del lavoro di tesi è stata l’implementazione di un algoritmo per la scoperta di dipendenze funzionali con lo scopo di ricavare dai dati una gerarchia. Nell’ultima fase del lavoro di tesi si è inserita la gerarchia ricavata all’interno di un modello multidimensionale preesistente. L’intero lavoro di tesi è stato svolto attraverso l’utilizzo di Apache Spark e Apache Hadoop.
Resumo:
Lo scopo di questa tesi è la fabbricazione di ossidi complessi aventi struttura perovskitica, per mezzo della tecnica Channel Spark Ablation (CSA). Più precisamente sono stati depositati film sottili di manganite (LSMO), SrTiO3 (STO) e NdGaO3 (NGO). Inoltre nel laboratorio ospite è stata effettuata la caratterizzazione elettrica e dielettrica (spettroscopia di impedenza), mentre per l'analisi strutturale e chimica ci si è avvalsi di collaborazioni. Sono stati fabbricati dispositivi LSMO/STO/Co e se ne è studiato il comportamento magnetoresistivo e la bistabilità elettrica a seconda del carattere epitassiale od amorfo dell'STO. I risultati più promettenti sono stati ottenuti con STO amorfo. Sono stati costruiti diversi set di condensatori nella configurazione Metallo/Isolante/Semiconduttore (MIS), con M=Au, I=STO o NGO ed S=Nb:STO, allo scopo di indagare la dipendenza delle proprietà dielettriche ed isolanti dai parametri di crescita. In particolare ci si è concentrati sulla temperatura di deposizione e, nel caso dei film di STO, anche sulla dipendenza della costante dielettrica dallo spessore del film. Come ci si aspettava, la costante dielettrica relativa dei film di STO (65 per un film spesso 40 nm e 175 per uno di 170 nm) si è rivelata maggiore di quella dei film di NGO per i quali abbiamo ottenuto un valore di 20, che coincide con il valore del bulk. Nonostante l'elevata capacità per unità di area ottenibile con l'STO, la costante dielettrica di questo materiale risulta fortemente dipendente dallo spessore del film. Un ulteriore aspetto critico relativo all'STO è dato dal livello di ossidazione del film: le vacanze di ossigeno, infatti, possono ridurre la resistività dell'STO (nominalmente molto elevata), ed aumentarne la corrente di perdita. Al contrario l'NGO è meno sensibile ai processi tecnologici e, allo stesso tempo, ha un valore di costante dielettrica più alto rispetto ad un tipico dielettrico come l'ossido di silicio.
Resumo:
Uno dei concetti chiave dell'impiego della nanotecnologia è quello dell'ingegnerizzazione dei materiali alla nano-scala. Si procede così alla realizzazione di materiali aventi morfologia, struttura e composizione ottimizzate per migliorarne specifiche proprietà in maniera controllata. In questo lavoro sono stati realizzati campioni nanoparticellari a base di magnesio con la tecnica (R-)IGC (Reactive or Inert Gas Condensation) allo scopo di studiare come l'atmosfera nella quale vengono sintetizzati ne influenzi le proprietà morfologiche e strutturali, al fine di poterne controllare la crescita per impieghi specifici. In particolare, si sono voluti analizzare i risultati ottenuti in diverse situazioni: nel caso in cui la sintesi avvenga in un'atmosfera contenente una piccola concentrazione di ossigeno e nel caso della coevaporazione di magnesio e titanio in atmosfera inerte o contenente idrogeno. I campioni sono poi stati analizzati dal punto di vista morfologico, composizionale e strutturale mediante microscopia a scansione elettronica e diffrazione a raggi X. E' stato mostrato che la presenza controllata di ossigeno durante la sintesi permette di realizzare strutture core-shell di dimensione media 40nm e che la co-evaporazione di magnesio e titanio permette la sintesi di nanoparticelle di dimensioni medie anche inferiori ai 12nm. La presenza di idrogeno durante l'evaporazione permette inoltre di crescere nanoparticelle contenenti idruro di titanio senza dover ricorrere ad una idrurazione successiva. Le proprietà termodinamiche e cinetiche di (de)-idrurazione dei campioni sintetizzati sono state misurate utilizzando sia un apparato barometrico Sievert, sia effettuando un'analisi direttamente nel sito di crescita. I campioni realizzati non mostrano una termodinamica significativamente diversa da quella del magnesio bulk, mentre le cinetiche dei processi di assorbimento e desorbimento risultano notevolmente più rapide.