902 resultados para interfaccia,rover,monitoraggio,connettività,programmazione
Resumo:
La presente tesi esamina le caratteristiche geologico-tecniche della frana avvenuta il 3 dicembre 2013 in Montescaglioso (Matera) . Il fenomeno franoso ha determinato l’interruzione della strada a “scorrimento veloce” che collega l’abitato di Montescaglioso con la valle del Fiume Bradano, sede delle principali arterie di comunicazione del Comune. Inoltre sono stati del tutto compromessi i servizi della rete gas, della rete di smaltimento delle acque nere e, limitatamente all’area circoscritta, anche della rete elettrica. Numerosi sono i danni causati alle unità abitative e commerciali, alcune delle quali sono state completamente distrutte. L’eccezionalità dell’evento franoso, determinata sia dalla dimensione della massa coinvolta, che dai danni provocati alle infrastrutture, ha reso da subito indispensabile il coinvolgimento di strutture statali e regionali che insieme al comune di Montescaglioso hanno istituito un tavolo tecnico permanente per far fronte all’emergenza in essere. In particolare la tesi si occupa della ricostruzione geologica, geomorfologica e idrogeologica pre e post frana , utili per comprenderne le dinamiche morfo-evolutive del fenomeno.
Resumo:
Questa tesi è volta a fornire un contributo conoscitivo alla quantificazione delle interferenze idrogeologiche causate dalla nuova stazione sotterranea del nodo di penetrazione ferroviaria urbana AV di Firenze, situata nei pressi dell’attuale stazione di superficie di Santa Maria Novella, e della verifica del dimensionamento delle opere di mitigazione in progetto. La tesi è effettuata in collaborazione e con il supporto tecnico di ARPAT (Agenzia Regionale per la Protezione Ambientale della Toscana), Sede di Firenze, Direzione Tecnica – Settore VIA/VAS (Valutazione d’Impatto Ambientale/Valutazione Ambientale Strategica). ARPAT è l’organo di supporto tecnico dell’Osservatorio Ambientale costituito per l’opera. La tesi sfrutta, come dati di base, tutti quelli raccolti dai progettisti nelle varie fasi, compresa la determinazione dei parametri idraulici dell’acquifero, ed i dati del monitoraggio ambientale. Il proponente dell’opera è RFI (Rete Ferroviaria Italiana) ed è realizzata e progettata dal consorzio Nodavia (General Contractor). Per l’analisi dell’interferenza idrogeologica causata dal camerone della stazione dell’alta velocità di Firenze è stato utilizzato un duplice approccio: un modello fisico ricostruito in laboratorio; un modello numerico alla differenze finite tramite codice Modflow.. Il modello fisico di laboratorio ha cercato di ricostruire, semplificandolo, il modello concettuale del problema idrogeologico di studio: l’inserimento di una diga totalmente impermeabile, trasversalmente al flusso in un mezzo poroso, attraversata da dreni orizzontali di collegamento monte-valle idrologico. Tale configurazione, anche se non strettamente in scala, ha permesso di definire preliminarmente le condizioni al contorno del sistema ed ha guidato la successiva implementazione del modello numerico. Il modello numerico fa riferimento a condizioni stazionarie. Prima è stato implementato per simulare l’andamento della falda nelle condizioni stazionarie ante-operam (I fase); successivamente è stato utilizzato per simulare l’effetto diga del camerone (II fase) e, come terza fase, per simulare l’effetto delle opere di mitigazione dell’effetto diga rappresentate da dreni sub-orizzontali.
Resumo:
Capire come modellare l'attività del cervello a riposo, resting state, è il primo passo necessario per avvicinarsi a una reale comprensione della dinamica cerebrale. Sperimentalmente si osserva che, quando il cervello non è soggetto a stimoli esterni, particolari reti di regioni cerebrali presentano un'attività neuronale superiore alla media. Nonostante gli sforzi dei ricercatori, non è ancora chiara la relazione che sussiste tra le connessioni strutturali e le connessioni funzionali del sistema cerebrale a riposo, organizzate nella matrice di connettività funzionale. Recenti studi sperimentali mostrano la natura non stazionaria della connettività funzionale in disaccordo con i modelli in letteratura. Il modello implementato nella presente tesi per simulare l'evoluzione temporale del network permette di riprodurre il comportamento dinamico della connettività funzionale. Per la prima volta in questa tesi, secondo i lavori a noi noti, un modello di resting state è implementato nel cervello di un topo. Poco è noto, infatti, riguardo all'architettura funzionale su larga scala del cervello dei topi, nonostante il largo utilizzo di tale sistema nella modellizzazione dei disturbi neurologici. Le connessioni strutturali utilizzate per definire la topologia della rete neurale sono quelle ottenute dall'Allen Institute for Brain Science. Tale strumento fornisce una straordinaria opportunità per riprodurre simulazioni realistiche, poiché, come affermato nell'articolo che presenta tale lavoro, questo connettoma è il più esauriente disponibile, ad oggi, in ogni specie vertebrata. I parametri liberi del modello sono stati scelti in modo da inizializzare il sistema nel range dinamico ottimale per riprodurre il comportamento dinamico della connettività funzionale. Diverse considerazioni e misure sono state effettuate sul segnale BOLD simulato per meglio comprenderne la natura. L'accordo soddisfacente fra i centri funzionali calcolati nel network cerebrale simulato e quelli ottenuti tramite l'indagine sperimentale di Mechling et al., 2014 comprovano la bontà del modello e dei metodi utilizzati per analizzare il segnale simulato.
Resumo:
Gli squali bianchi sono tra i più importanti predatori dei Pinnipedi (Klimley et al., 2001; Kock, 2002). La loro principale strategia di caccia consiste nel pattugliare le acque circostanti ad una colonia di otarie e nell’attaccarle quando queste sono in movimento, mentre si allontanano o avvicinano all’isola (Klimley et al., 2001; Kock, 2002). Tuttavia, la strategia e la dinamica della predazione osservate anche in relazione al ciclo riproduttivo della preda e le tattiche comportamentali messe in atto dalla preda per ridurre la probabilità di predazione, e quindi diminuire la sua mortalità, sono ancora poco conosciute. Con questo studio, effettuato nell’area di Seal Island all’interno della baia di Mossel Bay in Sud Africa, abbiamo cercato di definire proprio questi punti ancora poco conosciuti. Per studiare la strategia e le dinamica di predazione dello squalo bianco abbiamo utilizzato il sistema di monitoraggio acustico, in modo da poter approfondire le conoscenze sui loro movimenti e quindi sulle loro abitudini. Per dare un maggiore supporto ai dati ottenuti con la telemetria acustica abbiamo effettuato anche un monitoraggio visivo attraverso l’attrazione (chumming) e l’identificazione fotografica degli squali bianchi. Per comprendere invece i loro movimenti e le tattiche comportamentali messi in atto dalle otarie orsine del capo per ridurre la probabilità di predazione nella baia di Mossel Bay, abbiamo utilizzato il monitoraggio visivo di 24 ore, effettuato almeno una volta al mese, dalla barca nell’area di Seal Island. Anche se gli squali bianchi sono sempre presenti intorno all’isola i dati ottenuti suggeriscono che la maggior presenza di squali/h si verifica da Maggio a Settembre che coincide con l’ultima fase di svezzamento dei cuccioli delle otarie del capo, cioè quando questi iniziano a foraggiare lontano dall'isola per la prima volta; durante il sunrise (alba) durante il sunset (tramonto) quando il livello di luce ambientale è bassa e soprattutto quando la presenza delle prede in acqua è maggiore. Quindi possiamo affermare che gli squali bianchi a Seal Island prendono delle decisioni che vanno ad ottimizzare la loro probabilità di catturare una preda. I risultati preliminari del nostro studio indicano anche che il numero di gruppi di otarie in partenza dall'isola di notte sono di gran lunga maggiori di quelle che partono durante il giorno, forse questo potrebbe riflettere una diminuzione del rischio di predazione; per beneficiare di una vigilanza condivisa, le otarie tendono in media a formare gruppi di 3-5 o 6-9 individui quando si allontanano dall’isola e questo probabilmente le rende meno vulnerabili e più attente dall’essere predate. Successivamente ritornano all’isola da sole o in piccoli gruppi di 2 o 3 individui. I gruppi più piccoli probabilmente riflettono la difficoltà delle singole otarie a riunirsi in gruppi coordinati all'interno della baia.
Resumo:
Il lavoro che ho sviluppato presso l'unità di RM funzionale del Policlinico S.Orsola-Malpighi, DIBINEM, è incentrato sull'analisi dati di resting state - functional Magnetic Resonance Imaging (rs-fMRI) mediante l'utilizzo della graph theory, con lo scopo di valutare eventuali differenze in termini di connettività cerebrale funzionale tra un campione di pazienti affetti da Nocturnal Frontal Lobe Epilepsy (NFLE) ed uno di controlli sani. L'epilessia frontale notturna è una peculiare forma di epilessia caratterizzata da crisi che si verificano quasi esclusivamente durante il sonno notturno. Queste sono contraddistinte da comportamenti motori, prevalentemente distonici, spesso complessi, e talora a semiologia bizzarra. L'fMRI è una metodica di neuroimaging avanzata che permette di misurare indirettamente l'attività neuronale. Tutti i soggetti sono stati studiati in condizioni di resting-state, ossia di veglia rilassata. In particolare mi sono occupato di analizzare i dati fMRI con un approccio innovativo in campo clinico-neurologico, rappresentato dalla graph theory. I grafi sono definiti come strutture matematiche costituite da nodi e links, che trovano applicazione in molti campi di studio per la modellizzazione di strutture di diverso tipo. La costruzione di un grafo cerebrale per ogni partecipante allo studio ha rappresentato la parte centrale di questo lavoro. L'obiettivo è stato quello di definire le connessioni funzionali tra le diverse aree del cervello mediante l'utilizzo di un network. Il processo di modellizzazione ha permesso di valutare i grafi neurali mediante il calcolo di parametri topologici che ne caratterizzano struttura ed organizzazione. Le misure calcolate in questa analisi preliminare non hanno evidenziato differenze nelle proprietà globali tra i grafi dei pazienti e quelli dei controlli. Alterazioni locali sono state invece riscontrate nei pazienti, rispetto ai controlli, in aree della sostanza grigia profonda, del sistema limbico e delle regioni frontali, le quali rientrano tra quelle ipotizzate essere coinvolte nella fisiopatologia di questa peculiare forma di epilessia.
Resumo:
I sistemi esperti sono programmi che cercano di riprodurre le prestazioni di esperti umani nella risoluzione di problemi specifici. Essi rappresentano il più conosciuto risultato pratico della ricerca in intelligenza artificiale. Ne vengono analizzate la struttura interna, i paragidmi su cui si basano, i componenti che ne fanno parte e i linguaggi di programmazione principali. Viene studiato uno dei primi distemi esperti: il MYCIN. Esso opera nel campo medico ed è stato di notevole importanza e innovazione nei primi anni in cui questi sistemi venivano sviluppati.
Resumo:
La diffusione dei servizi cloud ha spinto anche il mondo degli IDE verso questa direzione. Recentemente si sta assistendo allo spostamento degli IDE da ambienti desktop ad ambienti Web. Questo è determinante per quanto riguarda gli aspetti legati alla collaborazione perchè permette di sfruttare tutti i vantaggi del cloud per dotare questi sistemi di chat, integrazione con i social network, strumenti di editing condiviso e molte altre funzionalità collaborative. Questi IDE sono detti browser-based in quanto i servizi che mettono a disposizione sono accessibili via Web tramite un browser. Ne esistono di diversi tipi e con caratteristiche molto diverse tra di loro. Alcuni sono semplici piattaforme sulle quali è possibile effettuare test di codice o utilizzare tutorial forniti per imparare nuovi linguaggi di programmazione; altri invece sono ambienti di sviluppo completi dotati delle più comuni funzionalità presenti in un IDE desktop, oltre a quelle specifiche legate al Web. Dallo studio di questi ambienti di sviluppo di nuova generazione è emerso che sono pochi quelli che dispongono di un sistema di collaborazione completo e che non tutti sfruttano le nuove tecnologie che il Web mette a disposizione. Per esempio, alcuni sono dotati di editor collaborativi, ma non offrono un servizio di chat ai collaboratori; altri mettono a disposizione una chat e il supporto per la scrittura simultanea di codice, ma non sono dotati di sistemi per la condivisione del display. Dopo l'analisi dei pregi e dei difetti della collaborazione fornita dagli strumenti presi in considerazione ho deciso di realizzare delle funzionalità collaborative inserendomi nel contesto di un IDE browser-based chiamato InDe RT sviluppato dall'azienda Pro Gamma SpA.
Resumo:
Negli ultimi anni si è imposto il concetto di Ubiquitous Computing, ovvero la possibilità di accedere al web e di usare applicazioni per divertimento o lavoro in qualsiasi momento e in qualsiasi luogo. Questo fenomeno sta cambiando notevolmente le abitudini delle persone e ciò è testimoniato anche dal fatto che il mercato mobile è in forte ascesa: da fine 2014 sono 45 milioni gli smartphone e 12 milioni i tablet in circolazione in Italia. Sembra quasi impossibile, dunque, rinunciare al mobile, soprattutto per le aziende: il nuovo modo di comunicare ha reso necessaria l’introduzione del Mobile Marketing e per raggiungere i propri clienti ora uno degli strumenti più efficaci e diretti sono le applicazioni. Esse si definiscono native se si pongono come traguardo un determinato smartphone e possono funzionare solo per quel sistema operativo. Infatti un’app costruita, per esempio, per Android non può funzionare su dispositivi Apple o Windows Phone a meno che non si ricorra al processo di porting. Ultimamente però è richiesto un numero sempre maggiore di app per piattaforma e i dispositivi presenti attualmente sul mercato presentano differenze tra le CPU, le interfacce (Application Programming Interface), i sistemi operativi, l’hardware, etc. Nasce quindi la necessità di creare applicazioni che possano funzionare su più sistemi operativi, ovvero le applicazioni platform-independent. Per facilitare e supportare questo genere di lavoro sono stati definiti nuovi ambienti di sviluppo tra i quali Sencha Touch e Apache Cordova. Il risultato finale dello sviluppo di un’app attraverso questi framework è proprio quello di ottenere un oggetto che possa essere eseguito su qualsiasi dispositivo. Naturalmente la resa non sarà la stessa di un’app nativa, la quale ha libero accesso a tutte le funzionalità del dispositivo (rubrica, messaggi, notifiche, geolocalizzazione, fotocamera, accelerometro, etc.), però con questa nuova app vi è la garanzia di un costo di sviluppo minore e di una richiesta considerevole sul mercato. L’obiettivo della tesi è quello di analizzare questo scenario attraverso un caso di studio proveniente da una realtà aziendale che presenta proprio la necessità di sviluppare un’applicazione per più piattaforme. Nella prima parte della tesi viene affrontata la tematica del mobile computing e quella del dualismo tra la programmazione nativa e le web app: verranno analizzate le caratteristiche delle due diverse tipologie cercando di capire quale delle due risulti essere la migliore. Nella seconda parte sarà data luce a uno dei più importanti framework per la costruzione di app multi-piattaforma: Sencha Touch. Ne verranno analizzate le caratteristiche, soffermandosi in particolare sul pattern MVC e si potrà vedere un confronto con altri framework. Nella terza parte si tratterà il caso di studio, un app mobile per Retail basata su Sencha Touch e Apache Cordova. Nella parte finale si troveranno alcune riflessioni e conclusioni sul mobile platform-independent e sui vantaggi e gli svantaggi dell’utilizzo di JavaScript per sviluppare app.
Resumo:
Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.
Resumo:
In questo lavoro di tesi si studieranno le acque superficiali e sotterranee del fiume Marecchia, che sono continuamente monitorate da ARPA allo scopo di mantenere l'ambiente idrologico in buono stato. Una particolare attenzione è stata riposta nell'analisi dell'azoto e dei suoi composti, poiché nella conoide del Marecchia si è sempre osservata una forte presenza di questo tipo di composti, che negli anni hanno causato forti danni all'ambiente. Per raggiungere tale obiettivo, è stato fondamentale ripercorrere gli andamenti dei parametri nel corso degli anni, ricorrendo a dati forniti da ARPA e analizzando direttamente campioni raccolti in campo. Nelle acque analizzate sono state riscontrate varie anomalie, soprattutto nel sito in corrispondenza di via Tonale, che potrebbero essere ricondotte al grave problema dell'intrusione dell'acqua di mare in falda, e degli apporti di tali elementi durante le mareggiate; nel sito campionato nei pressi di Vergiano sono state riscontrate concentrazioni di solfati, cloruri e nitrati in aumento, che potrebbero essere causati da scarichi diretti in falda o nelle acque superficiali, oppure dilavamento dei campi da parte dell'acqua piovana. Anche le concentrazioni di nitriti, determinate nei punti di campionamento nel Torrente Ausa, superano notevolmente la concentrazione limite di 0.5 mg/l e tale effetto potrebbe essere causato da un uso indiscriminato di insetticidi, diserbanti e pesticidi composti da elementi ricchi di azoto, oppure dagli scarichi diretti di colorifici e industrie immessi direttamente nel torrente da parte dello stato di San Marino. Quanto evidenziato con questo studio potrebbe essere un incentivo per gli enti regionali, provinciali e comunali per migliorare il monitoraggio di alcune zone del fiume Marecchia e per ottimizzare i sistemi di gestione del territorio.
Resumo:
Ubuntu Touch è un nuovo sistema operativo per Desktop e Cellulari che nasce dalla necessità di unire sistemi eterogenei sotto un'unica piattaforma. L'infrastruttura di Touch, che garantisce convergenza fra dispositivi diversi, è basata sull'innovativo server grafico Mir e sull'interfaccia grafica Unity. L'Application Model è notevolmente migliorato, le applicazioni sono confinate attraverso AppArmor, e scambiano fra loro contenuti tramite il servizio Content-Hub. I tool di sviluppo supportati sono le tecnologie web (HTML5 e JavaScript) e C++ su Framework Qt (possibilità di utilizzare QML). Gli aggiornamenti di sistema, del core, sono sia parziali, attraverso archivi "delta" che introducono solo i cambiamenti necessari, sia full, sovrascrivono l'intero dispositivo. Lo sviluppo in Ubuntu SDK è veloce e agile. Notevole la gestione degli emulatori, ma pecca di alcune feature tutt'ora mancanti. Gli Scope sono application content indipendent, vera innovazione in Ubuntu. Per sperimentare questa tecnologia si sviluppa uno scope per la ricerca di libri nella Biblioteca Gian Paolo Dore della Facoltà di Ingegneria di Bologna.
Resumo:
Il presente lavoro di tesi si occupa dell’analisi delle caratteristiche costituenti un sistema informativo destinato alla gestione della logistica e della produzione di piccole realtà imprenditoriali e, successivamente, della definizione di una possibile struttura modulare dello stesso sistema. Il lavoro, frutto di una collaborazione (tirocinio formativo) presso una società di consulenza organizzativa e informatica, prende le mosse dallo studio di una serie di trattazioni riguardanti i seguenti temi: gestione delle scorte e della produzione, lean production, cambiamento organizzativo e reingegnerizzazione dei processi aziendali, sistemi informativi e informatici, rapporto tra piccole-medie imprese e tecnologie dell’informazione. Da un iniziale introduzione sulle tematiche legate alla gestione dell’informazione in ambito aziendale, si procede ad una descrizione dell’utilizzo delle informazioni, in particolare in riferimento alle tecniche di reingegnerizzazione dei processi aziendali. In seguito, viene analizzato il più ampio concetto delle tecnologie a supporto dell’informazione, e della loro relazione con le piccole e medie imprese italiane. Successivamente, si offre una panoramica dei metodi più utilizzati per la pianificazione e programmazione della produzione e per la gestione delle scorte, differenziandoli tra metodi a fabbisogno e metodi a ripristino. Infine, si procede alla presentazione di una configurazione originale di un sistema informativo gestionale, tramite descrizione approfondita dei moduli di base costituenti, anche attraverso l’ausilio di diagrammi esplicativi, ed il confronto tra il proprio metodo di programmazione materiali ed il più famoso metodo MRP (Material Requirements Planning), diffuso nella maggior parte dei software gestionali in commercio; quest’ultimi verranno confrontati con la soluzione presentata tramite mappa di posizionamento. In conclusione, vengono esposte le ragioni di possibile successo del sistema presentato, mettendo in evidenza l’ormai appurata imprescindibilità dei sistemi informativi gestionali, sottolineata dalla crescita costante della loro adozione da parte delle imprese italiane. In particolare, viene posto l’accento sul fatto che il bacino di mercato costituito dalle piccole imprese sia ancora in parte insoddisfatto. Sono proprio le piccole imprese, come verrà spiegato nel dettaglio, le beneficiarie del nuovo sistema progettato, grazie a determinate caratteristiche studiate ad hoc per questa cospicua fascia di mercato.
Resumo:
La realizzazione della componentistica satellitare è una disciplina innovativa e sempre in aggiornamento, capitanata dall’obiettivo di minimizzare il peso e il volume delle componenti e concretizzare così missioni satellitari affidabili ma sempre più economiche. Questo lavoro di tesi viene svolto nell’ambito di strumenti per la simulazione di sistemi di controllo di assetto di un satellite in orbita bassa terrestre. Il lavoro è volto ad ottenere uno strumento per compiere studi preliminari di missioni di microsatelliti, che sia dotato della possibilità di scegliere più combinazioni di attuatori e sensori e che permetta di valutare la bontà e i vantaggi derivanti dalla scelta di tali configurazioni scelte. Il punto di partenza è stato un simulatore realizzato in ambiente Matlab/Simulink per il monitoraggio di uno specifico microsatellite, ALMASat-1 dell’Università di Bologna. Vi sono stati aggiunti dei tools allo scopo di aggiornare il simulatore a nuove tecnologie e di consentire di realizzare diverse combinazioni di determinazione e controllo in assetto. Si presenterà inizialmente l’interfaccia grafica realizzata per facilitare l’utilizzo del simulatore e si mostreranno successivamente le modifiche apportate in concomitanza con l’aggiornamento del simulatore. Tra le innovazioni applicate al simulatore si annoverano la possibilità di far iniziare la simulazione in precisi stadi di assetto, permettendo all’utente di discriminare solo le fasi ad egli utili, e il miglioramento del sistema di determinazione dell’assetto, compiuto aggiungendo al sistema un simulatore di sensore di stelle, il più accurato tra tutti i sensori e il cui utilizzo, tipicamente riservato a missioni ad elevato budget, si è reso recentemente compatibile, in termini di dimensioni peso e costi, anche a piattaforme satellitari di dimensioni ridotte. Per entrambi gli aspetti verranno mostrate le rispettive modalità di realizzazione, ponendo particolare attenzione all’analisi posta per l’implementazione di uno strumento di misura. Infine sarà presente una discussione sui vantaggi offerti dal simulatore rinnovato.
Resumo:
L'obiettivo di questo elaborato è sviluppare un ambiente Matlab per il progetto ed il disegno di strutture utilizzabili in campo aerospaziale, basate su elementi a forbice. Questi elementi presentano la possibilità di espandersi così che una struttura con ridotto ingombro in posizione retratta può espandersi fino ad aumentare le sue dimensioni di diverse volte. Per la progettazione di questo ambiente è stato necessario studiare le relazioni geometriche che regolano i movimenti di questi elementi. Sono poi state implementate delle funzioni in ambiente Matlab® per studiare il movimento di questi elementi, partendo dalla simulazione del singolo elemento, per poi passare a strutture sempre più complicate realizzate come assemblaggio di più strutture elementari. Inoltre è stata progettata e implementata un’interfaccia grafica intuitiva con lo scopo di facilitare il compito del progettista. L’ambiente realizzato permette il progetto e il disegno di alcune semplici strutture, ma può essere ulteriormente sviluppato per implementare un numero sempre maggiore di strutture basate su elementi a forbice. Grazie all’ambiente realizzato, inserendo pochi parametri di progetto nell’apposita interfaccia, si può ottenere il dimensionamento di una struttura, la sua visualizzazione e simulare la sua espansione. Anche se l’ambiente è stato pensato per gestire una grande varietà di soluzioni costruttive, ne sono state implementate due: una struttura piana basata sulla ripetizione circolare di un elemento a forbice e una struttura tridimensionale basata su una serie di corone circolari disposte nello spazio. Queste, seppur non riconducibili a precise realizzazioni aerospaziali, possono essere la base per la progettazione di reali applicazioni come ad esempio satelliti espandibili nel caso 3D. La tesi presenta quindi: un’analisi delle relazioni geometriche che stanno alla base del movimento degli elementi a forbice, una descrizione delle funzioni implementate per simulare le due strutture prese in esame, la presentazione di quali caratteristiche sono state implementate nell’interfaccia grafica e come questa è stata implementata in Matlab, un cenno alle conclusioni che si possono trarre e ad alcuni possibili sviluppi.
Resumo:
Il presente elaborato ha come oggetto la progettazione e lo sviluppo di una soluzione Hadoop per il Calcolo di Big Data Analytics. Nell'ambito del progetto di monitoraggio dei bottle cooler, le necessità emerse dall'elaborazione di dati in continua crescita, ha richiesto lo sviluppo di una soluzione in grado di sostituire le tradizionali tecniche di ETL, non pi�ù su�fficienti per l'elaborazione di Big Data. L'obiettivo del presente elaborato consiste nel valutare e confrontare le perfomance di elaborazione ottenute, da un lato, dal flusso di ETL tradizionale, e dall'altro dalla soluzione Hadoop implementata sulla base del framework MapReduce.