574 resultados para telecomunicazioni reti OpenFlow SDN NFV
Resumo:
L'elaborato affronta la progettazione di un'intelligenza artificiale per giochi strategici real-time in cui viene descritta la suddivisione dei livelli di astrazione e vengono prese in considerazione due architetture specifiche, SORTS ed EISBot, facendo particolare attenzione sulle problematiche riscontrate nell'ambiente di gioco.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.
Resumo:
Il sistema ferroviario ha sempre ricoperto un ruolo rilevante nel nostro Paese sia per il trasporto di persone, sia per il trasporto di merci: risulta, quindi, essenziale per il commercio e per il turismo. A differenza della strada in cui i veicoli circolano “a vista”, una ferrovia richiede che i sistemi di distanziamento dei treni siano indipendenti dalla visibilità dei veicoli, poiché gli spazi di frenatura sono solitamente molto maggiori della distanza di visibilità stessa. Per questo motivo i sistemi di segnalamento e sicurezza ricoprono un ruolo di primo piano. Nel tempo sono stati effettuati ingenti investimenti che hanno portato all'impiego di nuove tecnologie le quali hanno permesso la progettazione di sistemi safety critical contenenti componenti informatici hardware e software. La caratteristica principale di tali sistemi è la proprietà di non arrecare danno alla vita umana o all'ambiente: tale proprietà viene comunemente associata al termine anglosassone safety per distinguerla dall’accezione di "protezione da violazioni all'integrità del sistema" che il termine "sicurezza" usualmente assume. Lo sviluppo economico e tecnologico a cui abbiamo assistito nell’ultimo ventennio ha inevitabilmente reso tali sistemi ancora più sofisticati e di conseguenza complessi, richiedendo allo stesso tempo requisiti e garanzie di buon funzionamento sempre più marcati ed articolati. È proprio a questi motivi che si devono gli studi su quella che viene definita la dependability dei sistemi di computazione, verso cui si concentrano e convogliano buona parte degli sforzi e delle risorse in fase di ricerca e progettazione. Il lavoro di tesi che segue è stato svolto in collaborazione con due grandi imprese del territorio nazionale: RFI (Reti Ferroviarie Italiane) e Sirti. Inizialmente abbiamo interagito con RFI per entrare nell’ambiente ferroviario ed assimilarne il lessico e i bisogni. All’interno di RFI è stato effettuato un tirocinio nel quale ci siamo occupati del “processo off-line” riguardante la gestione in sicurezza di una stazione; tale attività deve essere effettuata da RFI prima della messa in esercizio di una nuova stazione. Per far questo abbiamo dovuto utilizzare i programmi di preparazione dei dati messi a disposizione da Sirti. In un secondo momento abbiamo approfondito l’argomentazione della safety interfacciandoci con Sirti, una delle società che forniscono sistemi safety critical computerizzati per il controllo delle stazioni. In collaborazione con essa ci siamo addentrati nel loro sistema scoprendo le loro scelte implementative e come hanno raggiunto i loro obiettivi di safety. Infine, ci siamo occupati dell'inserimento nel sistema di una nuova funzionalità, per aumentarne l’affidabilità e la sicurezza, e delle problematiche relative all'impiego del componente che la realizza.
Resumo:
Imprese di piccole e grandi dimensioni hanno dovuto convivere con il ritmo di uscita di nuovi e più potenti modelli di PC, consolle per videogiochi, telefoni cellulari, tablet, fotocamere digitali. I cicli di vita si sono ridotti drasticamente, tanto da far sembrare un’emergenza il rilascio di un nuovo prodotto quasi ogni anno. Le aziende, se ancora non lo hanno fatto, sono chiamate ad affrontare una transizione interna per aggiornare le politiche aziendali in modo da stare al passo con il progresso tecnologico. Se un tempo le regole interne vietavano o scoraggiavano l’utilizzo di dispositivi personali nell’ambiente di lavoro, nell’era moderna sono costrette ad accettarlo se non addirittura ad incoraggiarlo ed il fenomeno che mi accingerò ad analizzare in questo elaborato, denominato Bring Your Own Device (BYOD), punta proprio all’esplorazione degli sforzi progettuali che sono richiesti ad una grande azienda multinazionale per poter recepire i trend informatici. Con più di cinque miliardi di dispositivi mobili in tutto il mondo – e solo 2 miliardi di computer – il passaggio al ‘mobile’ come forma principale di collegamento alle reti aziendali procede con sempre maggiore rapidità. Negli anni recenti si è potuto assistere all’evoluzione del panorama di dispositivi portatili che ha permesso ad un pubblico di users sempre più vasto di potersi permettere l’acquisto di dispositivi di ultima generazione a prezzi non proibitivi. I fornitori di tecnologie hanno confezionato prodotti sempre più pensati per un uso privato, fornendo un’ampia scelta di soluzioni non solo a livello enterprise, come accadeva agli albori del boom tecnologico, ma maggiormente rivolte al singolo consumatore. Guardando ai trend sviluppatisi negli anni recenti, è possibile riconoscere una scia di segnali che preannunciavano quanto sta avvenendo adesso con il BYOD.
Resumo:
In questa tesi è stato affrontato un metodo sperimentale per la caratterizzazione elettromagnetica di un materiale plastico, ovvero l'acetato di cellulosa, fornito all'Università da una azienda della regione interessata ad un futuro impiego dell'acetato come materiale principale nelle "cover" di smartphone di ultima generazione. Il fine principale è quello di determinare le principali proprietà dielettriche del materiale, ovvero la permettività relativa o costante dielettrica e il fattore di dissipazione, o tangente di perdita, la cui conoscenza risulta il primo passo per per lo scopo iniziale dell'azienda. Il metodo impiegato fa uso di un risonatore in microstriscia a T, dato che il pattern della metallizzazione superiore assume questa forma. In questa tecnica avviene un confronto tra un prototipo reale di riferimento analizzato con VNA e un modello dello stesso risonatore realizzato all'interno del simulatore elettromagnetico CST, in particolare un confronto tra le frequenze di risonanza dei due casi, ricavate dall'andamento risonante dell'ampiezza di S21. I valori di permettività relativa e tangente di perdita vengono ricavati realizzando una moltitudine di simulazioni con CST fino a trovare il modello più simile al prototipo reale.
Resumo:
Studio dei limiti della programmazione ad oggetti concorrente e introduzione dei modelli di concorrenza alternativi forniti in letteratura, prendendo gli attori come caso studio. Analisi delle performance della libreria ad attori Akka e confronto con i meccanismi forniti da Java 7.
Resumo:
Il lavoro di tesi ha come obiettivo lo studio e lo sviluppo tramite simulazioni numeriche di due celle in silicio ad eterogiunzione, una con parametri forniti dal CNR (Comitato Nazionale delle Ricerche) ed un’altra di tipo HIT (Heterojunction with Intrinsic Thin-layer). Lo studio e lo sviluppo delle due celle sono stati effettuati mediante un flusso TCAD il quale permette una maggiore flessibilità e completezza nella descrizione dei modelli fisici ed elettrici.
Resumo:
L'elaborato presenta le tecniche di apprendimento principali utilizzate in robotica: l'apprendimento per rinforzo e l'apprendimento per dimostrazione. Nell'ultimo capitolo, invece, si vuole presentare come l'applicazione congiunta di queste tecniche permetta di risolvere problemi di interazione con l'ambiente in modo molto efficiente.
Resumo:
Questa tesi è nata all'interno dell'ufficio tecnico di I.P.M. Engineering, dove ho potuto analizzare le diverse fasi del processo di formatura dei tubi plastici. I tubi di materiale plastico già da molti anni vengono utilizzati in moltissimi campi, come ad esempio l’edilizia; questo comporta la nascita di linee automatiche in grado di produrre una grande quantità di tubi. Per portare il tubo dal luogo di produzione a quello di utilizzo si è reso necessario il taglio dei tubi e per realizzare reti per il trasporto di gas, liquidi o cavi, si è rivelata fondamentale la nascita del “bicchiere”, una svasatura che consente di collegare due spezzoni tra loro. Nel mio lavoro di tesi sono partito analizzando le varie fasi del processo produttivo dei tubi in materiale plastico e poi mi sono focalizzato sul processo di bicchieratura, che è un processo fondamentale e molto delicato. In seguito all’analisi della bicchieratrice standard, ho studiato una soluzione innovativa, eliminando l’impianto oleodinamico, in modo da renderla più prestazionale, più solida e diminuire i costi di manutenzione. È stato eseguito uno studio della nuova struttura adattata per poter inserire la nuova componentistica. La tipologia di macchina scelta produce tubi di diametro 250 mm, dimensioni intermedie nella gamma prodotta da I.P.M., perché è quella più significativa dal punto di vista della adattabilità. Il nuovo metodo di movimentazione elettromeccanico potrà poi essere utilizzato anche nelle altre macchine di taglia diversa.
Resumo:
Il presente lavoro è uno studio sulle diverse proposte in letteratura per ovviare alle problematiche di interoperabilità tra piattaforme di virtualizzazione eterogenee, ovvero di diversi produttori. Al giorno d'oggi non sono stati definiti con successo degli standard opportuni per cui le soluzioni presentate sono molto diverse tra di loro. Lo scopo del lavoro è quello di analizzare le proposte e, in base ad uno studio approfondito, stabilire qual è quella migliore. Successivamente si vuole presentare il caso di studio di una piattaforma che si basa su uno strato virtuale che può essere eterogeneo. Si vuole evidenziare come nei sistemi complessi garantire interoperabilità comporta garantire anche una vasta serie di altri servizi necessari alla consistenza del sistema.
Resumo:
La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.
Resumo:
Introduzione generale ai sistemi RFID: cenni storici, classificazione, funzionamento e applicazioni. Preso in esame un sistema RFID reale per eseguire misure sulla distanza di lettura di diversi tipi di tag con diversi reader. Tali misure sono servite per capire le differenti caratteristiche fra i vari tipi di tag, con particolare interessa per il funzionamento in presenza della "finestra", supporto metallico in cui viene installato il reader.
Resumo:
L'elaborato affronta in primo luogo la progettazione e il design CAD del sistema di misura impedenziometrico ad alta risoluzione. La seconda parte tratta un'upgrade del software per implementare una funzione di risparmio energetico.
Resumo:
Al giorno d’oggi il World Wide Web non è più un semplice strumento per la condivisione di informazioni. Le tecnologie nate nel corso dell’ultimo decennio hanno permesso lo sviluppo di vere e proprie applicazioni Web (Web App) complesse, indipendenti e multi-utente in grado di fornire le stesse funzionalità delle normali applicazioni desktop. In questa tesi verranno trattate le caratteristiche di una Web App moderna, analizzandone l’evoluzione e il processo produttivo. Particolare attenzione sarà posta alle Web App distribuite e ai meccanismi di comunicazione client-server che queste nuove tecnologie hanno reso disponibili. I WebSocket, la tecnologia di riferimento di HTML5, saranno riportati come caso di studio e relazionati allo standard precedente ad HTML5, cioè Ajax e Long Polling.