933 resultados para Sistema di feedback,Sostenibilità,Machine learning,Agenda 2030,SDI


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto prevede l’applicazione dell’analisi del ciclo di vita al sistema integrato di raccolta, riciclaggio e smaltimento dei rifiuti urbani e assimilati. La struttura di una LCA (Life Cycle Assessment) è determinata dalla serie di norme UNI EN ISO 14040 e si può considerare come “un procedimento oggettivo di valutazione dei carichi energetici e ambientali relativi a un processo o un’attività, effettuato attraverso l’identificazione dell’energia e dei materiali usati e dei rifiuti rilasciati nell’ambiente. La valutazione include l’intero ciclo di vita del processo o attività, comprendendo l’estrazione e il trattamento delle materie prime, la fabbricazione, il trasporto, la distribuzione, l’uso, il riuso, il riciclo e lo smaltimento finale”. Questa definizione si riassume nella frase “ from cradle to grave” (dalla culla alla tomba). Lo scopo dello studio è l’applicazione di una LCA alla gestione complessiva dei rifiuti valutata in tre territori diversi individuati presso tre gestori italiani. Due di questi si contraddistinguono per modelli di raccolta con elevati livelli di raccolta differenziata e con preminenza del sistema di raccolta domiciliarizzato, mentre sul territorio del terzo gestore prevale il sistema di raccolta con contenitori stradali e con livelli di raccolta differenziata buoni, ma significativamente inferiori rispetto ai Gestori prima descritti. Nella fase iniziale sono stati individuati sul territorio dei tre Gestori uno o più Comuni con caratteristiche abbastanza simili come urbanizzazione, contesto sociale, numero di utenze domestiche e non domestiche. Nella scelta dei Comuni sono state privilegiate le realtà che hanno maturato il passaggio dal modello di raccolta a contenitori stradali a quello a raccolta porta a porta. Attuata l’identificazione delle aree da sottoporre a studio, è stato realizzato, per ognuna di queste aree, uno studio LCA dell’intero sistema di gestione dei rifiuti, dalla raccolta allo smaltimento e riciclaggio dei rifiuti urbani e assimilati. Lo studio ha posto anche minuziosa attenzione al passaggio dal sistema di raccolta a contenitori al sistema di raccolta porta a porta, evidenziando il confronto fra le due realtà, nelle fasi pre e post passaggio, in particolare sono stati realizzati tre LCA di confronto attraverso i quali è stato possibile individuare il sistema di gestione con minori impatti ambientali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi affronta lo studio di una tipologia di vibrazione autoeccitata, nota come chatter, che si manifesta nei processi di lavorazione ad asportazione di truciolo ed in particolare nelle lavorazioni di fresatura. La tesi discute inoltre lo sviluppo di una tecnica di monitoraggio e diagnostica del chatter basato sul rilievo di vibrazioni. Il fenomeno del chatter è caratterizzato da violente oscillazioni tra utensile e pezzo in lavorazione ed elevate emissioni acustiche. Il chatter, se non controllato, causa uno scadimento qualitativo della finitura superficiale e delle tolleranze dimensionali del lavorato, una riduzione della vita degli utensili e dei componenti della macchina. Questa vibrazione affligge negativamente la produttività e la qualità del processo di lavorazione e pregiudica l’interazione uomo-macchina-ambiente. Per una data combinazione di macchina, utensile e pezzo lavorato, i fattori che controllano la velocità di asportazione del materiale sono gli stessi che controllano l’insorgenza del chatter: la velocità di rotazione del mandrino, la profondità assiale di passata e la velocità di avanzamento dell’utensile. Per studiare il fenomeno di chatter, con l’obbiettivo di individuare possibili soluzioni per limitarne o controllarne l’insorgenza, vengono proposti in questa tesi alcuni modelli del processo di fresatura. Tali modelli comprendono il modello viscoelastico della macchina fresatrice e il modello delle azioni di taglio. Per le azioni di taglio è stato utilizzato un modello presente in letteratura, mentre per la macchina fresatrice sono stati utilizzato modelli a parametri concentrati e modelli modali analitico-sperimentali. Questi ultimi sono stati ottenuti accoppiando un modello modale sperimentale del telaio, completo di mandrino, della macchina fresatrice con un modello analitico, basato sulla teoria delle travi, dell’utensile. Le equazioni del moto, associate al processo di fresatura, risultano essere equazioni differenziali con ritardo a coefficienti periodici o PDDE (Periodic Delay Diefferential Equations). È stata implementata una procedura numerica per mappare, nello spazio dei parametri di taglio, la stabilità e le caratteristiche spettrali (frequenze caratteristiche della vibrazione di chatter) delle equazioni del moto associate ai modelli del processo di fresatura proposti. Per testare i modelli e le procedure numeriche proposte, una macchina fresatrice CNC 4 assi, di proprietà del Dipartimento di Ingegneria delle Costruzioni Meccaniche Nucleari e Metallurgiche (DIEM) dell’Università di Bologna, è stata strumentata con accelerometri, con una tavola dinamometrica per la misura delle forze di taglio e con un adeguato sistema di acquisizione. Eseguendo varie prove di lavorazione sono stati identificati i coefficienti di pressione di taglio contenuti nel modello delle forze di taglio. Sono stati condotti, a macchina ferma, rilievi di FRFs (Funzioni Risposta in Frequenza) per identificare, tramite tecniche di analisi modale sperimentale, i modelli del solo telaio e della macchina fresatrice completa di utensile. I segnali acquisiti durante le numerose prove di lavorazione eseguite, al variare dei parametri di taglio, sono stati analizzati per valutare la stabilità di ciascun punto di lavoro e le caratteristiche spettrali della vibrazione associata. Questi risultati sono stati confrontati con quelli ottenuti applicando la procedura numerica proposta ai diversi modelli di macchina fresatrice implementati. Sono state individuate le criticità della procedura di modellazione delle macchine fresatrici a parametri concentrati, proposta in letteratura, che portano a previsioni erronee sulla stabilità delle lavorazioni. È stato mostrato come tali criticità vengano solo in parte superate con l’utilizzo dei modelli modali analitico-sperimentali proposti. Sulla base dei risultati ottenuti, è stato proposto un sistema automatico, basato su misure accelerometriche, per diagnosticare, in tempo reale, l’insorgenza del chatter durante una lavorazione. È stato realizzato un prototipo di tale sistema di diagnostica il cui funzionamento è stato provato mediante prove di lavorazione eseguite su due diverse macchine fresatrici CNC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente ricerca si inquadra nell’ambito della risoluzione dei problemi legati alla chirurgia ossea, per la cura e la sostituzione di parti di osso in seguito a fratture, lesioni gravi, malformazioni e patologie quali osteoporosi, tumori, etc… Attualmente la progettazione di impianti per le sostituzioni/rigenerazioni ossee richiede che i materiali sviluppati siano in grado di “mimare” la composizione e la morfologia dei tessuti naturali, in modo da generare le specifiche interazioni chimiche esistenti nei tessuti dell’organismo con cui vengono a contatto e quindi di biointegrarsi e/o rigenerare l’osso mancante nel miglior modo possibile, in termini qualitativi e quantitativi. Per lo sviluppo di sostituti ossei porosi sono state sperimentate 2 tecnologie innovative: il freeze-casting ed il foaming. Gli impianti ceramici realizzati hanno presentano una dimensione dei pori ed un’interconnessione adeguata sia per l’abitazione cellulare che per la penetrazione dei fluidi fisiologici e la vascolarizzazione. In particolare l’elevata unidirezionalità nei campioni ottenuti mediante freeze-casting si presenta molto promettente poiché fornisce cammini guida che migliorano la vascolarizzazione dell’impianto e l’abitazione cellulare in tempi rapidi e nella parte più interna dello scaffold. D’altra parte, la tecnologia del foaming ha permesso l’ottenimento di materiali apatitici ad alta porosità multidimensionale ed interconnessa con proprietà meccaniche implementate rispetto a tipologie precedenti e, lavorabili dopo sinterizzazione mediante prototipazione rapida. Per questo motivo, questi materiali sono attualmente in corso di sperimentazione, con risultati preliminari adeguati promettenti per un’applicazione clinica, come sostituti ossei di condilo mandibolare, sito estremamente critico per gli sforzi meccanici presenti. È stata dimostrata la possibilità di utilizzare lo scaffold ceramico biomimetico con la duplice funzione di sostituto osseo bioattivo e sistema di rilascio in situ di ioni specifici e di antibiotico, in cui la cinetica di rilascio risulta fortemente dipendente dalle caratteristiche chimico-fisico morfologiche del dispositivo (solubilità, area di superficie specifica,…). Per simulare sempre di più la composizione del tessuto osseo e per indurre specifiche proprietà funzionali, è stata utilizzata la gelatina come fase proteica con cui rivestire/impregnare dispositivi porosi 3D a base di apatite, con cui miscelare direttamente la fase inorganica calcio-fosfatica e quindi realizzare materiali bio-ibridi in cui le due fasi contenenti siano intimamente interagenti. Inoltre al fine di ridurre gli innumerevoli problemi legati alle infezioni ossee alcuni dei materiali sviluppati sono stati quindi caricati con antibiotico e sono state valutate le cinetiche di rilascio. In questa maniera, nel sito dell’impianto sono state associate le funzioni di trasporto e di rilascio di farmaco, alla funzione di sostituzione/rigenerazione ossee. La sperimentazione con la gelatina ha messo in luce proprietà posatamente sfruttabili della stessa. Oltre a conferire allo scaffold un implementata mimesi composizionale del tessuto osseo, ha infatti consentito di aumentare le proprietà meccaniche, sia come resistenza a compressione che deformazione. Unitamente a quanto sopra, la gelatina ha consentito di modulare la funzionalità di dispensatore di farmaco; mediante controllo della cinetica di rilascio, tramite processi di reticolazione più o meno spinti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della presente tesi di dottorato è di illustrare il lavoro svolto nella progettazione del circuito a metallo liquido del Test Blanket System (TBS) Helium Cooled Lithium Lead (HCLL), uno dei sistemi fondamentali del reattore sperimentale ITER che dovrà dimostrare la fattibilità di produrre industrialmente energia elettrica da processi di fusione nucleare. Il blanket HCLL costituisce una delle sei configurazioni che verranno testate in ITER, sulla base degli esperimenti condotti nei 10 dieci anni di vita del reattore verrà selezionata la configurazione che determinerà la costituzione del primo reattore dimostrativo per la produzione di un surplus di energia elettrica venti volte superiore all’energia consumata, DEMO. Il circuito ausiliario del blanket HCLL è finalizzato, in DEMO all’estrazione del trizio generato mediante il TES; ed in ITER alla dimostrazione della fattibilità di estrarre il trizio generato e di poter gestire il ciclo del trizio. Lo sviluppo dei componenti, svolto in questa tesi, è accentrato su tale dispositivo, il TES. In tale ambito si inseriscono le attività che sono descritte nei capitoli della seguente tesi di dottorato: selezione e progettazione preliminare del sistema di estrazione del trizio dalla lega eutettica Pb15.7Li del circuito a metallo liquido del TBM HCLL; la progettazione, realizzazione e qualifica dei sensori a permeazione per la misura della concentrazione di trizio nella lega eutettica Pb15.7Li; la qualificazione sperimentale all’interno dell’impianto TRIEX (TRItium EXtarction) della tecnologia selezionata per l’estrazione del trizio dalla lega; la progettazione della diagnostica di misura e controllo del circuito ausiliario del TBM HCLL.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro presenta una analisi di sensitività sui parametri progettuali più significativi per i sistemi di ancoraggio di dispositivi di produzione di energia del mare di tipo galleggiante, comunemente conosciuti come Floating Wave Energy Converters (F-WEC). I convertitori di questo tipo sono installati offshore e possono basarsi su diversi principi di funzionamento per la produzione di energia: lo sfruttamento del moto oscillatorio dell’onda (chiamati Wave Active Bodies, gran parte di convertitori appartengono la tecnologia di questo tipo), la tracimazione delle onde (Overtopping Devices), o il principio della colonna d’acqua oscillante (Oscillating Water Columns). La scelta del luogo di installazione dei tali dispositivi implica una adeguata progettazione del sistema di ancoraggio che ha lo scopo di mantenere il dispositivo in un intorno sufficientemente piccolo del punto dove è stato originariamente collocato. Allo stesso tempo, dovrebbero considerarsi come elemento integrato del sistema da progettare al fine di aumentare l’efficienza d’estrazione della potenza d’onda. Le problematiche principali relativi ai sistemi di ancoraggio sono: la resistenza del sistema (affidabilità, fatica) e l’economicità. Le due problematiche sono legate tra di loro in quanto dall’aumento del resistenza dipende l’aumento della complessità del sistema di ancoraggio (aumentano il numero delle linee, si utilizzano diametri maggiori, aumenta il peso per unità di lunghezza per ogni linea, ecc.). E’ però chiaro che sistemi più affidabili consentirebbero di abbassare i costi di produzione e renderebbero certamente più competitiva l’energia da onda sul mercato energetico. I dispositivi individuali richiedono approcci progettuali diversi e l’economia di un sistema di ormeggio è strettamente legata al design del dispositivo stesso. Esistono, ad oggi, una serie di installazioni a scala quasi di prototipo di sistemi WEC che hanno fallito a causa del collasso per proprio sistema di ancoraggio, attirando così l’attenzione sul problema di una progettazione efficiente, affidabile e sicura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le politiche di promozione e sostegno delle bioenergie sono state predisposte in relazione al raggiungimento di specifici obiettivi quali non sempre facilmente conciliabili: la riduzione delle emissioni di gas clima alteranti; la diminuzione della dipendenza energetica dai combustibili fossili; la creazione di nuove opportunità per le imprese agricole e forestali; il sostegno allo sviluppo rurale. All’interno del dibattito agricolo-economico la tematica delle bio-energie risulta di estrema attualità: ai potenziali vantaggi si contrappongono le critiche nei confronti della loro sostenibilità ambientale, economica e sociale. La bio-energia può però anche essere interpretata come un esempio di innovazione che coinvolge il settore agricolo e le aree rurali. Obiettivo del presente lavoro è infatti quello di proporre una rilettura del tema delle bioenergie attraverso l’approccio alla tematica dell’innovazione sviluppato nell’ambito del progetto europeo In-Sight, il quale parte dal presupposto che qualsiasi cambiamento nel sistema di produzione, di consumo e di distribuzione è in grado di generare innovazione. Tale approccio è stato utilizzato per analizzare il processo innovativo che ha condotto alla realizzazione di un impianto di teleriscaldamento a biomasse legnose in Toscana. Il caso studio dimostra come anche nel caso delle bioenergie gli elementi innovativi vadano oltre al di là del solo aspetto tecnologico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Protocolli e metodologie di caratterizzazione di un sistema di misura di segnali fluorescenti in microscopia ottica