694 resultados para sviluppo sostenibile, sistema di Gestione Ambientale, evento sostenibile
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
Sviluppare e manutenere applicativi destinati a differenti piattaforme è un’opzione esclusiva di quelle entità capaci di sostenere costi molto alti per la realizzazione di queste applicazioni. Questo esclude gli sviluppatori indipendenti, che spesso realizzano prodotti in totale autonomia; le start-up, che hanno l’esigenza di sviluppare un’idea di business avendo a disposizione budget estremamente ridotti; le piccole aziende, alle quali viene così preclusa la possibilità di competere con player più importanti. Questo tipo di emergenze rende lo sviluppo cross-platform una soluzione interessante per la realizzazione delle applicazioni mobili, abbattendo i costi di sviluppo e permettendo di raggiungere più velocemente un pubblico più ampio. C'è quindi sempre maggiore interesse, da parte degli sviluppatori, per gli strumenti di sviluppo cross-platform. Per catturare l’attenzione degli sviluppatori è necessario che lo strumento sia dotato di buona stabilità, che offra un ambiente di sviluppo confortevole, una buona user experience, facilità di aggiornamento, tempi di sviluppo contenuti e possibilità di immissione delle applicazioni su diversi ecosistemi software. L’idea alla base di questa Tesi di laurea è valutare i pro e i contro di uno di questi framework cross-platform e compararlo con le tecnologie native. Il framework scelto è Ionic per via della sua popolarità tra gli sviluppatori e della ridotta bibliografia scientifica a riguardo. Molte ricerche scientifiche valutano le prestazioni di uno o più framework cross-platform rispetto ad una soluzione nativa, tuttavia è raro un confronto tra un framework e più soluzioni native. Per questo, oltre a valutare i pro e i contro del framework, verrà anche effettuata una comparazione tra gli applicativi nativi per Android e iOS e le controparti sviluppate attraverso Ionic, permettendo di identificare eventuali differenze di performance e aiutare gli sviluppatori nelle scelte tecnologiche.
Resumo:
In questa tesi sono stati studiati i fattori che influenzano l'utilizzo del buffer in un magazzino manuale. Per poter realizzare le analisi è stato realizzato un programma C# che simula la gestione del magazzino. Per ottimizzare l'assegnamento dei pallet alle location si è inoltre costruito un modello AMPL. L'obiettivo del modello è minimizzare la differenza tra le classi ottime dei codici in ingresso e i posti pallet ai quali questi vengono assegnati. Il programma C# oltre all'interfaccia con il risolutore AMPL Gurobi, deve interfacciarsi anche con il data base Access nel quale sono stati organizzati i dati necessari per l'analisi. Questi dati sono reali e relativi agli ingressi e alle uscite di un magazzino contenente materiale farmaceutico di due settimane di lavoro. Per facilitare e velocizzare lo studio le informazioni considerate sono quelle di due soli corridoi e non dell'intero magazzino. I risultati hanno evidenziato quattro fattori principali che influenzano la differenza tra un l'allocazione dei pallet in ingresso ad un magazzino. Questi elementi sono: costo di utilizzo del buffer, numero di location libere ad inizio simulazione, momento d'esecuzione del picking a magazzino e tipologia di location vute ad inizio della simulazione. Per ognuno di questi si è cercato, per quanto possibile, di individuare le implicazioni che quanto studiato può avere nella progettazione di un sistema di stoccaggio reale sia dal punto di vista logistico sia dal punto di vista economico. Non sempre le osservazioni reali alle quali si è arrivati hanno un risvolto pratico immediato, ma senza dubbio possono essere utili nello studio preliminare per la realizzazione di un sistema di stoccaggio. All'interno delle conclusioni sono state inserite anche possibili studi e approfondimenti futuri che possono essere eseguiti partendo dal progetto di tesi qui presentato.
Resumo:
L’internazionalizzazione dei contesti industriali e l’aumento della competizione sopravvenuti nel mondo contemporaneo hanno reso necessari diversi mutamenti nelle attività produttive e legate ai servizi, dalla diversificazione dei prodotti, alla riduzione dei lead time, alla razionalizzazione dei costi a tutti i livelli della supply chain, non solo relativamente alle materie prime e alla diminuzione dei prezzi di vendita, ma anche di tutti i costi indiretti, che assumono un peso importante. La rapidità nella sostituzione dei prodotti e la necessità di contenere al massimo i tempi di risposta spingono sempre più le aziende a rivedere la propria struttura in modo da eliminare gli sprechi. Le imprese operano in un ambiente molto complesso, di conseguenza si rende necessario il coinvolgimento non solo delle funzioni interne ad un’azienda, ma anche di quelle esterne, nell’ottimizzazione delle attività che producono valore e di quelle necessarie che non intervengono direttamente. Tra tutte queste attività si cerca, in questo elaborato, di porre un focus su quelle legate alla gestione delle scorte all’interno della supply chain e all’integrazione dei fornitori nella rete logistica aziendale. Verranno ripresi i concetti fondamentali della teoria di gestione delle scorte, e sarà esposto il percorso intrapreso dall’azienda Carpigiani Group, leader mondiale nella produzione e commercializzazione di macchine per la produzione di gelato artigianale ed “espresso”, di integrazione dei fornitori all’interno della catena di approvvigionamento, attraverso un sistema kanban di fornitura e politiche di approvvigionamento riconducibili al consignment stock, con il fine ultimo di ottimizzare i livelli di scorte a magazzino e di servire le linee produttive con efficacia ed efficienza.
Resumo:
Grazie all'enorme sviluppo dei LED, le comunicazioni tramite luce visibile stanno acquisendo sempre maggiore importanza. Obiettivo di questa tesi è implementare su schede a basso costo (come Rasperry Pi) un sistema di trasmissione e ricezione basato appunto sulla visible light communication. Dopo un primo tentativo di trasferire il codice OpenVLC, sviluppato dal centro di ricerca spagnolo IMDEA Network, su Rasperry Pi, si è deciso di intraprendere una nuova strada e si è implementato un trasmettitore VLC in Simulink di Matlab e una prima bozza di ricevitore che sfrutta la SPI (serial-parallel interface). I primi risultati mostrano il corretto funzionamento del sistema anche se con data rate molto basse. Sviluppi futuri prevederanno l'ottimizzazione del sistema.
Resumo:
Alla base delle analisi di radioprotezione di una azienda sanitaria si potrebbero considerare quattro settori da cui partire: le attività svolte che presentano un rischio dal punto di vista radiologico, gli apparecchi radiogeni, i locali all'interno del quale si svolgono le attività e infine i lavoratori, che devono essere classificati o meno in base ai valori di dose efficace a cui vengono esposti. In questo elaborato si vuole presentare un nuovo modello informatico di gestione, definito activity-oriented perché volto a portare le attività al centro dell'indagine di radioprotezione così da poter strutturare di conseguenza anche i dati relativi ad apparecchiature, locali e lavoratori, in modo da avere un visione completa dell’azienda così da facilitarne il monitoraggio. Tale modello è stato creato negli ultimi anni nell’azienda USL di Forlì e contemporaneamente è stato sviluppato un software che permette di automatizzare parte dei lavori di competenza dell’Esperto Qualificato. Applicando tali strumenti sull’Azienda USL della Romagna Area Territoriale di Ravenna è stato possibile passare da una gestione cartacea, priva di modellizzazione informatica, ad una gestione basata sul concetto di attività a rischio radiologico. Verranno evidenziati i passaggi che sono stati necessari per un corretto adattamento dello schema e inoltre verranno presentati i risultati ottenuti. In conclusione si vuole evidenziare come il modello descritto permetta una consistente riduzione del tempo necessario per svolgere le attività di competenza dell'Esperto Qualificato, riducendo inoltre gli errori commessi. Si ha così un guadagno di tempo impiegabile per formare i lavoratori classificati sui rischi che ci sono lavorando con radiazioni ionizzanti e quali possono essere le opportune precauzioni da utilizzare.
Resumo:
In questo lavoro di tesi viene affrontato il tema del Miglioramento Continuo all'interno di un caso di studio reale. Viene posta come obiettivo la verifica delle potenzialità dei principi del Miglioramento Continuo nel settore di confezionamento e trasformazione di prodotti liquidi alimentari. Il progetto riguarda il reparto di consulenza della multinazionale svedese Tetra Pak, che offre l'implementazione del sistema ad un'azienda cliente sita nel Regno Unito. L'implementazione del progetto si sviluppa da un primo accurato studio della situazione aziendale, a seguito del quale sono state riscontrate necessità di cambiamento in aree specifiche. Successivamente a questa prima fase di studio segue una seconda fase di pianificazione e sviluppo della strategia di miglioramento che ha visto coinvolti il personale Tetra Pak e il personale dell'azienda locale. Il processo di miglioramento viene applicato inizialmente su una cella pilota, selezionata all'interno delle linee produttive dell'azienda cliente, per poi essere espanso a tutto il reparto produttivo qualora il risultato misurato confermi le aspettative.
Resumo:
Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.
Resumo:
Il presente lavoro di tesi nasce dall’esigenza di comprendere e studiare come viene affrontata, e gestita, l’emergenza in mare derivante dallo sversamento accidentale, o volontario, di idrocarburi; il sistema di risposta nazionale a questo genere di emergenze si sviluppa su più livelli e per ogni livello sono individuati gli organi responsabili e i relativi compiti. Le azioni da intraprendere sono specificate negli elaborati di pianificazione redatti dall’Agenzia Nazionale di Protezione Civile, dal Ministero dell’Ambiente e della Tutela del territorio e del Mare, dalle Capitanerie di Porto Locali, dalle Province e dai Comuni; i primi 3 si occupano dell’emergenza in mare, mentre le Province e i Comuni si occupano degli interventi da attuare sulla costa in seguito allo spiaggiamento degli idrocarburi. La regione Emilia-Romagna, in particolare, non possiede elaborati di pianificazione per la gestione del rischio di inquinamento costiero; per questo motivo, sulla base delle indicazioni riportate negli elaborati di pianificazione nazionale e consultando elaborati già esistenti di altre regioni adriatiche, è stata redatta una proposta di linee guida per la redazione di un Piano Comunale d’Emergenza che preveda il rischio di inquinamento costiero. Per poter prevedere quale tecnica di bonifica sarà possibile applicare ad uno sversamento di idrocarburi, esistono software che modellano i processi chimico-fisici che la sostanza subisce con il passare del tempo. Ogni tecnica ha dei limiti sia di efficienza che di applicabilità; essi sono principalmente dovuti alle condizioni meteomarine e ai processi che la sostanza subisce nel tempo una volta sversata; la conoscenza di questi limiti permette di effettuare, nella maggior parte delle situazioni, la scelta della tecnica di intervento più appropriata ed efficiente a seconda della situazione. La tesi è strutturata come segue. Nel Capitolo 1 sono descritte le problematiche e le cause relative agli incidenti in mare che comportano il rilascio di idrocarburi in esso e gli effetti che questi hanno sull’ambiente e i cambiamenti che la sostanza subisce una volta sversata in mare. Nel Capitolo 2 sono descritte le strategie di intervento per il recupero degli idrocarburi sversati in mare e le tecniche di bonifica attuabili sulla costa impattata dallo sversamento. Nel Capitolo 3 è illustrato il sistema di risposta nazionale all’emergenza derivante dallo sversamento in mare di idrocarburi; ad ogni livello è dedicato un paragrafo del Capitolo 3. Inoltre sono presentate delle linee guida per la redazione di un Piano Comunale d’Emergenza che preveda il Rischio di Inquinamento Costiero da idrocarburi e altre sostanza nocive. Nel Capitolo 4 è illustrato il software ADIOS 2 che permette di modellare i processi chimico-fisici che la sostanza subisce quando viene sversata in mare e di simulare l’utilizzo di alcune strategie di intervento. Nel Capitolo 5 sono riportate le considerazioni conclusive e i risultati ottenuti.
Resumo:
I circuti di tipo charge-pump trovano vasto impiego nell'elettronica moderna in quanto offrono un metodo semplice e totalmente integrato per elevare le basse tensioni di alimentazione tipiche dei circuiti digitali e trasformarle nelle alimentazioni adatte al pilotaggio di circuti di programmazione delle memorie, al pilotaggio dei mos di potenza, alla generazione della tensione di riferimento dei VCO nei PLL e in numerose altre applicazioni. Questa tesi studia il circuito charge-pump di Dickson nel suo comportamento sia a regime stazionario sia a regime dinamico. Al fine di aumentare l'efficienza è infatti importante attivare il circuito solo all'occorrenza, prestando attenzione al transitorio di accensione. Ogni aspetto teorico viene verificato per mezzo di simulazioni su LTSpice. Si è quindi potuto constatare che un dimensionamento corretto del numero di stadi ottimizza le prestazioni sia statiche che dinamiche sotto il vincolo di una massima occupazione d'area. L'impiego dei circuiti charge-pump si prevede possa essere sempre più diffuso in futuro, visto il trend verso un maggiore livello di integrazione dei sistemi elettronici e la tendenza ad utilizzare tensioni di alimentazione sempre più basse.
Resumo:
Il lavoro presentato in questa tesi è stato svolto presso il Department of Computer Science, University of Oxford, durante il mio periodo all’estero nel Computational Biology Group. Scopo del presente lavoro è stato lo sviluppo di un modello matematico del potenziale d’azione per cellule umane cardiache di Purkinje. Tali cellule appartengono al sistema di conduzione elettrico del cuore, e sono considerate molto importanti nella genesi di aritmie. Il modello, elaborato in linguaggio Matlab, è stato progettato utilizzando la tecnica delle Popolazione di Modelli, un innovativo approccio alla modellazione cellulare sviluppato recentemente proprio dal Computational Biology Group. Tale modello è stato sviluppato in 3 fasi: • Inizialmente è stato sviluppato un nuovo modello matematico di cellula umana del Purkinje cardiaco, tenendo in considerazione i modelli precedenti disponibili in letteratura e le più recenti pubblicazioni in merito alle caratteristiche elettrofisiologiche proprie della cellula cardiaca umana di Purkinje. Tale modello è stato costruito a partire dall’attuale gold standard della modellazione cardiaca ventricolare umana, il modello pubblicato da T. O’Hara e Y. Rudy nel 2011, modificandone sia le specifiche correnti ioniche che la struttura interna cellulare. • Il modello così progettato è stato, poi, utilizzato come “modello di base” per la costruzione di una popolazione di 3000 modelli, tramite la variazione di alcuni parametri del modello all’interno di uno specifico range. La popolazione così generata è stata calibrata sui dati sperimentali di cellule umane del Purkinje. A valle del processo di calibrazione si è ottenuta una popolazione di 76 modelli. • A partire dalla popolazione rimanente, è stato ricavato un nuovo modello ai valori medi, che riproduce le principali caratteristiche del potenziale d’azione di una cellula di Purkinje cardiaca umana, e che rappresenta il dataset sperimentale utilizzato nel processo di calibrazione.
Resumo:
L’obiettivo della presente tesi è analizzare le varie tecniche di ricarica artificiale delle falde. Tali tecniche vengono applicate, ove non è possibile la ricarica naturale, con lo scopo di evitare il depauperamento delle falde e garantire una adeguata disponibilità della risorsa idrica. Nella prima parte dell’elaborato vengono esaminate le normative vigenti in materia di gestione e controllo delle acque, concentrando l'attenzione sulle acque sotterranee. A livello nazionale vige il Decreto Legislativo 3 aprile 2006, n.152: Norme in materia ambientale, mentre a livello europeo vige la Direttiva 2000/60/CE del Parlamento Europeo e del Consiglio del 23 Ottobre 2000. La seconda parte tratta la distinzione tra le diverse tecniche di ricarica artificiale applicabili, evidenziando gli aspetti legati alle interventi di tipo diretto, quali le tecniche di ricarica diretta superficiali, sotterranee composte, e alle tecniche indirette, quali la modifica del flusso dell’acquifero e l’alimentazione superficiale indotta. La terza ed ultima parte conclude l’analisi descrivendo alcuni casi significativi a livello nazionale ed internazionale, esaminando in particolare il progetto AQUOR (LIFE 2010 ENV/IT/380).
Resumo:
La presente tesi ha come obiettivo quello di sviluppare un modello per la gestione ottimizzata delle unità di generazione e di accumulo di una microrete elettrica. La tesi analizza, come caso studio di riferimento, una microrete contenente impianti di generazione da fonti rinnovabili, sistemi di accumulo a batteria (BES:Battery Energy System) e stazioni di ricarica per veicoli elettrici. In particolare le stazioni di ricarica sono a flusso bidirezionale, in grado di fornire servizi di tipo "grid-to-vehicle"(G2V) e "vehicle-to-grid" (V2G). Il modello consente di definire, come sistema di dispacciamento centrale, le potenze che le varie risorse distribuite devono erogare o assorbire nella rete nelle 24 ore successive. Il dispacciamento avviene mediante risoluzione di un problema di minimizzazione dei costi operativi e dell'energia prelevata dalla rete esterna. Il problema è stato formulato tramite l'approccio di programmazione stocastica lineare dove i parametri incerti del modello sono modellizzati tramite processi stocastici. L'implementazione del modello è stata effettuata tramite il software AIMMS, un programma di ottimizzazione che prevede al suo interno delle funzionalità specifiche per la programmazione stocastica
Resumo:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.
Resumo:
Il presente elaborato affronta il modo in cui la canzone della provincia canadese del Québec tratta i temi dello sviluppo sostenibile e dell’ecologia. Il Québec deve gran parte del suo benessere economico e sociale all’utilizzo delle risorse naturali presenti nella parte nord-est del Canada. Negli ultimi decenni, lo sfruttamento sempre maggiore delle risorse del pianeta ha fatto nascere negli esseri umani la consapevolezza di dover prendere provvedimenti a favore di un’economia sostenibile per il rispetto del pianeta. In questo elaborato si è voluto analizzare in che modo questa consapevolezza venga espressa attraverso le canzoni e la musica, due elementi fondamentali della cultura e dell’identità del Québec, innanzitutto proponendo i principali momenti della storia della canzone della provincia canadese e la maniera in cui la relazione con l’ambiente è cambiata nel corso degli anni. Successivamente, si è svolta un analisi dei temi trattati dalla canzone negli ultimi vent’anni, focalizzandosi sulle tematiche legate all’ambiente e allo sviluppo sostenibile: per fare ciò, è stata presa in analisi l’opera di cinque artisti famosi per il loro sostegno alle politiche ambientali in Québec. Le loro canzoni più significative sono state analizzate del punto di vista del contenuto e dal punto di vista lessicale. Infine, ci si è soffermati sul ruolo che la canzone e il francese del Québec ricoprono nella definizione e nella diffusione dell’identità nazionale quebecchese.