998 resultados para Sistemi Multiagente [MAS], AUML, Reti di Petri, Jason, ReSpecT, TuCSoN
Resumo:
L’implementazione di un sistema di gestione può rappresentare un’opportunità di crescita per quelle organizzazioni che riescono ad integrare efficacemente la gestione degli aspetti di salute e sicurezza con gli altri sistemi presenti, quali il sistema di gestione strategica o il sistema di comunicazione interno. Un sistema di gestione non garantisce, in modo diretto, performance migliori, ma se utilizzato con coerenza rispetto ai valori aziendali, stabiliti nella politica di gruppo, permette di gestire le responsabilità, i processi, le tempistiche di attuazione e le non conformità rilevate in maniera adeguata. Alla luce di quanto esposto, l’obiettivo di questo lavoro è stato quello di: 1. esaminare i requisiti del nuovo Standard ISO 45001:2018 e della OHSAS 18001:2007 in via di sostituzione; 2. effettuare la gap analysis, ovvero un’analisi degli scostamenti relativa ai contenuti della ISO 45001:2018 a partire dal sistema di gestione salute e sicurezza aziendale certificato OHSAS 18001:2007; 3. definire le azioni necessarie ad assicurare la transizione della certificazione dall’attuale Standard OHSAS 18001:2007 al suddetto ISO 45001:2018. Il lavoro è scaturito nel corso dello svolgimento di un tirocinio presso Rosetti Marino S.p.A. all’interno del reparto HSSE-Q che si occupa di salute e sicurezza sul lavoro, protezione dell’ambiente e qualità dei processi produttivi.
Resumo:
Il massiccio utilizzo di fungicidi in Viticoltura e i loro effetti negativi sulla salute dell’uomo e dell’ambiente sollecitano lo sviluppo di strategie agronomiche e di sistemi agrari innovativi. Il Lavoro di Tesi ha investigato l’influenza della cv Isabella su cultivars di Vitis vinifera in campo, in Fari Agroecologici, sistemi agrari frutto di una gestione partecipativa. L'esperimento ha dimostrato, per la prima volta, che la cultivar Isabella, nota per la sua tolleranza ai principali patogeni fungini, può contenere l’Incidenza della peronospora in cultivars di Vitis vinifera consociate e contigue. Studi precedenti dimostrano che i VOCs emessi dalla cv Isabella sono in grado di ridurre la presenza di patogeni fungini. La ricerca pioneristica ha evidenziato il ruolo chiave della biodiversità nella gestione dell’ecosistema vigneto, nella prospettiva della progettazione di sistemi viticoli agroecologici.
Resumo:
Nell’ultimo periodo, si è sviluppato un forte interesse nella produzione di materiali a base proteica per il settore biomedicale e cosmetico, in particolare per il rilascio controllato di farmaci. In questo studio sono stati sviluppati, tramite elettrofilatura, dei materiali nanocompositi, costituiti da una matrice di cheratina, ottenuta da lana, e PLA caricata con grafene ossido e con Rodamina-B, un indicatore particolarmente usato in chimica analitica per valutare il rilascio di determinati sistemi. Tali materiali, caratterizzati morfologicamente e strutturalmente, sono stati testati in vitro come sistemi per il rilascio controllato di farmaci, usando la Rodamina per la maggiore facilità di rilevazione, valutando soprattutto l’influenza del grafene ossido sull’entità del rilascio. I risultati ottenuti hanno evidenziato come l’ossido di grafene influisca in maniera significativa sull’entità del rilascio, rallentando la quantità di Rodamina rilasciata nelle prime 48 ore. Studi per l’applicazione di questi materiali nell’ingegneria tissutale e nella medicina rigenerativa saranno oggetto di studi futuri.
Resumo:
La preparazione di nanoparticelle (NPs) metalliche risulta complessa a causa di diversi parametri operativi in grado di modificare le proprietà del prodotto finale, per questo la ricerca di nuove strategie sintetiche atte a controllare morfologia e geometria di questi sistemi costituisce uno dei temi di maggior interesse scientifico per la chimica della catalisi. La tecnica di sol immobilization permette di ottenere catalizzatori nanostrutturati composti da nanoparticelle stabilizzate da polimeri e depositate su un materiale che funga da supporto. La possibilità di preparare polimeri con proprietà specifiche, ha aperto l’opportunità di sfruttare questi sistemi per modellare le caratteristiche delle nanoparticelle e la loro attività catalitica. In particolare, in quest’attività di ricerca è stato studiato, attraverso una reazione modello, in che modo il peso molecolare ed il grado di idrolisi degli stabilizzanti polimerici a base di poli-vinilalcol, possono influenzare la morfologia e l’attività delle nanoparticelle di oro.
Resumo:
Ultimamente si stanno sviluppando tecnologie per rendere più efficiente la virtualizzazione a livello di sistema operativo, tra cui si cita la suite Docker, che permette di gestire processi come se fossero macchine virtuali. Inoltre i meccanismi di clustering, come Kubernetes, permettono di collegare macchine multiple, farle comunicare tra loro e renderle assimilabili ad un server monolitico per l'utente esterno. Il connubio tra virtualizzazione a livello di sistema operativo e clustering permette di costruire server potenti quanto quelli monolitici ma più economici e possono adattarsi meglio alle richieste esterne. Data l'enorme mole di dati e di potenza di calcolo necessaria per gestire le comunicazioni e le interazioni tra utenti e servizi web, molte imprese non possono permettersi investimenti su un server proprietario e la sua manutenzione, perciò affittano le risorse necessarie che costituiscono il cosiddetto "cloud", cioè l'insieme di server che le aziende mettono a disposizione dei propri clienti. Il trasferimento dei servizi da macchina fisica a cloud ha modificato la visione che si ha dei servizi stessi, infatti non sono più visti come software monolitici ma come microservizi che interagiscono tra di loro. L'infrastruttura di comunicazione che permette ai microservizi di comunicare è chiamata service mesh e la sua suddivisione richiama la tecnologia SDN. È stato studiato il comportamento del software di service mesh Istio installato in un cluster Kubernetes. Sono state raccolte metriche su memoria occupata, CPU utilizzata, pacchetti trasmessi ed eventuali errori e infine latenza per confrontarle a quelle ottenute da un cluster su cui non è stato installato Istio. Lo studio dimostra che, in un cluster rivolto all'uso in produzione, la service mesh offerta da Istio fornisce molti strumenti per il controllo della rete a scapito di una richiesta leggermente più alta di risorse hardware.
Resumo:
Lo studio ha indagato l’impatto delle reti di distribuzione idrica sulla qualità dell’acqua ed il supporto che in questo ambito possono fornire i modelli numerici nella redazione dei Piani di Sicurezza delle Acque (PSA) o Water Safety Plan (WSP). In una prima fase, esso è stato analizzato prendendo atto del percorso normativo europeo e nazionale e delle linee guida fornite dall’Organizzazione Mondiale di Sanità (OMS) e dall’Istituto Superiore di Sanità (ISS) che hanno portato i Piani di Sicurezza delle Acque nell’ambito del controllo delle acque potabili, tenendo conto, anche, dei vari soggetti coinvolti e delle problematiche generate dai cambiamenti climatici. In una seconda fase, si è analizzato il caso studio della rete di distribuzione idrica della città di Cesena, fornito dal gestore HERA S.p.A., modellando la qualità dell’acqua attraverso il programma EPANET 2.2. Questa analisi è stata sviluppata successivamente alla calibrazione del modello idraulico. Per gli aspetti che richiedono una georeferenziazione è stato utilizzato il programma open source QGIS, mentre per le analisi dei dati e le elaborazioni statistiche relative al campionamento del cloro residuo e delle portate immesse dalle fonti idriche è stato utilizzato il linguaggio R. E' stato quindi possibile creare mappe georeferenziate per diversi momenti della giornata del tempo di permanenza dell'acqua nella rete di distribuzione, delle concentrazioni di cloro residuo dell'acqua prelevata dagli utenti e analizzare il ruolo dei serbatoi di compenso.
Resumo:
Il presente elaborato ha studiato i sistemi di assistenza avanzata al conducente (ADAS), focalizzandosi sull’Adaptive Cruise Control (ACC). Si sono studiati diversi aspetti comportamentali dei conducenti in funzione del sistema ACC come il visual behaviour dei conducenti, i dati cinematici del veicolo (driving behaviour) e il tempo di percezione-reazione in situazioni critiche. Si è descritta la sperimentazione svolta in sito e le strumentazioni innovative, tra le quali il Mobile eye tracker, utilizzate per la raccolta dati. Per eseguire l’elaborazione dei dati sono state applicate tecniche di machine learning, mediante l’applicazione di una rete neurale artificiale realizzata appositamente per questo studio, risultando uno dei primi nel settore ad utilizzare tale metodologia. Si è descritto il codice della rete e valutate le prestazioni della stessa. Infine sono state eseguite analisi sul comportamento dei conducenti in funzione dello stato (on/off) del sistema.
Resumo:
Gli investimenti alle infrastrutture di trasporto sono stati per lungo tempo considerati misure di politica generale di competenza esclusiva degli Stati membri, nonostante il generale divieto di misure di sostegno pubblico a favore delle imprese ai sensi dell’art. 107 TFUE. Le sentenze rese dalle corti eurounitarie in relazione agli aeroporti di Parigi e di Lipsia Halle hanno dato avvio ad un vero e proprio revirement giurisprudenziale, in considerazione delle trasformazioni economiche internazionali, rimettendo in discussione il concetto di impresa, nonché la ferma interpretazione secondo cui il finanziamento alle infrastrutture – in quanto beni pubblici intesi a soddisfare i bisogni di mobilità dei cittadini – sfuggirebbe all’applicazione della disciplina degli aiuti di Stato. Nonostante le esigenze di costante ammodernamento e sviluppo delle infrastrutture, il nuovo quadro regolatorio adottato dall’Unione europea a seguire ha condotto inevitabilmente gli Stati membri a dover sottoporre al vaglio preventivo della Commissione ogni nuovo investimento infrastrutturale. La presente trattazione, muovendo dall’analisi della disciplina degli aiuti di Stato di cui agli artt. 107 e ss. TFUE, analizza i principi di creazione giurisprudenziale e dottrinale che derivano dall’interpretazione delle fonti primarie, mettendo in evidenza le principali problematiche giuridiche sottese, anche in considerazione delle peculiarità delle infrastrutture in questione, dei modelli proprietari e di governance, delle competenze e dei poteri decisionali in merito a nuovi progetti di investimento. Infine, la trattazione si concentra sui grandi progetti infrastrutturali a livello europeo e internazionale che interessano le reti di trasporto, analizzando le nuove sfide, pur considerando la necessità di assicurare, anche rispetto ad essi, la salvaguardia del cd. level playing field e l’osservanza sostanziale delle norme sugli aiuti di Stato.
Resumo:
La disponibilità di connessioni a internet poco costose ed affidabili rappresenta un lusso in molti paesi in via di sviluppo e in zone rurali di nazioni sviluppate. L’utilizzo di nuove tecnologie come le blockchain risulta quindi difficile in queste aree, per quanto esse trarrebbero certamente beneficio dalla disponibilità di sistemi di pagamento digitali, decentralizzati e tolleranti ai guasti; inoltre l’uso delle blockchain in zone rurali potrebbe rendere l’abitabilità di tali aree maggiormente appetibile. Una possibile soluzione è costituita dalle blockchain locali, ossia catene a servizio di una ristretta area geografica in cui è disponibile solamente una rete locale, da cui potrebbero ricevere vantaggio sia paesi in via di sviluppo, sia scenari industriali dove si necessiti di blockchain il cui accesso debba avvenire solamente dall’interno dell’intranet aziendale. L’utilità delle blockchain locali risulterebbe tuttavia limitata qualora questi sistemi rimanessero totalmente isolati dal mondo esterno. Utilizzando tecnologie che permettono l’interoperabilità tra blockchain è però possibile interconnettere questi sistemi, rendendo possibile il trasferimento di asset tra diverse chain. Le particolarità degli scenari ipotizzati lasciano però spazio ad alcune vulnerabilità, che, se sfruttate, possono condurre ad attacchi ai danni degli utenti e dell’economia delle blockchain locali. Per risolvere le problematiche individuate, sono stati quindi discussi ed implementati una serie di requisiti per la messa in sicurezza del sistema.
Resumo:
A partire dagli anni ’50 furono sviluppati numerosi modelli con l’intento di studiare i fenomeni connessi al traffico. Alcuni di essi riuscirono non solo a spiegare i fenomeni per i quali erano stati ideati ma misero in evidenza altre caratteristiche tipiche dei sistemi dinamici, come la presenza di cicli di isteresi e cambiamenti nella distribuzione dei tempi di percorrenza in situazioni di congestione. Questo lavoro si propone di verificare la validità di un modello semplificato ideato per mettere in luce i comportamenti tipici di un sistema di traffico, in particolare le congestioni che si vengono a creare sulla rete stradale. Tale modello è stato implementato per mezzo della libreria C++ Traffic Flow Dynamics Model, reperibile al link https://github.com/Grufoony/TrafficFlowDynamicsModel. Ai fini dello studio sono stati utilizzati i Diagrammi Fondamentali Macroscopici, particolari diagrammi che mettono in relazione gli osservabili principali di un network stradale quali velocità, densità e flusso. Variando il carico immesso nella rete stradale è stato possibile studiare il sistema in diversi regimi: carico costante, carico piccato e carico periodico. Mediante questi studi sono emerse diverse proprietà tipiche di ogni regime e, per alcuni di essi, è stata verificate e giustificate la presenza di uno o più cicli di isteresi. In ultimo è stata effettuata una breve analisi ad-hoc volta a evidenziare i cambiamenti nella distribuzione dei tempi di percorrenza in relazione al regime di traffico considerato.
Resumo:
In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.
Resumo:
A seguito di un’esigenza esplicitata della Divisione IMA Ilapak Lugano, il team del PaLM Entreprise ha creato il Modulo Segnalazione Modifiche (MSM) con lo scopo di standardizzare e strutturare il flusso informativo relativo alle modifiche della distinta base dagli uffici tecnici a quelli della logistica e produzione. La prima analisi effettuata è stata incentrata sulla situazione AS-IS e sul primo applicativo che utilizzava Ilapak Lugano, il Segnalazione Modifiche (SM). Dopo aver appreso il funzionamento del vecchio SM, sono emerse diverse criticità come la scarsa integrazione con la piattaforma PaLM e con gli altri sistemi che conducevano a problemi di trasmissione di informazione tra gli uffici e ad errori nel recupero delle modifiche corrette. Dopo differenti riunioni tra i due team sono state concordate le prime specifiche. Successivamente l’elaborato procede con un’analisi della situazione TO-BE, descrivendo le caratteristiche ed i vantaggi del MSM. Uno dei principali benefici è che il Modulo è perfettamente integrato all’interno del PaLM e con tutti i sistemi PDM e CAD. Tutto ciò permette di migliorare la comunicazione e la collaborazione tra i vari dipartimenti, in special modo tra gli uffici tecnici e la logistica e con i fornitori. La terza ed ultima analisi è, invece, una valutazione economica: vengono calcolati i costi della situazione AS-IS, quelli della TO-BE e, in seguito, viene fatta un’analisi costi/benefici, confrontando i due scenari. Attraverso l’implementazione del MSM, si ottengono i seguenti risultati: non solo si ottiene una riduzione dei costi, ma anche un risparmio importante di tempo per gli operatori. Ilapak Lugano è risultata essere la portavoce di un progetto che, in realtà, molte altre Divisioni IMA desiderano. Senza dubbio, il fine ultimo del progetto del MSM è quello di introdurlo in quante più Divisioni possibili, rendendolo un modulo indispensabile all’interno dell’azienda.
Resumo:
Il monitoraggio basato su emissioni acustiche (AE) guidate si è confermato tra le tecniche più affidabili nel campo del Non-Destructive Testing delle strutture planari, vista anche la sua semplicità implementativa, i bassi costi che lo caratterizzano, la non invasività e la possibilità di realizzare un sistema che agisca in maniera continuativa ed in tempo reale sfruttando reti di sensori permanentemente installati, senza la necessità di ispezioni periodiche. In tale contesto, è possibile sfruttare l’abilità dell’apprendimento automatico nell’individuazione dei pattern nascosti all’interno dei segnali grezzi registrati, ottenendo così informazioni utili ai fini dell’applicazione considerata. L’esecuzione on-edge dei modelli, ovvero sul punto di acquisizione, consente di superare le limitazioni imposte dal processamento centralizzato dei dati, con notevoli vantaggi in termini di consumo energetico, tempestività nella risposta ed integrità degli stessi. A questo scopo, si rivela però necessario sviluppare modelli compatibili con le stringenti risorse hardware dei dispositivi a basso costo tipicamente impiegati. In questo elaborato verranno prese in esame alcune tipologie di reti neurali artificiali per l’estrazione dell’istante di arrivo (ToA) di un’emissione acustica all’interno di una sequenza temporale, in particolare quelle convoluzionali (CNNs) ed una loro variante più recente, le CapsNet basate su rounting by agreement. L’individuazione dei ToA relativi al medesimo evento su segnali acquisiti in diverse posizioni spaziali consente infatti di localizzare la sorgente da cui esso è scaturito. Le dimensioni di questi modelli permettono di eseguire l’inferenza direttamente su edge-device. I risultati ottenuti confermano la maggiore robustezza delle tecniche di apprendimento profondo rispetto ai metodi statistici tradizionali nel far fronte a diverse tipologie di disturbo, in particolare negli scenari più critici dal punto di vista del rapporto segnale-rumore.
Resumo:
In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.
Resumo:
Con l’avvento dell’Industry 4.0, l’utilizzo dei dispositivi Internet of Things (IoT) è in continuo aumento. Le aziende stanno spingendo sempre più verso l’innovazione, andando ad introdurre nuovi metodi in grado di rinnovare sistemi IoT esistenti e crearne di nuovi, con prestazioni all’avanguardia. Un esempio di tecniche innovative emergenti è l’utilizzo dei Digital Twins (DT). Essi sono delle entità logiche in grado di simulare il reale comportamento di un dispositivo IoT fisico; possono essere utilizzati in vari scenari: monitoraggio di dati, rilevazione di anomalie, analisi What-If oppure per l’analisi predittiva. L’integrazione di tali tecnologie con nuovi paradigmi innovativi è in rapido sviluppo, uno tra questi è rappresentato dal Web of Things (WoT). Il Web of Thing è un termine utilizzato per descrivere un paradigma che permette ad oggetti del mondo reale di essere gestiti attraverso interfacce sul World Wide Web, rendendo accessibile la comunicazione tra più dispositivi con caratteristiche hardware e software differenti. Nonostante sia una tecnologia ancora in fase di sviluppo, il Web of Thing sta già iniziando ad essere utilizzato in molte aziende odierne. L’elaborato avrà come obiettivo quello di poter definire un framework capace di integrare un meccanismo di generazione automatica di Digital Twin su un contesto Web of Thing. Combinando tali tecnologie, si potrebbero sfruttare i vantaggi dell’interoperabilità del Web of Thing per poter generare un Digital Twin, indipendentemente dalle caratteristiche hardware e software degli oggetti da replicare.