999 resultados para iso 14001 profilglass sistema di gestione ambientale
Resumo:
Il processo di sviluppo di un’applicazione comprende più fasi, ognuna strettamente correlata alle altre. Una delle fasi di questo processo è il rilascio del software, che consiste nel rendere disponibile agli utenti l’applicazione caricandone l’eseguibile su un server, sul quale verrà poi eseguita. Per un’azienda di sviluppo software è particolarmente importante automatizzare e standardizzare il processo di rilascio del software, allo scopo di renderlo più veloce e di diminuire il tempo che intercorre fra una modifica e il momento in cui questa viene effettivamente resa disponibile per gli utenti, ottimizzando infine l’impegno degli sviluppatori. La presente tesi descrive l’implementazione di un sistema di Continuous Integration e Continuous Deliveliry scalabile su una software house con più di 900 dipendenti suddivisi in decine di team, ognuno dei quali ha in carico lo sviluppo di vari software. Le applicazioni realizzate dai team sono generalmente microservizi in esecuzione all’interno di container su piattaforma Kubernetes. Sono state quindi valutate le varie alternative per la realizzazione di questo sistema, analizzandone pro e contro, scegliendo infine GitLab per la parte di Continuous Integration e ArgoCD per la parte di Continuous Deployment. Nei vari capitoli viene quindi analizzata l’infrastruttura esistente e vengono illustrati i vantaggi e svantaggi delle varie soluzioni considerate. Per i due software selezionati viene invece descritto il lavoro svolto, con dettagli sul funzionamento del sistema e la configurazione necessaria per il corretto funzionamento dell’intero processo. La soluzione realizzata effettua build, test, code validation e deploy delle applicazioni seguendo un pattern GitOps, con un repository git contenente la configurazione attuale delle applicazioni, permettendo rollback in caso di problematiche e garantendo un alto livello di sicurezza attraverso il mantenimento dello storico della configurazione e della versione delle applicazioni.
Resumo:
"Electrification" è il concetto su cui è stata fondata l’idea del progetto trattato nell’elaborato. Si sente spesso parlare di elettrificazione e di transizione energetica, specialmente nell’ambito in cui ho avuto occasione di svolgere il tirocinio in preparazione della tesi. L’azienda con cui ho lavorato sull’attività di ricerca e analisi è, infatti, incentrata sul mercato Oil & Gas, per cui, in particolar modo in questo periodo storico, risente di un’enorme spinta all’ electrification e all’ottimizzazione degli impianti. A tal proposito, si sta dirigendo verso soluzioni che possano fornire supporto alla rete ed anche ridurre le emissioni di gas inquinanti in atmosfera. L’attività di ricerca si è basata su quelle che sono le tecnologie e le disponibilità sul mercato per sistemi di accumulo di energia all’interno dell’ambito industriale, con particolare attenzione ad aspetti quali sicurezza e innovazione. Le applicazioni di un sistema di accumulo sono svariate, per cui nell’elaborato ne sono state trattate due in particolare: peak shaving e sistema di backup. Sono stati sviluppati, quindi, tre progetti in parallelo: uno relativo al caso di peak shaving e due riguardanti sistemi di backup all’interno di una control cabin. Nel primo caso si è partiti da un progetto ex novo, mentre negli altri due casi si è fatto riferimento a due casi studio già ben definiti relativi a due impianti già esistenti a cui è stata sostituita la tecnologia alla base delle celle elettrochimiche che costituiscono il rack di batterie. L’obiettivo principale della tesi è stato dunque quello di progettare il sistema di accumulo per i relativi casi studio e di verificarne la fattibilità.
Resumo:
Il presente elaborato descrive il percorso effettuato sulla macchina XTREMA, prodotta dalla divisione Life del gruppo IMA. Il progetto ha come fine il miglioramento delle prestazioni della macchina, quantificate principalmente in termini di accuratezza del prodotto dosato e di prodotti processati in un arco di tempo. Il Capitolo 1 fornisce un iniziale studio delle caratteristiche e del funzionamento della macchina, con successiva focalizzazione sul sistema di controllo peso. Con l’obiettivo di definire le prestazioni del sistema di controllo peso, nel Capitolo 2 è impostata una campagna sperimentale di test che permette di studiare lo stato attuale del sistema, identificando l’influenza dei vari parametri di funzionamento sulle perfomances, portando alla luce le criticità della macchina. Viene quindi analizzato il gruppo, individuando le cause delle problematiche e identificando su quali campi agire per incrementare velocità di funzionamento e accuratezza del sistema. All’interno del Capitolo 3 entrambi i componenti del sistema di controllo peso, discensore e gruppo di bilance, sono quindi riprogettati per risolvere le criticità rilevate. Nel Capitolo 4 viene affrontato il montaggio del prototipo in una macchina dedicata alle prove, dove viene impostata una nuova campagna di test con l’obiettivo collaudare il sistema e validarne le prestazioni. Confrontando le prove si dimostrerà che il nuovo prototipo, oltre ad aumentare il numero di flaconi pesati al minuto, permette di risolvere le problematiche del precedente sistema, consentendo di ottenere un’accuratezza del controllo peso superiore a quanto riscontrato nella campagna iniziale di prove svolta inizialmente.
Resumo:
La tesi nasce dalla collaborazione con GOLDèlite, una recente startup di Bologna specializzata nella progettazione e realizzazione di prodotti di design impiegando un materiale antibatterico brevettato. Un approccio multidisciplinare e la contaminazione di più e diverse competenze ha dato vita all’intero progetto che ha portato alla risposta ad una complessità contemporanea con la creazione di un prodotto adattato ad un ambiente innovativo. Il progetto prevede la realizzazione della lampada SYN feel light capace di incrementare esperienze sensoriali, trasformando i suoni in colori abbinati ad aromi, regalando così un’atmosfera suggestiva ideale pensata per ristoranti ricercati. Il concept riprende le linee eleganti e raffinate di un ristorante stellato, legando il know-how aziendale e la tecnologia di Area3 e Indico Technologies, aziende che operano in diversi campi scientifici volti al benessere fisico e mentale. Alla base di tale progettazione, vi è una panoramica su un particolare e poco noto fenomeno percettivo capace di unire più sfere sensoriali: la sinestesia. Analizzando teorie neuroscientifiche e studi sul fenomeno, si è poi ricercato il suo impiego in ambienti della quotidianità ed è stata realizzata una collezione di casi studio che sfruttano la multisensorialità delle sinestesie per incrementare le esperienze sensoriali e il benessere. L’obiettivo della tesi è mostrare lo sviluppo di un artefatto capace di stimolare i 5 sensi durante esperienze gastronomiche, dimostrando come esso migliori tali esperienze e porti allo sviluppo di nuove sinestesie. Inoltre, l’allenamento di tali fenomeni può portare a diversi benefici per la salute delle persone. Il progetto è arrivato alla fase di prototipazione e la successiva prova sul campo seguendo quelli che sono gli stadi precedenti all’entrata sul mercato, obiettivo prefissato dell’azienda con il quale la lampada SYN feel light si evolverà.
Resumo:
Nella sede dell’azienda ospitante Alexide, si è ravvisata la mancanza di un sistema di controllo automatico da remoto dell’intero impianto di climatizzazione HVAC (Heating, Ventilation and Air Conditioning) utilizzato, e la soluzione migliore è risultata quella di attuare un processo di trasformazione della struttura in uno smart building. Ho quindi eseguito questa procedura di trasformazione digitale progettando e sviluppando un sistema distribuito in grado di gestire una serie di dati provenienti in tempo reale da sensori ambientali. L’architettura del sistema progettato è stata sviluppata in C# su ambiente dotNET, dove sono stati collezionati i dati necessari per il funzionamento del modello di predizione. Nella fattispecie sono stati utilizzati i dati provenienti dall’HVAC, da un sensore di temperatura interna dell'edificio e dal fotovoltaico installato nella struttura. La comunicazione tra il sistema distribuito e l’entità dell’HVAC avviene mediante il canale di comunicazione ModBus, mentre per quanto riguarda i dati della temperatura interna e del fotovoltaico questi vengono collezionati da sensori che inviano le informazioni sfruttando un canale di comunicazione che utilizza il protocollo MQTT, e lo stesso viene utilizzato come principale metodo di comunicazione all’interno del sistema, appoggiandosi ad un broker di messaggistica con modello publish/subscribe. L'automatizzazione del sistema è dovuta anche all'utilizzo di un modello di predizione con lo scopo di predire in maniera quanto più accurata possibile la temperatura interna all'edificio delle ore future. Per quanto riguarda il modello di predizione da me implementato e integrato nel sistema la scelta è stata quella di ispirarmi ad un modello ideato da Google nel 2014 ovvero il Sequence to Sequence. Il modello sviluppato si struttura come un encoder-decoder che utilizza le RNN, in particolare le reti LSTM.
Resumo:
I principi Agile, pubblicati nell’omonimo Manifesto più di 20 anni fa, al giorno d’oggi sono declinati in una moltitudine di framework: Scrum, XP, Kanban, Lean, Adaptive, Crystal, etc. Nella prima parte della tesi (Capitoli 1 e 2) sono stati descritti alcuni di questi framework e si è analizzato come un approccio Agile è utilizzato nella pratica in uno specifico caso d’uso: lo sviluppo di una piattaforma software a supporto di un sistema di e-grocery da parte di un team di lab51. Si sono verificate le differenze e le similitudini rispetto alcuni metodi Agile formalizzati in letteratura spiegando le motivazioni che hanno portato a differenziarsi da questi framework illustrando i vantaggi per il team. Nella seconda parte della tesi (Capitoli 3 e 4) è stata effettuata un’analisi dei dati raccolti dal supermercato online negli ultimi anni con l’obiettivo di migliorare l’algoritmo di riordino. In particolare, per prevedere le vendite dei singoli prodotti al fine di avere degli ordini più adeguati in quantità e frequenza, sono stati studiati vari approcci: dai modelli statistici di time series forecasting, alle reti neurali, fino ad una metodologia sviluppata ad hoc.
Resumo:
Industria 4.0 ha coinvolto il settore agroalimentare introducendo nuove strategie di tracciabilità, a favore della sostenibilità e della sicurezza alimentare. L’Organizzazione Internazionale della Vigna e del Vino pone tra gli obiettivi per il 2024 la transizione digitale della filiera, così da avere una tracciabilità trasparente e affidabile. Questo fornisce un vantaggio ai produttori e ai consumatori che dispongono di maggiori informazioni quantitative e qualitative del prodotto. I sistemi di tracciabilità sono integrati nella supply chain aumentandone la resilienza; tuttavia, la maggior parte degli ERP in commercio ricostruiscono la tracciabilità a posteriori: dal codice lotto finale si ricompone tutto il processo. Per monitorare costantemente la filiera ed incrementarne la trasparenza si stanno integrando nuove tecnologie alla tracciabilità, come l’intelligenza artificiale e la blockchain. Obiettivo di questa tesi è la progettazione di un sistema di tracciabilità blockchain. Pertanto, si introduce alla tracciabilità e alla blockchain descrivendo i principali contributi in letteratura che propongono approcci e strategie, evidenziando vantaggi e sfide future. Poi, si presenta il caso Moncaro, cooperativa agricola che ha cantine e vigneti nel territorio marchigiano, analizzando il processo di vinificazione in bianco dal punto di vista del flusso fisico e informativo, rispettivamente tramite BPMN e Relationship chart. Ai fini della modellazione e della scelta dei dati da inserire in tracciabilità, si analizzano le informazioni registrate negli ERP sviluppati da Apra s.p.a., software house, di cui Moncaro fruisce. Quindi, si propone la formulazione di un algoritmo in pseudocodice che permette di collegare sequenzialmente le attività, così, da ottenere la tracciabilità real time e un’architettura che può gestire tutte le informazioni della supply chain. Infine, si è implementato uno scenario produttivo reale, mediante l’architettura di database a grafo di Neo4j AuraDB
Resumo:
L'elaborato analizza concretamente le possibilità di implementazione di un sistema di accumulo di energia elettrica prodotta da FER all'interno del terminal portuale della ditta Sapir. Vengono analizzate le tecnologie disponibili attualmente sul mercato valutandone l'efficienza e soprattutto la capacità di produrre un riscontro economico positivo per l'azienda in un tempo contenuto. Sono state infine valutate le varie proposte di miglioramento, considerando di implementare una gru elettrica alimentata almeno in parte dal sistema di accumulo.
Resumo:
Il seguente elaborato si pone l’obiettivo di presentare l’analisi sulla sicurezza di un sistema di sospensioni semi-attivo per motoveicoli basato sulla tecnologia ad orifizio variabile. Essendo un sistema comprendente numerosi apparecchi elettrici ed elettronici, si rende necessario seguire la normativa di riferimento ISO_26262. Una descrizione approfondita del sistema e un’analisi dei potenziali guasti permetteranno di dedurre gli obiettivi di sicurezza e successivamente assegnare dei requisiti specifici ai singoli componenti o sotto-assiemi. Strategie di riconoscimento e contrasto dei malfunzionamenti renderanno il sistema sicuro e funzionale.
Resumo:
La seguente tesi è stata redatta con l’obbiettivo di implementare il piano di controllo della qualità dello stabilimento dell’azienda INALCA S.p.A, creando un HACCP specifico per il nuovo sistema di congelamento automatico della carne. In particolare, dopo un cenno storico al problema HACCP, si sono affrontati i principali aspetti del sistema HACCP, e dei regolamenti che ne conseguono per la sua creazione, attuazione e validazione. Obiettivo dell’azienda e del mio elaborato era quello di valutare la possibilità di congelare e raggiungere i -18°C al cuore in un tempo inferiore alle 24 ore, puntando alle 16 ore, per ottimizzare la fase di congelamento e velocizzare il processo per la futura vendita dei pallets di carne. A tal fine si è elaborato e successivamente validato il sistema di controllo che tiene conto di tutti gli aspetti generali, dall’entrata della materia prima e dalle sue caratteristiche intrinseche ed estrinseche, all’uscita del prodotto finito confezionato in pallet e trasferito in celle, congelato per il mantenimento della catena del freddo per poi essere spedite ai clienti. Si sono effettuate analisi di conferma per il corretto funzionamento e ottimizzazione dell’impianto medesimo, confrontando le tempistiche di congelamento nei diversi piani dell’impianto di congelamento automatico per il raggiungimento dei -18°C al cuore delle cassette contenenti polpa industriale, valore standard definito dall’azienda per la vendita e spedizione dei prodotti congelati.
Resumo:
PhEDEx, the CMS transfer management system, during the first LHC Run has moved about 150 PB and currently it is moving about 2.5 PB of data per week over the Worldwide LHC Computing Grid (WLGC). It was designed to complete each transfer required by users at the expense of the waiting time necessary for its completion. For this reason, after several years of operations, data regarding transfer latencies has been collected and stored into log files containing useful analyzable informations. Then, starting from the analysis of several typical CMS transfer workflows, a categorization of such latencies has been made with a focus on the different factors that contribute to the transfer completion time. The analysis presented in this thesis will provide the necessary information for equipping PhEDEx in the future with a set of new tools in order to proactively identify and fix any latency issues. PhEDEx, il sistema di gestione dei trasferimenti di CMS, durante il primo Run di LHC ha trasferito all’incirca 150 PB ed attualmente trasferisce circa 2.5 PB di dati alla settimana attraverso la Worldwide LHC Computing Grid (WLCG). Questo sistema è stato progettato per completare ogni trasferimento richiesto dall’utente a spese del tempo necessario per il suo completamento. Dopo svariati anni di operazioni con tale strumento, sono stati raccolti dati relativi alle latenze di trasferimento ed immagazzinati in log files contenenti informazioni utili per l’analisi. A questo punto, partendo dall’analisi di una ampia mole di trasferimenti in CMS, è stata effettuata una suddivisione di queste latenze ponendo particolare attenzione nei confronti dei fattori che contribuiscono al tempo di completamento del trasferimento. L’analisi presentata in questa tesi permetterà di equipaggiare PhEDEx con un insieme di utili strumenti in modo tale da identificare proattivamente queste latenze e adottare le opportune tattiche per minimizzare l’impatto sugli utenti finali.
Resumo:
Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.
Resumo:
L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.
Resumo:
L’argomento scelto riguarda l’adozione di standard privati da parte di imprese agro-alimentari e le loro conseguenze sulla gestione globale dell’azienda. In particolare, lo scopo di questo lavoro è quello di valutare le implicazioni dovute all’adozione del BRC Global Standard for Food Safety da parte delle imprese agro-alimentari italiane. La valutazione di tale impatto è basata sulle percezioni dei responsabili aziendali in merito ad aspetti economici, gestionali, commerciali, qualitativi, organizzativi. La ricerca ha seguito due passaggi fondamentali: innanzitutto sono state condotte 7 interviste in profondità con i Responsabili Qualità (RQ) di aziende agro-alimentari italiane certificate BRC Food. Le variabili estrapolate dall’analisi qualitativa del contenuto delle interviste sono state inserite, insieme a quelle rilevate in letteratura, nel questionario creato per la successiva survey. Il questionario è stato inviato tramite e-mail e con supporto telefonico ad un campione di aziende selezionato tramite campionamento random. Dopo un periodo di rilevazione prestabilito, sono stati compilati 192 questionari. L’analisi descrittiva dei dati mostra che i RQ sono in buona parte d’accordo con le affermazioni riguardanti gli elementi d’impatto. Le affermazioni maggiormente condivise riguardano: efficienza del sistema HACCP, efficienza del sistema di rintracciabilità, procedure di controllo, formazione del personale, miglior gestione delle urgenze e non conformità, miglior implementazione e comprensione di altri sistemi di gestione certificati. Attraverso l’analisi ANOVA fra variabili qualitative e quantitative e relativo test F emerge che alcune caratteristiche delle aziende, come l’area geografica, la dimensione aziendale, la categoria di appartenenza e il tipo di situazione nei confronti della ISO 9001 possono influenzare differentemente le opinioni degli intervistati. Successivamente attraverso un’analisi fattoriale sono stati estratti 8 fattori partendo da un numero iniziale di 28 variabili. Sulla base dei fattori è stata applicata la cluster analysis di tipo gerarchico che ha portato alla segmentazione del campione in 5 gruppi diversi. Ogni gruppo è stato interpretato sulla base di un profilo determinato dal posizionamento nei confronti dei vari fattori. I risultati oltre ad essere stati validati attraverso focus group effettuati con ricercatori ed operatori del settore, sono stati supportati anche da una successiva indagine qualitativa condotta presso 4 grandi retailer inglesi. Lo scopo di questa successiva indagine è stato quello di valutare l’esistenza di opinioni divergenti nei confronti dei fornitori che andasse quindi a sostenere l’ipotesi di un problema di asimmetria informativa che nonostante la presenza di standard privati ancora sussiste nelle principali relazioni contrattuali. Ulteriori percorsi di ricerca potrebbero stimare se la valutazione dell’impatto del BRC può aiutare le aziende di trasformazione nell’implementazione di altri standard di qualità e valutare quali variabili possono influenzare invece le percezioni in termini di costi dell’adozione dello standard.
Resumo:
L'energy harvesting è un processo in cui l'energia ambientale comunemente disponibile viene catturata mediante opportuni trasduttori e circuiti elettronici per essere convertita in energia elettrica utilizzabile. Il progetto descritto sarà una estensione ed integrazione di un sistema già esistente, per la riproduzione attraverso un sistema elettrodinamico vibrante (shaker), di vibrazioni acquisite dall'ambiente circostante in situazioni di riferimento tipiche (esempio le vibrazioni prodotte da un veicolo in movimento o un uomo in corsa), al fine di caratterizzare trasduttori piezoelettrici per studiarne il funzionamento, le caratteristiche e il loro comportamento. Lo scopo finale è quello di realizzare un sistema stand-alone che sia in grado di riprodurre e controllare in maniera affidabile le vibrazioni imposte da un sistema vibrante, al fine di realizzare un sistema di caratterizzazione per dispositivi di energy harvesting vibrazionale. In questo progetto, l’intera gestione del processo viene affidata ad un microcontrollore presente sulla scheda di controllo, il quale consente in tempo reale la visualizzazione delle forme d’onda oggetto di studio mediante un display grafico, l’elaborazione dei dati presenti nel sistema nonché la possibilità di caricare e salvare dei dati significativi sulla memoria del sistema durante le fasi di testing. Le caratteristiche implementate rendono il sistema facile da usare. Successivamente verranno descritte le specifiche tecniche necessariamente da rispettare per la realizzazione di un sistema che permetta di riprodurre e fornire dati attendibili, la struttura di visualizzazione grafica del sistema, la parte di condizionamento del segnale e i principi teorici del controllo ad anello chiuso.