999 resultados para Educazione scientifica ed educazione alla sostenibilita
Resumo:
L'elaborato riguarda l'analisi tra lo stato as-is e lo stato to-be in riferimento ai processi interni ad un'organizzazione. Il focus del trattato è la descrizione delle fasi di lavoro che si susseguono nella ricostruzione di un processo, in questo caso specifico la rintracciabilità del flusso materiali inerenti al caso di Rosetti Marino Sp.a (Ravenna, Italia), nell'evidenziare quali sono le criticità attuali e le risorse coinvolte nel processo. Una volta individuati i punti critici, si passa all'analisi del to-be, ovvero allo studio delle possibili aree ed opportunità di miglioramento sia in termini di processo che di attori coinvolti. E' di fondamentale importanza comprendere nella fase finale momenti di formazione dei propri dipendenti con la sponsorship dei prorpi responsabili di funzione. In conclusione, l'elaborato attraversa sia le fasi operative del processo, di costruzione del nuovo flusso di attività ottimizzato, ma pone l'attenzione anche sulle fasi di formazione e di coinvolgimento di tutti i partecipanti necessari, affinchè il processo sia compreso, metabolizzato e messo a frutto.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
La richiesta dei consumatori di prodotti sostenibili, le lotte per il cambiamento climatico e l'importanza che viene data alla sostenibilità dal mondo finanziario hanno fatto sì che la politica intraprendesse iniziative sulle tematiche sostenibili e di conseguenza le imprese hanno adottato azioni in linea con i criteri ESG. Anche se per le aziende intraprendere un percorso sostenibile non sia economicamente conveniente e per raggiungere determinati obiettivi servono sforzi e tempi lunghi, sono consapevoli dei benefici nel medio-lungo termine a livello economico, di reputazione e vantaggio competitivo. Queste iniziative però si concentrano prevalentemente sul primo anello della supply chain e le società che operano in un mercato globale fanno difficoltà a rispettare le differenti norme giuridiche non compatibili negli Stati in cui è presente la propria value chain. Per risolvere questi problemi la della Commissione Europea il 23/02/2022 ha proposto la direttiva sulla Corporate Sustainability Due Diligence, che impone l’obbligo per le imprese di implementare un processo di due diligence in tutta la value chain per prevenire effetti negativi e potenziali sui diritti umani e sull’ambiente. L’obiettivo dell'elaborato è di analizzare la direttiva di due diligence per comprendere quanto le aziende di oggi siano pronte al monitoraggio di un’intera catena del valore. Il caso studio scelto per lo scopo è quello dell’azienda Fincantieri S.p.A. la quale ha intrapreso da qualche anno un percorso di sostenibilità. Attraverso il confronto fra le azioni in atto dell'azienda e la direttiva, dalla trattazione emerge che la sfida più grande che Fincantieri dovrà affrontare sarà la condivisione delle pratiche già in atto nei livelli più profondi della supply chain. L’approvazione della direttiva, incentivando anche indirettamente le aziende ad operare in ottica di sostenibilità, aiuterà a perseguire l'obiettivo di due diligence in un percorso di crescita e miglioramento con i fornitori
Resumo:
Come si può evincere dal titolo, l'obbiettivo di questo elaborato è quello di studiare ed analizzare le copule, esponendo in un primo momento la loro teoria, e successivamente esaminando una particolare applicazione ai derivati meteorologici, nello specifico alla copertura dell'indice CAT. All'inizio del primo capitolo viene fornita la definizione di copula (nel caso bidimensionale) con le relative proprietà e viene enunciato il teorema di Sklar, spiegando la sua centralità nella teoria. In seguito vengono presentate le due famiglie di copule, ellittiche e Archimedee, spiegando in quale ambito vengono utilizzate per la modellizzazione delle dipendenze tra variabili aleatorie ed elencando gli esempi più importanti di ogni famiglia. Nel secondo capitolo viene analizzata l'applicazione delle copule nel prezzaggio di una copertura dell'indice CAT. Inizialmente viene presentato il funzionamento della copertura, ovvero come si costruisce l'indice e come viene calcolato il risarcimento. Infine si passa al calcolo del prezzo del derivato, mostrando come utilizzando le copule per includere nella modellizzazione le dipendenze tra le varie stazioni meteorologiche permetta di ottenere delle stime migliori rispetto a quelle calcolate considerando le stazioni indipendenti tra loro.
Resumo:
Questo elaborato mostra lo sviluppo di un plugin per la visualizzazione in Grafana di eventi provenienti dalla piattaforma semantica SEPA (SPARQL Event Processing Architecture). La principale funzione svolta dal SEPA è quella di notificare in modo asincrono i propri client rispetto al cambiamento dei risultati di una query che interroga il sottostante grafo RDF. La piattaforma trova il suo utilizzo in quei contesti caratterizzati da dati dinamici, eterogenei e non strutturati e viene impiegata principalmente come strumento per abilitare l’interoperabilità in domini come per esempio l’Internet of Things. Nasce quindi l’esigenza di disporre di strumenti per il monitoraggio e la visualizzazione di dati real-time. Grafana risulta in questo caso lo strumento ideale data la sua flessibilità, che affiancata alla sua natura open source, lo rende particolarmente interessante per lo sviluppo della soluzione proposta da VAIMEE, spinoff dell’Università di Bologna, ospitato presso il CesenaLab, luogo dove è stato svolto questo lavoro di tesi.
Resumo:
Il morbo di Alzheimer è ancora una malattia incurabile. Negli ultimi anni l'aumento progressivo dell'aspettativa di vita ha contribuito a un'insorgenza maggiore di questa patologia, specialmente negli stati con l'età media più alta, tra cui l'Italia. La prevenzione risulta una delle poche vie con cui è possibile arginarne lo sviluppo, ed in questo testo vengono analizzate le potenzialità di alcune tecniche di Machine Learning atte alla creazione di modelli di supporto diagnostico per Alzheimer. Dopo un'opportuna introduzione al morbo di Alzheimer ed al funzionamento generale del Machine Learning, vengono presentate e approfondite due delle tecniche più promettenti per la diagnosi di patologie neurologiche, ovvero la Support Vector Machine (macchina a supporto vettoriale, SVM) e la Convolutional Neural Network (rete neurale convoluzionale, CNN), con annessi risultati, punti di forza e principali debolezze. La conclusione verterà sul possibile futuro delle intelligenze artificiali, con particolare attenzione all'ambito sanitario, e verranno discusse le principali difficoltà nelle quali queste incombono prima di essere commercializzate, insieme a plausibili soluzioni.
Resumo:
Negli ultimi anni, in un numero crescente di ambiti, la medicina fa riferimento a modelli di intelligenza artificiale che aiutano a svolgere numerose analisi. In medicina esistono numerosi modelli di intelligenza artificiale che semplificano l’individuazione di determinate anomalie nel paziente, oppure la prevenzione di future riconoscendo precisi segnali che vengono raccolti dall’analisi del corpo umano. L’ausilio di questi modelli, tuttavia, necessita di molte attenzioni. L’errato utilizzo può conseguire in risultati poco precisi o addirittura non corretti che non aiutano l’operatore, ma piuttosto lo deviano da una corretta analisi della situazione presa in esame. L’ideazione di linee guida per lo sviluppo ed utilizzo di questi modelli in ambito medico ha lo scopo di favorire un corretto utilizzo degli strumenti disponibili con l’obiettivo di rendere qualsiasi tipo di esame o studio il più corretto e celere possibile. In aggiunta, l’attenzione viene posta anche sulla necessità di migliorare la qualità del report di accuratezza diagnostica, che ha come interesse la diffusione scientifica e in particolare quello di rendere qualunque esperimento replicabile e di chiara comprensione.
Resumo:
L’elaborato propone una panoramica sui sistemi di accumulo elettrico più utilizzati fino ad ora con alcuni cenni a tecnologie in forte espansione. Gli storage vengono suddivisi per tipo di tecnologia, con una netta separazione tra quelli power intensive ed energy intensive. Vengono poi descritti i servizi e i benefici che l’accumulo elettrico porta alla rete, divisi per settore d’utilizzo. In base al tipo di servizio richiesto vengono sottolineati i requisiti tecnici per la scelta dell’accumulo. Nella seconda parte dell’elaborato vengono descritti due progetti. Il primo, per la creazione di minireti in località rurali in Etiopia. Vengono dimensionati e progettati i sistemi che andranno a comporre la rete: sistemi di accumulo, sistemi di produzione rinnovabile e sistemi di trasmissione. Per il secondo progetto viene presa in esame una piccola isola italiana, elettricamente isolata dal resto del paese. In questo caso vengono simulati diversi casi studio per sostituire il presente generatore termico con sistemi rinnovabili e l’integrazione di diverse tecnologie di storage.
Resumo:
Negli ultimi anni si sta notando sempre di più il cambiamento apportato dalla tecnologia ai vari settori industriali, il quale costringe ogni azienda ad adattare i propri processi per mantenere la propria posizione sul mercato. Un'innovazione è costituita dalla blockchain, che viene presentata come un insieme di tecnologie distribuite volte a mantenere un registro condiviso immutabile. Le sue applicazioni si possono trovare nell'ambito economico attraverso le criptovalute fino ad arrivare alla certificazione in supply chain di società o enti. Come tutte le innovazioni porta con sè vantaggi e peculiarità che ne contraddistinguono il funzionamento. In questa tesi si tratteranno blockchain Ethereum e Smart Contracts ossia componenti definiti in Solidity, un linguaggio dalla caratteristica di Touring Completeness. Con lo sviluppo degli Smart Contract si è arrivati alla creazione di applicazioni decentralizzate, organizzazioni autonome e certificazioni fino alla creazione di standard per token fungibili. Infine un aspetto da non sottovalutare quando si parla di sistemi distribuiti ed in particolare di blockchain è la sicurezza. Verranno introdotti i principali attacchi all'infrastruttura e all'utente, ponendo attenzione a come questo aspetto possa essere tralasciato per favorire interoperabilità tra blockchain.
Resumo:
L'elaborato di tesi prende in esame il processo di produzione della linea “Pordenone”, in funzione nello stabilimento forlivese, di Electrolux S.P.A., azienda leader mondiale nella produzione di elettrodomestici e apparecchiature per l'uso domestico. Ragione del presente studio è l’acquisizione dell’opportuna comprensione del funzionamento dell’impianto al fine di individuare le inefficienze, le causali di fermata per la pianificazione della produzione o per gli interventi di manutenzione correttiva dei guasti, in modo da poter suggerire azioni di miglioramento. Per monitorare il processo di produzione è stato applicato all'oggetto di indagine lo studio del diagramma di Pareto, che ha permesso di evidenziare le principali causali all'origine della riduzione di produttività. Oltre a suggerire ipotesi di azioni di miglioramento, si è sottolineata l'importanza del coinvolgimento motivazionale degli operatori nelle procedure di lavoro, e l'opportunità di una maggiore implementazione del sistema informatico. Ragioni di carattere economico o di sicurezza dell'operatore, non hanno permesso di accogliere alcuni suggerimenti proposti, mentre sono state apportate migliorie nella produzione attraverso la riduzione delle fermate di lavoro. Nell'attuale clima di incertezza produttiva e di calo di domanda da parte di alcuni mercati, non è facile elaborare strategie di produzione innovative, tali da garantire la qualità del prodotto offerto e i risultati economici attesi, nel rispetto autentico dell'ambiente della collettività. Tuttavia, si ritiene che le informazioni generate da un adeguato monitoraggio del sistema offrano la possibilità di guardare avanti verso i progressi, piuttosto che concentrare la propria attenzione sulle opportunità mancate, e che le stesse informazioni possano trasformare l'agire dalla reattività (azione dopo il fatto) alla proattività (agire in anticipo) per migliorare efficacemente il processo di produzione.
Resumo:
Il presente lavoro di tesi si occupa di identificare le possibili ubicazioni di hub logistici distributivi del gruppo aziendale FAAC Technologies e di valutare le alternative da un duplice punto di vista: economico e sostenibile. Per raggiungere il suddetto risultato è stata dapprima studiata l’attuale configurazione logistica nel centro Europa. Unendo le caratteristiche dell’azienda con le ricerche presenti in letteratura scientifica riguardo la risoluzione di Hub Location Problem, è stato implementato un modello matematico che ottimizzi economicamente il posizionamento degli stabilimenti secondo diversi scenari organizzativi. Una seconda versione del modello valuta il rispetto dei tempi di transito da parte delle soluzioni ottenute. Infine, gli stessi scenari sono stati comparati tra loro in base all’impatto ambientale in termini di CO2 emessa nell’atmosfera per via del trasporto. Sono state studiate strategie riguardanti la logistica distributiva sostenibile e sono state proposte soluzioni in grado di mitigare gli effetti dovuti all’immissione di anidride carbonica. Gli strumenti digitali utilizzati nella presente ricerca sono stati: Excel per visualizzare ed elaborare i dati aziendali; Flourish per visualizzare i dati in mappe geografiche; MATLAB per trasformare le tariffe di trasporto in equazioni matematiche; Gurobi Optimizer per ottenere le soluzioni date dall’ottimizzazione del modello matematico, programmando attraverso il linguaggio AMPL. I risultati più significativi dimostrano la possibilità di raggiungere un risparmio economico del 16,7% dei costi logistici nel caso di ubicazione di un solo hub e del 9,8% nel caso di due hub. Dal punto di vista ambientale le medesime soluzioni comportano un aumento delle emissioni di CO2 rispettivamente del 45% e 8%. L’azzeramento di queste emissioni aggiuntive è possibile e a tal fine sarebbe necessario sostenere extra costi, i quali farebbero convergere entrambe gli scenari ad un risparmio comune pari all’8,2%.
Resumo:
A partire dagli anni ’70, il modello di sviluppo legato alla crescita economica ha cominciato ad essere messo in discussione ed è iniziato ad emergere un nuovo modello basato sulla sostenibilità, nel quale lo sviluppo non è solo economico, ma anche sociale ed ambientale, e che tiene conto non solo dei bisogni attuali ma anche di quelli futuri. Al fine di analizzare in maniera scientifica queste problematiche, nel corso dei decenni successivi sono state create delle metodologie utili a quantificare l’impatto ambientale legato al ciclo di vita dei prodotti, in modo tale da individuare dei miglioramenti da implementare nelle fasi critiche individuate. Una delle metodologie più diffuse è quella del Life Cycle Assessment (LCA), la quale quantifica i flussi di materia ed energia appartenenti ad un ciclo di vita di un prodotto e ne valuta gli impatti ambientali. L’obiettivo dell’analisi LCA elaborata in questa tesi è valutare lo scenario as-is di produzione delle cassette a sponde abbattibili utilizzate nella filiera dell’ortofrutta di CPR System, ma anche valutare scenari alternativi ad esso ed identificare possibilità di migliorare il modo in cui vengono prodotte le cassette, in modo da facilitare il raggiungimento di specifici obiettivi di performance ambientali, sempre più necessari nell’attuale panorama industriale. Partendo dalla progettazione di un database e dalla raccolta dati del sistema aziendale analizzato, l’elaborato descrive la modellizzazione del ciclo di vita attraverso il software SimaPro e delle fasi eseguite per individuare le criticità principali e valutare scenari alternativi per ridurre l’impatto delle cassette a sponde abbattibili prodotte.
Resumo:
Presso il depuratore di Corporeno, Comune di Cento (FE), si sono verificati dei superamenti dei limiti di legge per l’Azoto totale, Nitrico e Ammoniacale nei campioni di reflui in uscita. La società di gestione del depuratore ha iniziato a regolare il tenore di ossigeno in vasca di ossinitrificazione mediante il monitoraggio del potenziale Redox. Dall’analisi dei dati di monitoraggio e dai risultati delle analisi chimiche sui reflui in ingresso e uscita dall’impianto, si è evidenziato che tale operazione ha consentito di migliorare le prestazioni dell’impianto, tuttavia la modalità di gestione delle soffianti in vasca di ossinitrificaizione non consente un pieno controllo delle concentrazioni in uscita. Lo studio di alcune pubblicazioni (in particolare Charpentier et al. 1998 e Hao e Huang, 1996) ha consentito di individuare una metodologia di controllo dei processi in vasca che si basa sia sul potenziale di ossidoriduzione che sul pH, oltre alla concentrazione di ossigeno. L’analisi di alcuni dati di monitoraggio in continuo ha evidenziato una crisi del processo di denitrificazione. Si sono individuate tre differenti strategie di mitigazione della problematica: uno studio e sperimentazione sia in laboratorio che in vera grandezza per definire un sistema di monitoraggio real time dell’accensione delle soffianti basato sulla curva di Hao e Huang (1996), una modifica all’impianto che preveda il corretto ricircolo dalla miscela areata alle vasche di predenitrificazione, che allo stato attuale non stanno funzionando a regime ed infine una valutazione rispetto alla necessità di integrazione con fonte di carbonio esterna, in quanto i valori di BOD in ingresso potrebbero essere limitanti per la denitrificazione.
Resumo:
Il presente elaborato vuole guidare il lettore lungo l’itinerario che ha previsto la cura e il rilascio di un’applicazione web a tema di e-learning. Greenwich, questo il nome della piattaforma, vuole essere un efficiente strumento di supporto online alla didattica del corso di Basi di Dati dell’Università di Bologna. Lo scopo primario dell’applicazione web è, infatti, quello di fornire agli studenti un mezzo per eseguire query mongoDB in maniera semplice, mirata e su richiesta del docente. Salvo un’approfondita ricerca culturale riguardante il contesto in cui si sviluppa l’applicazione, l’obiettivo primario della trattazione rimane quello di descrivere in modo ordinato i momenti impattanti che hanno segnato, passo dopo passo, le fasi di crescita di Greenwich, raggruppati in tre macro fasi caratteristiche: progettazione, implementazione e validazione.
Resumo:
Il sistema terra è soggetto ad un aumento di temperatura causato in larga parte dall'intervento umano. Il riscaldamento nell'Artico avviene ad un velocità doppia rispetto a quella del resto del globo e induce lo scioglimento dei ghiacci polari oceanici e terrestri. Lo studio della variabilità meteorologica delle regioni polari e subpolari può aiutarci a comprendere il ruolo di eventi meteorologici estremi nel determinare forti variazioni di temperatura superficiale della calotta polare. Questo lavoro di tesi discute la fenomenologia degli eventi di blocco meteorologico, regime di circolazione anticiclonica persistente, nella troposfera delle alte latitudini ed il loro legame con estremi di temperatura superficiale nelle regioni artiche. Successivamente, una metodologia di analisi termodinamica per i suddetti è descritta ed applicata ad un caso studio descritto nella letteratura scientifica un blocco alle alte latitudini coincide con la propagazione di una perturbazione ciclonica dalle medie latitudini fino alla calotta artica. Questa particolare configurazione sinottica ha prodotto una variazione della temperatura della calotta artica di circa 7 K in 4 giorni. Sulla base dell’analisi termodinamica è possibile evidenziare una combinazione di processi fisici, diabatici e adiabatici, che concorrono nel determinare il repentino riscaldamento dell’Artico. L’applicazione di simili metodologie su ulteriori casi studio potrebbe contribuire alla definizione di un paradigma dinamico per il fenomeno delle ondate di calore artiche.