753 resultados para Analisi di rischio - Biogas - Modellizzazione - GasSim
Resumo:
Lo sviluppo di questa tesi è stato quello di analizzare diversi campioni di pasta di cacao e di cioccolato liquido prelevati, rispettivamente, dai tank prima del dosaggio degli ingredienti e dal preleva campioni della conca fine concaggio. Le analisi di viscosità effettuate sui campioni hanno l’obiettivo di determinare la causa della variazione di viscosità in una particolare ricetta di cioccolato. La viscosità è una proprietà che può essere influenzata da numerosi fattori, perciò è difficile tenere sempre in considerazione tutte le variabili. Ciò che ho riscontrato durante questa ricerca è stato il fatto che la viscosità del cioccolato viene influenzata, o comunque dipende, dalla viscosità della pasta cacao. Un altro fattore importante è la distribuzione particellare del cioccolato; questa ipotesi origina dal fatto che si hanno viscosità diverse delle conche a parità di altre variabili come l’umidità, la temperatura, la percentuale in grassi o l’aggiunta di lecitina. Questo ulteriore fattore di grandezza delle particelle necessita l’ottimizzazione dei parametri di raffinazione per poter ottenere sempre la stessa distribuzione e può dipendere dalla variabilità delle materie prime (pasta cacao) o dalle dimensioni dello zucchero. I diversi fattori che possono essere presi in considerazione per la variabilità della viscosità sono la distribuzione particellare dello zucchero, che può determinare la presenza o l’assenza di grumi all’interno del cioccolato, la viscosità della materia prima della pasta cacao e la presenza di una percentuale troppo elevata di umidità o di grasso. Ci possono anche essere fattori di processo che alterano la corretta produzione del cioccolato, come il controllo non adeguato delle impostazioni degli strumenti che comporterebbe temperature o velocità scorrette di produzione, oppure la variazione della sequenza di dosaggio che consiste nell’aggiunta di un ingrediente prima o dopo di quando viene richiesto dalla specifica ricetta di quel cioccolato.
Resumo:
Le galassie sono gli elementi fondamentali dell’Universo: alcune hanno una struttura abbastanza semplice, altre, invece, sono sistemi complessi costituiti prevalentemente da stelle, nubi di gas e polveri. Protagoniste di questo elaborato sono le galassie ellittiche che verranno analizzate dapprima dal punto di vista morfologico, introducendo brevemente la sequenza proposta da Hubble per la classificazione di tutte le galassie, per poi passare ad una analisi di tipo fotometrico attraverso le leggi fondamentali che valgono per le galassie ellittiche. Infine, nell’ultimo capitolo, che rappresenta l’anima di questo testo, si tratteranno i principali meccanismi che partecipano all’ emissione della radiazione elettromagnetica nella banda ottica, X e radio.
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
Il presente elaborato propone la sottotitolazione e la conseguente analisi di un episodio della serie animata russa per bambini "Troe iz Prostokvašino". In particolare, vengono analizzate le caratteristiche principali relative alla traduzione audiovisiva e alle produzioni per l'infanzia, con particolare riguardo per il settore dei cartoni animati. Vengono inoltre illustrati i problemi riscontrati e le scelte effettuate durante il processo traduttivo.
Resumo:
Questo progetto di Tesi si propone come obiettivo la valutazione della convenienza economica ed ambientale di un Gruppo di Autoconsumo Collettivo da fonti rinnovabili. Per fare ciò, è stata necessaria un’attenta fase di analisi delle normative italiane ed europee attualmente in vigore, in modo da stabilire i requisiti necessari per accedere a questo tipo di configurazione. Successivamente si è iniziata una simulazione tecnico-economica del progetto. Inizialmente è stata proposta l’installazione di un impianto fotovoltaico di potenza 48 kWp e ne è stata calcolata la produzione media annua; in secondo luogo, grazie ai dati forniti dagli attori, è stato possibile effettuare una stima dei consumi annuali di tutto il Gruppo. Infine, sono stati combinati i dati di produzione e consumo per ricavare le quote di autoconsumo e di energia condivisa. Per concludere, tramite i dati estrapolati in precedenza, è stata effettuata una analisi economica dell’investimento, dimostrandone la convenienza, a cui è stata aggiunta una analisi di sensitività per dimostrare la resilienza del progetto verso il cambiamento di alcune ipotesi iniziali.
Resumo:
Questo lavoro si propone di implementare tre scenari di compromissione informatica tramite l'ausilio della strumentazione fornita da Ansible e Docker. Dopo una prima parte teorica di presentazione delle più recenti vulnerabilità/compromissioni informatiche, si passa all'illustrazione degli strumenti e dell'architettura degli scenari, anche tramite l'ausilio di codice. Tramite la funzione UNIX time si effettua l'analisi di diverse tecniche di distribuzione, dimostrando come l'automazione abbia effettivi e seri vantaggi rispetto ad una continua implementazione manuale, principalmente da un punto di vista temporale e computazionale.
Resumo:
L’elaborato è incentrato sullo studio di una bicicletta pieghevole innovativa attraverso i metodi dell’Ingegneria Industriale. All’interno del moderno contesto urbano, la bicicletta pieghevole rappresenta una soluzione valida per quegli utenti che cercano un mezzo versatile, autonomo, economico, compatto e adatto alla nuova mobilità intermodale. Negli ultimi anni i costruttori di pieghevoli si trovano a dover soddisfare le richieste di una clientela sempre più consapevole e attenta, cercando di proporre prodotti che siano in grado di combinare praticità e prestazioni, con particolare attenzione al dettaglio e all’immagine. Lo scopo di questo progetto è quello di disegnare un mezzo a propulsione muscolare che sia in grado di offrire la migliore esperienza d’uso possibile. Attraverso un’attenta analisi di mercato tramite il metodo del Quality Function Deployment si individuano le caratteristiche chiave del prodotto e si indirizza la fase di progettazione, portata avanti attraverso l’impostazione tecnica del prodotto il disegno di un meccanismo di piega inedito. Successivamente si passa alla definizione delle geometrie e alla realizzazione dello stile tramite la costruzione di un modello 3D al CAD, a cui segue una fase di analisi strutturale col Metodo degli Elementi Finiti, secondo le prove previste dalla normativa europea per la sicurezza delle biciclette, che porta al re-design alla validazione del prodotto finale.
Resumo:
Il rilevamento di intrusioni nel contesto delle pratiche di Network Security Monitoring è il processo attraverso cui, passando per la raccolta e l'analisi di dati prodotti da una o più fonti di varia natura, (p.e. copie del traffico di rete, copie dei log degli applicativi/servizi, etc..) vengono identificati, correlati e analizzati eventi di sicurezza con l'obiettivo di rilevare potenziali tenativi di compromissione al fine di proteggere l'asset tecnologico all'interno di una data infrastruttura di rete. Questo processo è il prodotto di una combinazione di hardware, software e fattore umano. Spetta a quest'ultimo nello specifico il compito più arduo, ovvero quello di restare al passo con una realtà in continua crescita ed estremamente dinamica: il crimine informatico. Spetta all'analista filtrare e analizzare le informazioni raccolte in merito per contestualizzarle successivamente all'interno della realta che intende proteggere, con il fine ultimo di arricchire e perfezionare le logiche di rilevamento implementate sui sistemi utilizzati. È necessario comprendere come il mantenimento e l'aggiornamento di questi sistemi sia un'attività che segue l'evolversi delle tecnologie e delle strategie di attacco. Un suo svolgimento efficacie ed efficiente risulta di primaria importanza per consentire agli analisti di focalizzare le proprie risorse sulle attività di investigazione di eventi di sicurezza, ricerca e aggiornamento delle logiche di rilevamento, minimizzando quelle ripetitive, "time consuming", e potenzialmente automatizzabili. Questa tesi ha come obiettivo quello di presentare un possibile approccio ad una gestione automatizzata e centralizzata di sistemi per il rilevamento delle intrusioni, ponendo particolare attenzione alle tecnologie IDS presenti sul panorama open source oltre a rapportare tra loro gli aspetti di scalabilità e personalizzazione che ci si trova ad affrontare quando la gestione viene estesa ad infrastrutture di rete eterogenee e distribuite.
Resumo:
Nel lavoro vengono presentati i risultati del rilevamento geologico svolto nell'area di San Martino di Castrozza, nel mese di giugno 2022, durante il campo geologico. L'approfondimento tematico verte sull'analisi di stabilità di versante nel Monte Castellazzo. Gli studi sono stati accompagnati dal rilevamento geomeccanico che ha permesso di determinare i parametri necessari alla caratterizzazione dell'ammasso e alle verifiche cinematiche, e mediante un softwere di plottare i dati in degli stereoneit per definire gli eventi di instabilità associati ad ogni settore del Monte Castellazzo.
Resumo:
Tesi riguardante il rebranding che vuole ottenere, tramite l'analisi di due casi studio (due aziende operanti nel mercato B2B), delle linee guida e suggerimenti per superare le problematiche principali di questo processo. L'analisi dei casi studio è stata fatta tramite interviste interne all'azienda, ricerche online e materiale proprio delle aziende. Le linee guida saranno formulate sulla base delle difficoltà affrontate da queste due aziende sia nel fornire servizi sia prodotti fisici.
Resumo:
La tesi descrive un modello AIMMS di ottimizzazione dei flussi di potenza tra gli utenti di una comunità energetica rinnovabile. Il modello considera la presenza nella stessa rete di distribuzione di più comunità energetiche. Ogni utente può scegliere un fornitore diverso dagli altri anche se partecipa ad una comunità. Sono considerati generatori fotovoltaici e sistemi di accumulo. Per i carichi sono stati generati profili tipici di utenze domestiche. Il modello è in grado di valutare i prezzi delle transazioni di energia interne a ciascuna comunità, in base alle tariffe orarie dei fornitori di energia. Per la rete di distribuzione test IEEE a 123 nodi, la tesi presenta una analisi di sensitività al variare della taglia dei sistemi di accumulo, della potenza di picco dei generatori fotovoltaici, della potenza richiesta dai carichi, del numero di comunità energetiche e dei fornitori.
Resumo:
Il prezzo che ancora oggi si paga per la non sicurezza sul lavoro è valutabile in termini di vite umane e dietro ad ogni numero ci sono la storia e la vita di persone, di famiglie. La sfida continua ad essere un cambiamento culturale che radichi i valori della prevenzione e sicurezza nel mondo del lavoro in vista del miglioramento della qualità della vita di lavoratrici e lavoratori. L’obiettivo di questa tesi è valutare quanto “Distillerie Mazzari”, un’azienda con sede a Sant’Agata sul Santerno (RA), sia soggetta a rischi, con particolare riferimento alla movimentazione manuale dei carichi, ma anche proporre azioni per ridurre gli stessi. Viene presentata una suddivisione dei rischi in diverse categorie: per la sicurezza, per la salute, trasversali e ambientali, mentre per il rischio da sovraccarico biomeccanico si ha un capitolo a parte, poichè è il più approfondito. Una volta studiata la situazione attuale (as-is), si passa alla fase to-be dove vengono proposte azioni da intraprendere per ridurre i rischi. In particolare viene creato un progetto di rating per determinare l’indice di rischio (grazie alla matrice del rischio). Infine, vengono redatte le schede di intervento per alcuni rischi individuati. Nella parte finale della tesi, come detto, si tratta nel dettaglio la movimentazione manuale dei carichi, applicando sia il metodo NIOSH che quello di Snook e Ciriello. Grazie a questi due metodi, vengono studiate nel dettaglio le attività di insacco acido tartarico e alimentare e le operazioni di traino e di spinta. Infine, grazie al software ErgoEasy Professional si è proceduto nel calcolare diversi indici di rischio relativamente al sovraccarico biomeccanico.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.
Resumo:
Nel presente elaborato si analizzeranno le prestazioni del linguaggio di programmazione parallela Chapel sul kernel Integer Sort di NAS Parallel Benchmarks. Questo algoritmo, a livello pratico, è utilizzato per studi o applicazioni sui metodi particellari. Saranno introdotti i concetti fondamentali di programmazione parallela e successivamente illustrate le principali caratteristiche di MPI e Chapel. Verranno poi approfonditi Integer Sort e i rispettivi dettagli implementativi, concludendo con un'analisi di prestazioni dei due linguaggi sul kernel preso in esame.
Resumo:
Quando si pensa alla figura di un medico, non lo si può immaginare senza uno stetoscopio alle sue spalle. Lo stetoscopio è uno strumento molto semplice ma molto importante, inventato in Francia nel 1816 da René Théophile Hyacinthe Laennec, permise di poter auscultare ed analizzare i rumori generati dai battiti cardiaci ottenendo suoni più puliti e rendendo meno invasiva la procedura, precedentemente svolta posizionando l'orecchio sul petto del paziente. Nel 1970 David Littman migliorò notevolmente la struttura dello stetoscopio precedente, creando lo strumento che noi tutti conosciamo. Grazie alla rapida evoluzione dell'elettronica negli ultimi anni si hanno oggi a disposizione una moltitudine di nuovi ed efficaci sensori, alcuni dei quali trovano impiego nell'ambito dell'ingegneria biomedica. In particolare, si è pensato di utilizzare queste nuove tecnologie per la progettazione e lo sviluppo di uno stetoscopio elettronico. Il forte vantaggio di uno stetoscopio elettronico, rispetto al classico biomeccanico, risiede nell'elaborazione, nel filtraggio e nell'amplificazione del segnale che si può applicare all'auscultazione, oltreché nella possibilità di poter registrare il segnale acquisito, rendendo questo dispositivo uno strumento potenzialmente efficace per la telemedicina. In questo elaborato verrà trattato lo sviluppo di uno stetoscopio elettronico, evidenziando tutti i problemi e le criticità riscontrate durante il progetto in ogni punto di vista, software, hardware e signal processing. Tutto ciò non prima di una consistente introduzione necessaria per comprendere la tipologia di segnale d'interesse e l'analisi di alcuni tipi di dispositivi presenti in commercio e non, da cui si è tratta ispirazione. Seguirà un analisi critica dei risultati ottenuti, confrontando i segnali ottenuti dal dispositivo progettato con quelli ottenuti in reparto utilizzando due dispositivi commerciali, analizzando le differenze, punti di forza e di debolezza.