612 resultados para Fitosanitari, valutazione rischio, depositi, fumi tossici
Resumo:
A fronte dei numerosi eventi di perdita di servizio o crolli di ponti degli ultimi anni, il loro adeguamento e/o miglioramento è divenuto prioritario. Con questo spirito si è posta l’attenzione sui ponti Gerber, descrivendo dapprima le ragioni tecniche e storiche del loro sviluppo, i problemi di degrado, ed infine i modelli disponibili per il calcolo della portanza delle selle. Consapevoli della ridotta durabilità di queste opere, e del fatto che le cerniere Gerber sono state ufficialmente classificate come punti critici da attenzionare ai sensi delle nuove “Linee guida per la classificazione e gestione del rischio, la valutazione della sicurezza ed il monitoraggio dei ponti esistenti” del 2020, sono stati approfonditi due scenari tipici di intervento su casi reali di ponti che presentassero giunti Gerber particolarmente ammalorati. La soluzione più conservativa e meno invasiva prevede il mantenimento in essere delle selle e si basa sul by-pass dei giunti stessi ottenuto attraverso il meccanismo “leva” che si instaura in un sistema di travi metalliche posto a sostegno delle travi d’impalcato. Quella di solidarizzare le travi rendendo il sistema iperstatico è invece la seconda soluzione analizzata. La chiusura delle selle consente di ottenere gli effetti benefici propri delle strutture iperstatiche, a spese comunque della nascita di sollecitazioni all’interno della trave originariamente compresa tra le cerniere. Si è infine accennato a ipotesi di miglioramento sismico dell’opera, trattato con la cucitura delle selle Gerber stesse, che hanno consentito all’impalcato di avere un comportamento monolitico. Il presente elaborato costituisce dunque un punto d’incontro tra i modelli teorici con cui si studiano i degradi e la capacità portante residua delle selle, e le soluzioni progettuali di intervento effettivamente utilizzate e disponibili per la messa in sicurezza di ponti con caratteristiche simili.
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.
Resumo:
Nel presente elaborato di tesi la metodologia Life Cycle Assessment (che in accordo con le norme ISO 14040-44 permette di quantificare i potenziali impatti sull’ambiente associati ad un bene o servizio lungo tutto il suo ciclo di vita) è applicata a processi appartenenti al settore agro-industriale, con particolare riguardo alla valorizzazione dei coprodotti della filiera olivicola olearia. Nello specifico vengono descritti i risultati di un’analisi del ciclo di vita condotta sul processo di valorizzazione delle sanse di oliva operata dalla Società Agricola A.R.T.E, che ha sede in Puglia. In questo processo, la sansa di olive è trattata mediante digestione anaerobica che permette la produzione di energia elettrica e di un digestato, stabilizzato e utilizzato come ammendante. Il processo analizzato si pone in alternativa sia al metodo di produzione che dà origine a sanse trifasiche, sia allo spandimento delle sanse su suolo agricolo, confrontati in termini di impronta di carbonio. Inoltre nello studio sono state confrontate diverse tecnologie di upgrading di biogas a biometano per valutare quale risulta essere ambientalmente preferibile e potenzialmente installabile nell’azienda A.R.T.E. Il sistema analizzato risulta un'alternativa complessivamente preferibile, da un punto di vista ambientale, sia al metodo di produzione che dà origine a sanse trifasiche, sia allo spandimento delle sanse su suolo agricolo. Il credito ambientale conseguibile mediante il recupero energetico dal biogas prodotto dalla digestione anaerobica delle sanse bifasiche e la produzione di un digestato stabile permettono un beneficio ambientale che controbilancia l’emissione di CO2 attribuibile all’intero sistema. Inoltre lo studio ha permesso una stima di quale tecnologia di raffinazione del biogas a biometano sia potenzialmente installabile nell’azienda A.R.T.E. I risultati mostrano che la tecnologia separazione a membrana risulta meno impattante rispetto alle altre tecnologie di upgrading.
Resumo:
L'incidenza complessiva dell'insufficienza cardiaca a livello globale sta aumentando, sia a causa della crescente aspettativa di vita per i pazienti che ricevono una diagnosi, sia per un progressivo invecchiamento della popolazione. Nonostante i continui progressi clinici, questa patologia continua ad avere una alta mortalità e a causare una forte sintomatologia nei pazienti che ne sono affetti. Per questo motivo e per il forte peso che questa patologia ha sulla sanità si è reso necessario cercare di prevenire eventi di scompenso cardiaco o di peggioramento della condizione di insufficienza cardiaca. Questo elaborato si sofferma inizialmente sull'insufficienza cardiaca, sulla sua patologia, le sue classificazioni, la sua epidemiologia e sui dispostivi impiantabili utilizzati nel trattamento di quest'ultima. Successivamente sono stati analizzati cinque studi clinici longitudinali, di cui uno monoparametrico e gli altri multiparametrici, caratterizzati dal monitoraggio remoto di alcuni parametri vitali con l'obiettivo di individuare, e quindi prevenire, eventi avversi o un peggioramento della condizione di insufficienza cardiaca.
Resumo:
Con la presente tesi di laurea si vuole analizzare la nuova procedura di ordini di “Scheduling Agreement” all’interno della realtà aziendale di ACMA S.p.A., azienda produttrice di macchine automatiche. Con il termine Scheduling Agreement si identifica una gestione di ordini con il fornitore, il quale mantiene i pezzi prodotti all’interno del proprio magazzino per massimo 18 mesi. L’accordo si basa sul principio per cui il fornitore ha una maggiore continuità di fornitura mentre ACMA S.p.A. vede un risparmio degli investimenti aziendali e nel tempo di approvvigionamento. Il principale focus dello studio verterà sulla proposta di soluzioni di stoccaggio per ricercare un punto di ottimo che permetta di ridurre al minimo il rischio di stock out e al tempo stesso minimizzi il livello delle scorte. L’analisi partirà con l’identificazione dei prodotti per cui risulta conveniente aprire uno Scheduling. Tale processo valutativo si estrinseca nell’analisi di due parametri fondamentali: frequenza e consumo. Verranno poi analizzati alcuni casi TO BE con il fine di trovare il Lead Time migliore per ridurre al minimo le giacenze ed evitare rotture di stock. Questi studi utilizzano il software di estrapolazione dati “SAP” per poi analizzarli sulla piattaforma Excel e forniscono una valutazione realistica nella gestione di tale procedura in ACMA S.p.A.. La soluzione conclusiva riesce a risolvere il problema di stock out introducendo la “scorta di sicurezza” calcolata sulla domanda futura. In particolare, utilizzando un Lead Time di approvvigionamento di 21 giorni si è riusciti a ridurre del 75% le scorte a magazzino rispetto al caso più cautelativo, mantenendo comunque basso il rischio di stock out. I risultati ottenuti forniranno un effettivo miglioramento delle prestazioni dell’azienda e il modello verrà sfruttato in futuro per l’applicazione iterativa della soluzione descritta, con risparmio di tempo e di fondi aziendali.
Resumo:
L’aumento crescente della domanda di idrocarburi a livello mondiale ha determinato un progressivo aumento dell’estrazione “offshore” e del trasporto via mare di petrolio. In questo contesto non sono da escludersi incidenti e conseguenti sversamenti di olio in mare. Sversato sulla superficie del mare, l’olio, subisce una serie di trasformazioni chimico-fisiche che prendono il nome di “processi di weathering”. In base alla quantità di prodotto rilasciato, i rilasci di olio possono portare ad ingenti danni ambientali, minando la sopravvivenza degli ecosistemi contaminati dall’olio. La condizione di rilevante criticità ambientale prodotta da uno sversamento accidentale di olio richiede la preparazione di precisi piani di intervento. Tipicamente le azioni intraprese hanno lo scopo di attuare la riduzione della massa di olio galleggiante e di evitare lo spiaggiamento dell’olio. Il presente lavoro di tesi si colloca nell’ambito della modellazione matematica degli sversamenti superficiali di olio in mare, al fine di quantificare l’influenza delle diverse azioni di emergenza sull’olio sversato. Lo scopo della tesi è quello di testare un software denominato ROC - Response Options Calculator, per simulare i fenomeni di weathering degli sversamenti di olio in presenza di azioni di emergenza di diversa tipologia. Il lavoro di tesi è suddiviso come segue: il capitolo 1 ha un ruolo introduttivo; nel capitolo 2 è descritto in dettaglio il software ROC; nel capitolo 3 è presentata l’applicazione del codice ad un caso di studio rappresentato da una piattaforma “offshore”, per la quale sono considerati 3 differenti scenari di rilascio accidentale sulla superficie del mare, a ciascuno dei quali corrisponde una diversa risposta all’emergenza ed un diverso insieme di risorse; nello stesso capitolo è inoltre presentata l’applicazione di un’equazione per la progettazione della risposta meccanica ad uno dei rilasci del caso di studio; il capitolo 4 riporta alcune considerazioni conclusive.
Resumo:
L’Imaging di Risonanza Magnetica (MRI) è una tecnica diagnostica multiparametrica e non dannosa che permette di acquisire immagini nelle quali risiedono informazioni di natura anatomica e funzionale. Utilizzando un campo magnetico di intensità bassa è possibile ottenere scanner portatili, silenziosi, sicuri ed economici evitando l’installazione di schermature magnetiche e a radiofrequenza. La risoluzione e il rapporto segnale rumore di queste immagini non è ottimale e gli artefatti da movimento sono considerevoli. Nonostante ciò, lo scanner MRI a basso campo è in grado di fornire immagini con importante valore diagnostico, in particolare in quei contesti in cui un esame tramite risonanza tradizionale non risulta possibile.
Resumo:
Il cancro è un processo autosufficiente e adattivo che interagisce dinamicamente con il suo microambiente, la cui diagnosi, complessa e dispendiosa in termini di tempo e numero di specialisti impiegati, viene solitamente effettuata valutando l’imaging radiografico oppure effettuando un esame istologico. L'interpretazione di tali immagini risulta generalmente molto complessa, a questo scopo sarebbe molto utile poter addestrare un computer a comprendere tali immagini potendo di fatto affiancarsi allo specialista, senza sostituirlo, al momento della diagnosi. A questo scopo è possibile affidarsi alle tecniche di apprendimento automatico, sistema alla base dell’intelligenza artificiale (AI), le quali permettono di fatto di apprendere automaticamente la rappresentazione delle caratteristiche da immagini campione. Tali tecniche di intelligenza artificiale, hanno però bisogno, per essere addestrate, di grandi quantità di dati in cui il segnale di uscita desiderato è noto, comportando di fatto un aumento delle tempistiche di addestramento. Inoltre, in ambito sanitario, i dati sono distribuiti su più archivi, dislocati sul territorio nazionale, rendendo impossibile l’utilizzo di soluzioni centralizzate. L’obbiettivo di questa trattazione sarà cercare di trovare una soluzione a queste due problematiche, ricorrendo all’utilizzo delle tecniche di parallelizzazione. A seguito dell'introduzione dello scenario biologico e delle tecniche di diagnostica ad esso associato è presentato il percorso di creazione della rete neurale. A seguito del suo addestramento sulla GPU di una singola macchina, ottenendo un'accuratezza dell'83.94% in 5 ore 48 minuti e 43 secondi, è stata introdotto la parallelizzazione ed una sua implementazione. In conclusione, sfruttando il sistema implementato, è stata distribuita la fase di addestramento prima su due macchine e poi su tre, ottenendo una diminuzione del tempo di addestramento rispettivamente del 31.4% e del 50%.
Resumo:
La prima parte della seguente tesi intende studiare lo stato dell’arte in ambito delle principali tecnologie di smaltimento e di recupero dei rifiuti da costruzione, per poi analizzare le metodologie di analisi del sistema di decostruzione, basate su processi di calcolo semplificati. La seconda parte si concentra invece sul confronto tra due ipotesi di intervento differenti: uno scenario di riqualificazione energetica e uno di demolizione e ricostruzione. L’obiettivo della ricerca è indagare quale dei due interventi sia il più circolare e sostenibile, dal punto di vista ambientale ed economico. Questo obiettivo si concretizza mediante lo svolgimento di una analisi LCA attraverso l’utilizzo del software OneClick LCA. Il caso di studio sul quale viene svolta tale indagine consiste nella villa realizzata agli inizi del Novecento, appartenente al complesso “Corte Palazzo” sito ad Argelato (Bologna). Per lo scenario di demolizione, dopo una prima analisi iniziale delle tecniche circolari da poter applicare più adeguate al contesto esistente, è stato sviluppato un progetto che rispettasse le stesse caratteristiche dimensionali (in termini di sagoma) e le stesse prestazioni dell’involucro (in termini di trasmittanza termica) dell’edificio riqualificato. Il metodo di analisi proposto, reiterabile e proposto ad altri casi di studio, eventualmente implementato per includere tutti i materiali che compongono il sistema costruttivo e non soltanto quelli dell’involucro, rappresenta un efficace strumento di valutazione dell’impatto ambientale ed economico degli interventi, per consentire ai progettisti e ai committenti di compiere scelte più consapevoli.
Resumo:
Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.
Resumo:
La produzione additiva è una tecnologia innovativa completamente rivoluzionaria. La sua tecnica di costruzione layer by layer a partire da un file digitale consente la progettazione di componenti più complessi e ottimizzati, favorendo la stampa 3D su richiesta. La produzione additiva è potenzialmente in grado di offrire numerosi vantaggi sul tema della sostenibilità, rappresentati dall’utilizzo più efficiente delle risorse, dalla vita estesa dei prodotti e dalle nuove configurazioni delle catene di valore. L’ importanza di determinare gli impatti che tale processo genera lungo il suo ciclo di vita, ha portato ad una revisione della letteratura su tale argomento. In particolare, la mancanza di dati e modelli ha focalizzato l’attenzione su studi LCA di specifici processi. Grazie a tale strumento è stato possibile determinare l’influenza di diversi materiali, parametri di processo e scenari di utilizzo. Infine, viene mostrato quanto sia significativo l’impatto sociale che è in grado di generare la produzione additiva.
Resumo:
Descrizione, implementazione in Python e valutazione di modelli di Machine Learning e di tutte le sue fasi di Preprocessing, EDA, Training, Test e Evaluation, per valutare la qualità del vino attraverso le sue caratteristiche fisico-chimiche.
Resumo:
Negli ultimi decenni sempre più attenzione è stata posta sugli effetti derivanti dalla produzione dell'energia. In particolare, emissioni di specie inquinanti e gas serra sono state oggetto di continue limitazioni al fine di raggiungere soluzioni energetiche sempre meno climalteranti. Ciò ha evidenziato la necessità di sviluppare nuove soluzioni inerenti alla mobilità sostenibile. Tra le possibili soluzioni, l'utilizzo di idrogeno rappresenta una delle più promettenti grazie alle proprietà chimiche che lo contraddistinguono. L'impiego di tale elemento come combustibile in un tradizionale motore a combustione interna propriamente convertito garantirebbe la possibilità di una transizione energetica progressiva grazie all'utilizzo di una tecnologia già ampiamente consolidata e avanzata. Questo lavoro si concentra sullo sviluppo di un modello 1D di un motore a combustione interna alimentato ad idrogeno per studiarne le potenzialità. Al fine di ottenere dati attendibili, si è sviluppato e validato un modello su un motore noto di cui i dati in benzina erano disponibili. Successivamente, tale modello è stato convertito all'utilizzo di idrogeno. Completata la conversione sono state svolte svariate prove al variare dei principali parametri motoristici quali: lambda, anticipo d'accensione, giri, carico. Il modello sviluppato ha mostrato risultati comparabili con i dati attualmente disponibili in letteratura al variare delle diverse condizioni operative. In particolare, alte efficienze e basse emissioni sono garantite da combustioni magre, tuttavia alti carichi non possono essere raggiunti per limiti derivanti dal gruppo di sovralimentazione. Sono stati ottenuti promettenti risultati che incoraggiano uno sviluppo avanzato del modello, con l’obbiettivo futuro di effettuare esperimenti con l’idrogeno su un motore reale.
Resumo:
La presente sperimentazione ha avuto come obiettivo la formulazione di oli aromatizzati, ottenuti mediante la tecnica di co-frangitura delle olive con arancia, sottoprodotti dell’arancia, melagrana e pepe nero. In questo lavoro di tesi viene affrontata la definizione di olio aromatizzato, cioè un olio d’oliva arricchito con uno o più composti aromatici, come oli essenziali, spezie, erbe aromatiche o frutti. Inizialmente vengono esposte le principali tecniche di aromatizzazione. Successivamente vengono trattati i principali parametri di qualità per la classificazione merceologica degli oli, i composti volatili e i composti fenolici che caratterizzano questi prodotti, ed infine viene descritta la valutazione sensoriale degli oli d’oliva. I campioni di olio prodotti sono stati sottoposti ad analisi per la valutazione dello stato idrolitico, mediante determinazione titrimetrica dell’acidità libera e del contenuto di composti ad attività riducente tramite determinazione spettrofotometrica con reattivo di Folin-Ciocalteu. Infine, sono stati studiati i composti volatili degli oli aromatizzati prodotti, identificando e quantificando i principali attributi sensoriali mediante analisi descrittiva effettuata da un gruppo di assaggiatori addestrati. Dalle analisi eseguite sui campioni si è potuto riscontrare come gli oli prodotti non abbiano problemi di degradazione idrolitica, possiedano un contenuto medio/alto di composti fenolici e siano caratterizzati dalla presenza di attributi secondari positivi.