612 resultados para Fitosanitari, valutazione rischio, depositi, fumi tossici
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
Nel seguente lavoro di tesi, l’analisi dell’efficienza idraulica è stata condotta sulla base dei tradizionali parametri di simulazione di una rete idrica, come carichi idraulici ai nodi e portate erogate, ma sfruttando l’ausilio di un indice di performance di rete sintetico e globale, ovvero l’Indice di resilienza, introdotto da Todini (2000; 2016). Infatti, tale indice, rientrando tra i parametri con cui valutare lo stato complessivo di “benessere idraulico” di una rete, ha il vantaggio di poter fungere da criterio di selezione di eventuali interventi migliorativi da operare sulla rete stessa. L’analisi si è concentrata sull’utilizzo dell’Indice di resilienza come strumento per la misura delle prestazioni di una rete di distribuzione idrica semplificata, utilizzata come caso studio: per far ciò, si sono messi a confronto i risultati relativi a diversi scenari, ottenuti simulando la rottura in successione delle tubazioni della rete, oppure ipotizzando incrementi di richiesta idrica ai nodi. In generale, i risultati delle simulazioni idrauliche, effettuate con l’ausilio combinato dei software di calcolo EPANET 2.2 e Matlab, hanno mostrato che la resilienza può essere utilizzata per quantificare la robustezza di una rete idrica, presentando forti correlazioni con le pressioni ai nodi. Durante il corso di queste analisi, si è anche voluto mostrare lo sviluppo analitico subito nel tempo dalla formula dell’Indice di resilienza, della quale in principio era stata proposta una formulazione pensata per l’approccio Demand Driven, poi estesa all’approccio di modellazione Pressure Driven. L’intento finale dell’elaborato è stato quello di capire tramite quali mezzi poter migliorare la resilienza del sistema in esame: è emerso che la soluzione ottimale è quella di sfruttare gli effetti benefici derivanti dall’azione combinata della sostituzione dei diametri e del risparmio idrico derivante dalla riduzione delle perdite idriche e degli sprechi nei consumi idropotabili.
Resumo:
La colonna vertebrale è la principale sede di metastasi, le quali possono alterare la normale distribuzione dei tessuti ossei e ridurre la capacità della vertebra di sostenere carichi. L’instabilità spinale causata dalle metastasi, tuttavia, è di difficile determinazione. La caratterizzazione meccanica delle vertebre metastatiche permetterebbe di identificare e, di conseguenza trattare, quelle ad alto rischio di frattura. In questo studio, ho valutato il comportamento meccanico a rottura di vertebre umane affette da metastasi misurando in vitro il campo di deformazione. Undici provini, costituiti da due vertebre centrali, una metastatica e una sana, sono stati preparati e scansionati applicando carichi graduali di compressione in una micro-tomografia computerizzata (μCT). Le deformazioni principali sono state misurate attraverso un algoritmo globale di Digital Volume Correlation (DVC) e successivamente sono state analizzate. Lo studio ha rivelato che le vertebre con metastasi litiche raggiungono deformazioni maggiori delle vertebre sane. Invece, le metastasi miste non assicurano un comportamento univoco in quanto combinano gli effetti antagonisti delle lesioni litiche e blastiche. Dunque la valutazione è stata estesa a possibili correlazioni tra il campo di deformazione e la microstruttura della vertebra. L'analisi ha identificato le regioni in cui parte la frattura (a più alta deformazione), senza identificare, in termini microstrutturali, una zona preferenziale di rottura a priori. Infatti, alcune zone con un pattern trabecolare denso, presunte più rigide, hanno mostrato deformazioni maggiori di quelle dei tessuti sani, sottolineando l’importanza della valutazione della qualità del tessuto osseo. Questi risultati, generalizzati su un campione più ampio, potrebbero essere utilizzati per implementare nuovi criteri negli attuali sistemi di valutazione dell'instabilità spinale.
Resumo:
L’utilizzo di biomasse come fonte di chemicals nell’industria chimica mira a rendere più sostenibili i processi industriali e i materiali prodotti. In particolare, l’acido crotonico (AC), impiegato come building block nella produzione di vernici e rivestimenti, è prodotto tradizionalmente da fonti fossili. La domanda globale ammonta a circa 1000 tonnellate ed è in continuo aumento, rendendo prioritaria l’individuazione di una sintesi alternativa e sostenibile. In questo studio, l’analisi del ciclo di vita (life cycle assessment, LCA) è stata applicata per stimare la carbon footprint e la domanda cumulativa di energia relative ad una sintesi innovativa dell’AC, basata sulla conversione termica di un precursore derivato da biomasse di scarto. In particolare, il processo prevede l’applicazione di un trattamento termochimico a poli-idrossi-butirrati (PHB) prodotti da colture batteriche miste a valle del processo B-PLAS. Sono stati modellati due scenari comparativi con l’obiettivo di (i) valutare la sostenibilità ambientale della sintesi alternativa nella tecnologia B-PLAS, considerando una condizione “base” di processo (con un contenuto di PHB pari al 30% nello slurry in ingresso al processo) e una “ottimale” (con un contenuto di PHB pari al 60%); (ii) confrontare gli impatti ambientali del processo di sintesi alternativo per entrambi gli scenari con quelli di sintesi dell’AC da fonti fossili. I risultati dell’LCA mostrano che nel processo B-PLAS, giunti alla produzione dello slurry (fango) arricchito in PHB, si possono avere due strade equivalenti estraendo i PHB o convertendoli in AC con una lieve preferenza per il processo estrattivo (0.71MJ/kgslurry vs 1.11MJ/kgslurry) nella condizione di base e (0.69MJ/kgslurry vs 1.17MJ/kgslurry) in quella ottimale. Estendendo la comparazione alla produzione dell’AC da fonti fossili, quello bioderivato comporta un impatto ambientale ampiamente inferiore, stimato in 159.6 MJ/kgAC e 204.6 MJ/kgAC per gli scenari “base” e “ottimale”.
Resumo:
Il presente elaborato riguarda la valutazione degli effetti dell'uso di due chiarificanti a base di proteine vegetali, sulle caratteristiche chimico-fisiche di un vino bianco. Allo scopo, il vino (cv. Albana) è stato trattato con due preparati di origine vegetale (proteine di patata e pisello) confrontati con un trattamento tradizionale effettuato con caseina (tutti aggiunti a 40 g/Hl). Sui vini chiarificati sono stati verificati alcuni parametri compositivi generali, la frazione fenolica ed i composti volatili. Il preparato a base di proteine di patata ha fornito i migliori risultati per ciò che riguarda il rispetto dell'integrità del prodotto di partenza, con migliori apprezzamenti anche dal punto di vista sensoriale. L'uso di proteine di pisello, per contro, pur garantendo un buon livello di chiarifica, ha generato un prodotto non apprezzato dal panel tecnico della cantina presso cui sono state effettuate le prove.
Valutazione dell'effetto dei campi elettrici pulsati sulle cinetiche di salagione di branzino fresco
Resumo:
In questo studio è stato valutato l'impatto dei campi elettrici pulsati applicati a diverse intensità (0.3, 0.9 e 1.5 kV/cm) su campioni di branzino fresco prima del processo di salamoiatura. Dopo 24, 96, 144 e 92 ore sono stati determinati il peso, il contenuto in acqua, la percentuale di NaCl, l'attività dell'acqua e il contenuto in TBARS nei campioni allo scopo di verificare la possibilità di accelerare il trasferimento di massa nella matrice, e in secondo luogo per valutare l'effetto dei campi elettrici pulsati sull'ossidazione lipidica.
Resumo:
I crostacei sono da sempre considerati prodotti ittici d'elevato valore economico (FAO 2020) soggetti ad un'alta deperibilità a causa dello sviluppo di colorazioni brune nella zona cefalotoracica ed addominale del carapace (Goncalves et al. 2016). Nell'ottica di una riduzione degli sprechi alimentari e vista la crescente sensibilità dei consumatori verso alimenti clean-lable, questo studio valuta l'effetto dell'acqua attivata al plasma (PAW) nel ritardare la comparsa di melanosi su mazzancolle (P. kerathurus) e gamberi rosa (P. longirostris), confrontandone l'effetto con i più comuni trattamenti (solforosa e 4-esilresorcinolo). La valutazione della melanosi si è svolta per mezzo di un sistema di visione computerizzata (CVS) e successiva analisi delle immagini digitalizzate. Dalle prove sulle mazzancolle è emerso un effetto protettivo dell'acqua attivata al plasma per i primi 5 giorni di conservazione, mentre per i gamberi rosa non si sono ottenute differenze significative (p<0.05) rispetto ai campioni trattati con sola acqua. I migliori risultati nel contenimento della melanosi si sono ottenuti dai campionitrattati con 4-esilresorcionolo, tuttavia si è anche sviluppata una colorazione rossa sul carapace giudicabile, secondo altri studi, come sgradevole (Pilar Montero et al. 2001).
Resumo:
L’obiettivo della tesi è stato quello di valutare la vulnerabilità sismica di edifici ordinari in muratura tipici del costruito del Comune di Maranello (MO), e di stimare le curve di fragilità. Vengono individuate le tipologie strutturali in muratura tipiche degli edifici del Comune, che viene suddiviso in comparti secondo il metodo CARTIS. Lo scopo è stato di definire quali sono le tipologie in muratura più vulnerabili, e quindi i comparti del Comune costituiti dagli edifici in muratura più fragili dal punto di vista sismico. La valutazione della vulnerabilità sismica di alcuni edifici rappresentativi delle tipologie murarie esistenti nel territorio analizzato è stata eseguita mediante due metodologie: la prima è una metodologia speditiva chiamata RE.SIS.TO., una valutazione semplificata sviluppata dall’Università degli Studi di Bologna, con l’obiettivo di definire lo stato di criticità degli edifici e di definire la priorità di intervento in tempi brevi; la seconda è una metodologia di valutazione più accurata eseguita attraverso l’analisi statica non lineare con il software 3Muri, un programma per il calcolo sismico delle strutture in muratura.
Resumo:
A metà del secolo scorso in Italia un elevato numero di edifici in cemento armato con struttura a telaio è stata realizzata, in accordo con la Normativa dell’epoca, per resistere unicamente alle azioni verticali presentando un’elevata vulnerabilità nei riguardi delle azioni sismiche. I cambiamenti apportati dalle più recenti Normative volgono l’attenzione alla problematica della vulnerabilità sismica degli edifici esistenti, rendendo l’analisi del comportamento di questi ultimi un tema di grande rilevanza ed attualità. In questo contesto, viene selezionato un edificio esistente per il quale viene valutata la capacità sismica mediante una metodologia analitica denominata SLaMA, e vengono stimate le perdite economiche sismiche utilizzando la metodologia del Sisma Bonus Italiano. L’utilizzo di metodologie di calcolo semplificate rappresenta al giorno d’oggi una robusta alternativa da utilizzare in fase di valutazione progettuale preliminare. Le operazioni eseguite per l’edificio esistente vengono poi ripetute anche per due differenti opzioni di rinforzo strutturale proposte per lo stesso. I risultati ottenuti in termini di capacità sono stati posti a confronto con quelli ricavati dalla modellazione ad elementi finiti su software di calcolo per validare il metodo semplificato, mentre i risultati derivati dal calcolo delle perdite economiche sono stati confrontati con quelli ricavati mediante una metodologia più raffinata di analisi per verificare la corrispondenza e l’accuratezza del parametro di perdita calcolato (PAM). Infine, vengono esposti i risultati ottenuti per gli edifici analizzati proponendo dei confronti fra gli stessi, in modo da individuare la scelta progettuale più conveniente sia in merito alla performance sismica dell’edificio che alla riduzione della perdita economica attesa.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.
Resumo:
L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.
Resumo:
Il surriscaldamento globale è un fenomeno preoccupante ed è accertato che le attività umane sono responsabili di questa crisi climatica causata dall’aumento dei gas serra immessi nell’atmosfera. L’agricoltura contribuisce per il 23% delle emissioni planetarie di gas serra, che derivano per quasi l’80% dalla gestione degli allevamenti. L’allevamento è responsabile di diversi impatti ambientali, quali le emissioni enteriche delle bovine, le emissioni dalla fase di gestione delle deiezioni, e quelle che avvengono nella fase di coltivazione dei terreni aziendali, quali le emissioni di protossido di azoto dovute alle fertilizzazioni azotate e le emissioni derivanti dall’uso dei combustibili per le macchine agricole utilizzate per la gestione del bestiame, il consumo idrico, il consumo di energia per la climatizzazione estiva dell’allevamento e la produzione e lo smaltimento dei rifiuti plastici. Il rapporto però tra produzione di bestiame e cambiamento climatico è bilaterale. Infatti, i cambiamenti climatici influiscono negativamente sulla produzione zootecnica, con effetti diretti sulla salute animale e sull'efficienza riproduttiva, ma anche effetti indiretti derivanti dai cambiamenti nella qualità e quantità dei mangimi, disponibilità di acqua, alterazioni dell'ecosistema che portano a cambiamenti nella distribuzione di agenti patogeni e malattie. Proprio alla relazione, biunivoca, tra allevamento del bestiame ed impatto ambientale è dedicata la presente tesi. È stato infatti condotto uno studio con l'obiettivo di valutare gli impatti ambientali degli allevamenti di bovini da latte, sulla base di un modello di valutazione del ciclo di vita (Life Cycle Assessment) per un allevamento campione di un’azienda emiliana. I risultati emersi mostrano la possibilità di identificare gli impatti più rilevanti nell'allevamento bovino nei mangimi, negli imballaggi in plastica, nel consumo di energia e carburante.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
A partire dagli anni ‘40, l'uso della traduzione automatica ha iniziato a rappresentare un soggetto fondamentale nella traduzione, costituendo ancora ad oggi il centro di numerose ricerche e studi. In seguito alla diffusione della tecnologia informatica e del World Wide Web, iniziarono a essere disponibili sistemi commerciali di traduzione automatica. In questo periodo, divennero comuni diversi software di traduzione automatica gratuiti, fino a quando, alla fine degli anni 2000, si assistette infine allo sviluppo di una nuova tecnologia di apprendimento automatico neurale, basata sul funzionamento della mente umana. Il presente lavoro si concentra sulla valutazione della qualità della traduzione automatica neurale attraverso l'analisi e il confronto di sette sistemi, ovvero Google, Systran, Prompt, Microsoft, Yandex, ModernMT e Deepl, impiegati nel settore finanziario per la coppia linguistica inglese-italiano. Il primo capitolo tratta la storia della traduzione automatica, fornendo una breve descrizione delle diverse architetture, dei loro ambiti di utilizzo e della valutazione dei sistemi. Il secondo capitolo introduce il concetto di post-editing insieme agli obiettivi e le problematiche che lo caratterizzano. Il terzo capitolo presenta il progetto Intento, seguito da una breve panoramica dei sistemi di traduzione automatica analizzati. Nel quarto capitolo viene delineato il dominio finanziario, concentrandosi sui diversi ambiti che si sono intersecati con esso nell’ambito dello studio svolto. Il quinto e ultimo capitolo riguarda l'analisi dei segmenti tradotti, preceduta dalla definizione dei parametri scelti per la valutazione. L'ultima parte del capitolo illustra una sintesi dei risultati ottenuti e alcune considerazioni finali.
Resumo:
La presente tesi si posiziona all’interno di un percorso di ricerca avviato riguardante lo studio delle coperture lignee di vari edifici storici. Gli obiettivi del lavoro consistono nel fornire un quadro generale sullo stato dell’arte della modellazione parametrica per la diagnosi di strutture lignee storiche, completare e approfondire lo studio delle capriate della Cattedrale di S.Pietro a Bologna ed effettuare un confronto sia in termini quantitativi che di velocità esecutiva con metodologia e risultati degli studi precedenti. Il metodo proposto,è stato perfezionato grazie ai feedback ottenuti in corso d’opera a seguito della sua applicazione a nuovi casi studio.L’intento principale è quello di consentire maggior automatizzazione e parametrizzazione del metodo per conferire alle procedure di modellazione un carattere generalizzato e rapidamente replicabile.Sono state ottimizzate le fasi di editing della nuvola di punti e di vettorializzazione delle sezioni degli elementi strutturali.Al fine di approfondire la conoscenza di queste strutture,si è acquisito il rilievo 3D completo del sottotetto dell’edificio con laser scanner.Il primo output consiste quindi in una nuvola di punti dalla quale sono state estrapolate le singole capriate;da queste è possibile estrarre le sezioni delle aste afferenti ai nodi,poi vettorializzate tramite software di modellazione parametrica:sono stati utilizzati algoritmi,programmati e testati nei precedenti studi,che generano 3 modelli per ogni capriata:il modello di rilievo, il modello proiettato e quello “ideale o teorico”.Comparando i modelli e la nuvola di punti di rilievo è possibile analizzare spostamenti e deformazioni delle capriate,ottenere informazioni sul loro comportamento puntale e trarre considerazioni sullo“stato di salute”globale del sottotetto.I dati raccolti permettono di acquisire una maggiore consapevolezza sulle capriate oggetto di indagine e potrebbero essere utilizzati per progettare eventuali interventi di recupero.