725 resultados para Consorzio di bonifica di secondo grado per il Canale Emiliano Romagnolo, CER, QUAL2K, QUAL2E, modelli di qualità fluviale
Resumo:
L’obbiettivo principale della mia tesi è stato di valutare le potenzialità applicative di un ceppo di Lactobacillus salivarius, un ceppo di Lactobacillus crispatus ed un ceppo di Lactococcus lactis nisina produttore per la produzione di squacquerone. I ceppi erano stati selezionati sulla base di proprietà tecnologiche e antibatteriche. I ceppi oggetto di studio sono stati addizionati come colture aggiuntive, assieme alle colture starter normalmente utilizzate nel processo produttivo di formaggio squacquerone. I formaggi ottenuti sono stati caratterizzati e confrontati con il prodotto tradizionale per le loro caratteristiche microbiologiche, chimico-fisiche, in termini di vitalità delle colture microbiche impiegate e carico di microrganismi degradativi durante la conservazione refrigerata, per le loro caratteristiche reologiche, per il profilo in molecole volatili e per le caratteristiche sensoriali. Tutti i ceppi utilizzati hanno dimostrato una elevata capacità di sopravvivenza alle condizioni di maturazione/conservazione tipiche per questa tipologia di prodotto. Il ceppo di Lactobacillus salivarius e Lactococcus lactis hanno determinato un significativo incremento, rispetto al controllo, di molecole volatili quali chetoni e acidi grassi a corta catena che sono precursori di numerosissime molecole di aroma. Ulteriormente, i ceppi Lactobacillus salivarius e Lactococcus lactis hanno determinato una precoce diminuzione della durezza e della consistenza del prodotto (dopo 6 giorni), ed un incremento dopo 11 giorni di adesività e viscosità rispetto ai campioni di controllo e a quelli ottenuti con Lactobacillus crispatus indice di una più precoce proteolisi. I dati dell’analisi sensoriale indicano che i formaggi ottenuti con i ceppi Lactobacillus salivarius e Lactococcus lactis erano nettamente preferiti dai consumatori dopo 4, 6, e 8 giorni di conservazione. Concludendo, i risultati ottenuti dimostrano come l’addizione delle colture aggiuntive selezionate può rappresentare una strategia vincente per incrementare la shelf-life di formaggi freschi.
Resumo:
L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti d’opera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto d’opera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo d’esempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).
Resumo:
Da quando è iniziata l'era del Cloud Computing molte cose sono cambiate, ora è possibile ottenere un server in tempo reale e usare strumenti automatizzati per installarvi applicazioni. In questa tesi verrà descritto lo strumento MODDE (Model-Driven Deployment Engine), usato per il deployment automatico, partendo dal linguaggio ABS. ABS è un linguaggio a oggetti che permette di descrivere le classi in una maniera astratta. Ogni componente dichiarato in questo linguaggio ha dei valori e delle dipendenze. Poi si procede alla descrizione del linguaggio di specifica DDLang, col quale vengono espressi tutti i vincoli e le configurazioni finali. In seguito viene spiegata l’architettura di MODDE. Esso usa degli script che integrano i tool Zephyrus e Metis e crea un main ABS dai tre file passati in input, che serve per effettuare l’allocazione delle macchine in un Cloud. Inoltre verranno introdotti i due sotto-strumenti usati da MODDE: Zephyrus e Metis. Il primo si occupa di scegliere quali servizi installare tenendo conto di tutte le loro dipendenze, cercando di ottimizzare il risultato. Il secondo gestisce l’ordine con cui installarli tenendo conto dei loro stati interni e delle dipendenze. Con la collaborazione di questi componenti si ottiene una installazione automatica piuttosto efficace. Infine dopo aver spiegato il funzionamento di MODDE viene spiegato come integrarlo in un servizio web per renderlo disponibile agli utenti. Esso viene installato su un server HTTP Apache all’interno di un container di Docker.
Resumo:
Il riconoscimento di impronte digitali viene largamente utilizzato in molteplici ambiti, dai sistemi di sicurezza alle applicazioni forensi. La maggior parte dei sistemi automatici di riconoscimento si basa sull'estrazione e il confronto delle minuzie nelle impronte digitali, ma l’accuratezza di queste operazioni peggiora sensibilmente in presenza di impronte di scarsa qualità, fino ad arrivare anche a compromettere il riconoscimento stesso. In questo lavoro di tesi ci si è posto come obiettivo il miglioramento delle prestazioni di un algoritmo di estrazione delle minuzie, attraverso l’utilizzo di varie tecniche per l’analisi di qualità locale delle impronte digitali.
Resumo:
L’odierno mercato concorrenziale ha portato le aziende a rinnovare il sistema produttivo, spostandosi da un approccio innovativo convergente, in cui le imprese erano le uniche detentrici del controllo dell’intero processo, fin dalla generazione di nuove idee e proposte di innovazione, ad un approccio aperto, denominato Open Innovation, che fa leva sul concetto di flusso libero e bidirezionale di idee e tecnologie tra l’azienda e l’ambiente esterno. È in questo contesto che è stata progettata in Carpigiani una piattaforma e-maintenance chiamata Teorema che, sfruttando un sistema di telemetria, consente di monitorare in tempo reale le macchine installate presso l’utente finale, acquisendo importanti informazioni sul reale utilizzo e sulle effettive funzionalità impiegate dal cliente. Grazie a tale gestione remota, allo stesso tempo è possibile garantire un’efficace operazione di diagnostica e prognostica atte a prevenire eventuali malfunzionamenti. Il presente elaborato fornisce un concreto metodo di utilizzo di tale piattaforma per il monitoraggio real time di macchine per gelato espresso, al fine di verificarne l’effettivo utilizzo da parte del cliente ed il corretto dimensionamento dell’impianto. Per mezzo della piattaforma Teorema è stato inoltre possibile eseguire un’indagine comparativa sui consumi energetici misurati in macchina, testando l’efficienza di funzionamento. Infine è stata eseguita un’analisi FMEA degli allarmi rilevati sul parco di macchine analizzate, per valutare l’affidabilità della macchina e dei suoi componenti.
Resumo:
Scopo di questo studio è la determinazione delle strutture di età delle specie Mullus barbatus e Mullus surmuletus, pescate in Alto-Medio Adriatico durante le campagne di ricerca MEDITS e GRUND mediante la lettura degli anelli stagionali degli otoliti e delle frequenze di taglia. I campioni di otoliti sono stati prima estratti e poi lavati con sonicatore e acquisiti al computer. Sono state successivamente prese le misure dei radius ed è stata fatta una prima lettura degli anelli. Un subcampione è stato poi scelto per applicare altri due metodi di lettura degli anelli: la bruciatura e la colorazione, preceduta dal taglio dell’otolite. Sono stati poi levigati e lucidati gli otoliti dei giovanili per un conto degli annuli giornalieri. L’analisi dati, svolta tramite il software Rstudio, ha permesso di calcolare non solo le strutture di età, ma anche di osservare le distribuzioni dei campioni per classi di profondità e latitudine, confrontare le strutture di taglia e calcolare le chiavi di età-lunghezza, l’accrescimento somatico con le relazioni lunghezza-peso e l’equazione di Von Bertalanffy e l’accrescimento dell’otolite tramite i rapporti radius-taglia e radius-età e il tasso di incremento dei radius. Infine sono stati anche confrontati i tre metodi di lettura degli anelli al fine di stabilirne il migliore. Le due specie hanno mostrato una grande maggioranza di individui di 1 e 2 anni, soprattutto nella zona settentrionale e centrale dell’area di studio a profondità entro i 100 m. Differenze specifiche sono poi state trovate nel confronto tra le strutture di taglia e le relazioni lunghezza-peso e per il tasso di accrescimento K dell’equazione di Von Bertalanffy. Alta poi è la correlazione tra la misura dei radius e la taglia e l’età. Diverso è anche il tasso degli incrementi dei radius tra primo-secondo anno e secondo-terzo anno.
Resumo:
Il presente elaborato vuole illustrare alcuni risultati matematici di teoria della misura grazie ai quali si sono sviluppate interessanti conseguenze nel campo della statistica inferenziale relativamente al concetto di statistica sufficiente. Il primo capitolo riprende alcune nozioni preliminari e si espone il teorema di Radon-Nikodym, sulle misure assolutamente continue, con conseguente dimostrazione. Il secondo capitolo dal titolo ‘Applicazioni alla statistica sufficiente’ si apre con le definizioni degli oggetti di studio e con la presentazione di alcune loro proprietà matematiche. Nel secondo paragrafo si espongono i concetti di attesa condizionata e probabilità condizionata in relazione agli elementi definiti nel paragrafo iniziale. Si entra nel corpo di questo capitolo con il terzo paragrafo nel quale definiamo gli insiemi di misura, gli insiemi di misura dominati e il concetto di statistica sufficiente. Viene qua presentato un importante teorema di caratterizzazione delle statistiche sufficienti per insiemi dominati e un suo corollario che descrive la relativa proprietà di fattorizzazione. Definiamo poi gli insiemi omogenei ed esponiamo un secondo corollario al teorema, relativo a tali insiemi. Si considera poi l’esempio del controllo di qualità per meglio illustrare la nozione di statistica sufficiente osservando una situazione più concreta. Successivamente viene introdotta la nozione di statistica sufficiente a coppie e viene enunciato un secondo teorema di caratterizzazione in termini di rapporto di verosimiglianza. Si procede quindi ad un confronto tra questi due tipi di sufficienza. Tale confronto viene operato in due situazioni differenti e porta a risultati diversi per ogni caso. Si conclude dunque l’elaborato marcando ancora l’effettiva bontà di una statistica sufficiente in termini di informazioni contenute al suo interno.
Resumo:
L’obiettivo della tesi è l’integrazione di alcuni dispositivi AVL e di un motore elettrico passo-passo lineare all’interno di un sistema di controllo e acquisizione dati per una sala prova motori. La sala prove in cui è svolto il lavoro è quella del laboratorio Hangar del Dipartimento di Ingegneria Industriale di Forlì. Inizialmente viene proposta una breve descrizione della sala prove; essa è divisa in una parte hardware, in cui vengono spiegati i principali device utilizzati per il controllo, e in una parte software, in cui vengono descritti i programmi utilizzati (LabView e TestIT). Successivamente, i capitoli centrali, si occuperanno dei componenti AVL e del motore lineare utilizzati in sala. Per quanto riguarda AVL i dispositivi da integrare sono la bilancia per il carburante 733s e lo smoke meter 415s. Si traccia quindi una descrizione degli impianti e si indicano i principi operativi. Entrambi sfruttano il linguaggio seriale, quindi si procede con la creazioni di un’interfaccia grafica in grado di convertire i comandi desiderati dall’utente in codice ASCII. Allo stesso modo viene affrontato il motore lineare NEMA. In questo caso il dialogo avviene tramite una connessione Ethernet. La parte centrale si conclude con un capitolo nel quale si spiega l’introduzione dei VI all’interno di TestIT e le problematiche che ne possono scaturire. Nell’appendice finale saranno descritte brevemente le connessioni pratiche e gli interventi di progettazione avvenuti per organizzare il rack.
Resumo:
La mia tesi è formata da tre capitoli. Il primo capito è composto da due parti: -Nella prima parte ho descritto l'online advertising dalla sua nascita fino alle diverse categorie attualmente presenti sul mercato. -Nella seconda parte ho descritto i processi cognitivi della mente umana, più nello specifico, i fattori che influenzano le scelte degli utilizzatori del web. Il secondo capitolo comprende un'unica parte dove ho descritto il funzionamento e i principali settori di utilizzo del dispositivo di remote tracker che ho utilizzato nel terzo ed ultimo capitolo, contenente la parte di sperimentazione. Il terzo capitolo è la parte sperimentale, dove ho eseguito una scrupolosa analisi finalizzata alla stipulazione di fondate ipotesi su efficaci strategie di posizionano di banner pubblicitari in una pagina web.
Resumo:
Nella tesi, inizialmente, viene introdotto il concetto di Big Data, descrivendo le caratteristiche principali, il loro utilizzo, la provenienza e le opportunità che possono apportare. Successivamente, si sono spiegati i motivi che hanno portato alla nascita del movimento NoSQL, come la necessità di dover gestire i Big Data pur mantenendo una struttura flessibile nel tempo. Inoltre, dopo un confronto con i sistemi tradizionali, si è passati al classificare questi DBMS in diverse famiglie, accennando ai concetti strutturali sulle quali si basano, per poi spiegare il funzionamento. In seguito è stato descritto il database MongoDB orientato ai documenti. Sono stati approfonditi i dettagli strutturali, i concetti sui quali si basa e gli obbiettivi che si pone, per poi andare ad analizzare nello specifico importanti funzioni, come le operazioni di inserimento e cancellazione, ma anche il modo di interrogare il database. Grazie alla sue caratteristiche che lo rendono molto performante, MonogDB, è stato utilizzato come supporto di base di dati per la realizzazione di un applicazione web che permette di mostrare la mappa della connettività urbana.
Resumo:
Lo scopo principale dell’elaborato è descrivere e studiare la fattibilità tecnica e le fasi di progettazione e di realizzazione di una macchina automatica adibita alla gestione di blister farmaceutici. Tale attività è stata svolta in collaborazione con l’azienda Siropack Italia S.r.l. a seguito di un percorso di tirocinio curriculare. E’ dunque obiettivo della tesi esplicitare, motivandole, le scelte effettuate in campo progettuale, grazie alle quali si è arrivati alla realizzazione vera e propria della macchina. Dopo una descrizione dell’azienda e dei settori verso cui si interfaccia, si passa ad esporre, in maniera generale, il panorama farmaceutico nazionale ed internazionale, descrivendo anche il cliente per il quale è stata realizzata la macchina e ogni step affrontato per la sua progettazione. In questa fase viene descritto anche il nastro adibito alla gestione del magazzino, dove sosteranno numerose unità del prodotto lavorato. Si conclude poi con la descrizione dei passi che portano la macchina al suo effettivo funzionamento. Essendo un prototipo, dovrà poi affrontare numerose ore di prove e collaudi prima di essere definitivamente consegnata al cliente; in questo elaborato non verrà, però, descritto quest’ultimo step poiché la linea, della quale la macchina fa parte, è tutt’ora in fase di realizzazione.
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
Il seguente lavoro è uno studio preliminare motivato dalla possibilità di integrazione di un sistema ecografico portatile in un'apparecchiatura per Tecarterapia. Lo scopo è permettere al fisioterapista di dare una valutazione oggettiva dell'efficacia dei trattamenti erogati, mediante il calcolo di parametri oggettivi: il confronto tra questi consentirà il monitoraggio e la valutazione del follow-up. La Tecarterapia è particolarmente efficace nel trattamento precoce non chirurgico di tendinopatie e lesioni muscolari e per dimostrarlo sono stati sviluppati due algoritmi per il calcolo automatico di parametri caratterizzanti il tendine e il muscolo. Questi sono stati testatati su pazienti affetti da tendinopatia al tendine d'Achille e lesione ai muscoli flessori della coscia prima e dopo un ciclo di Tecar e i risultati ottenuti hanno rispecchiato le aspettative, permettendo di stabilire oggettivamente l'efficacia della terapia. Per permettere anche ad utenti non esperti in programmazione di utilizzare questi strumenti di calcolo, è stata elaborata, separatamente per le lesioni e le tendinopatie, un’ interfaccia grafica in Matlab.
Resumo:
Lo scopo di questo lavoro di tesi è quello di sviluppare un prototipo di scaffold tri-strato che favorisca la rigenerazione del tessuto parodontale, mimando i differenti tessuti mineralizzati del parodonto per il trattamento, in particolare, delle parodontiti avanzate.Le prime attività si baseranno sulla definizione di un metodo che permetta la standardizzazione della fase dei lavaggi inerente al processo di produzione dello scaffold parodontale. Tale fase risulta, infatti, altamente operatore-dipendente e pertanto l’acqua contenuta prima e dopo il lavaggio, non essendo controllata, influenza diversamente le caratteristiche del prodotto finale. Infine, per garantire l’assottigliamento dello strato intermedio collagenico (tale da rispettare le caratteristiche strutturali del legamento parodontale in vivo) saranno testate diverse condizioni di liofilizzazione.
Resumo:
La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.