511 resultados para ricostruzione immagini regolarizzazione in norma L1 metodo di tipo Newton formule L-BFGS
Resumo:
L’anemometro a filo caldo (in inglese hot wire) é lo strumento maggiormente usato per studiare sperimentalmente la turbolenza. A seconda di quante componenti della velocitá interessa studiare, esistono anemometri a uno, due o tre fili. Questo elaborato di tesi si concentra su sonde a due fili. Per prima cosa, ogni volta che si utilizza questo strumento bisogna effettuare una calibrazione, fase molto importante perché permette di relazionare le tensioni che ogni filo acquisisce con la velocitá reale del flusso. Sono presentati tre differenti metodi utilizzati per sonde a due fili e, dopo averli analizzati, sono stati applicati a dati acquisiti prima al CAT (Coaxial Aerodinamic Tunnel), struttura presente a Forlí, nell’hangar dell’Universitá di Bologna e poi al CICLoPE (Center for International Cooperation in Long Pipe Experiments), Long-Pipe costruito a Predappio, utilizzato per lo studio della turbolenza. La calibrazione per sonde a due fili si puó dividere in due parti, quella di velocitá e quella per gli angoli. Mentre al CAT é possibile effettuarle entrambi, al CICLoPE non é attualmente possibile eseguire la calibrazione angolare perché non esiste alcuno strumento utilizzabile per regolare la sonda all’angolo desiderato. Lo scopo di questo elaborato di tesi è trovare un metodo di calibrazione per sonde a due fili applicabile al CICLoPE eseguendo sul posto solamente una calibrazione di velocitá e adattando quella angolare effettuata precedentemente al CAT. Questo puó provocare dei problemi perché la calibrazione risulta fortemente dipendente da condizioni interne dei fili, come la resistenza, ma anche da condizioni al contorno, come la temperatura e la pressione dell’ambiente esterno. Dopo aver eseguito due campagne sperimentali di test, una al CAT e una al CICLoPE, i dati acquisiti sono stati elaborati per valutare l’efficacia dei vari metodi.
Resumo:
Gli obiettivi dell'elaborato sono lo studio e la programmazione di un algoritmo di controllo di temperatura per le superfici termosaldanti di macchine per il packaging (confezionatrici in film a file multiple) prodotte dal committente, OMAG srl. L'algoritmo è implementato tramite il software SoMachineMotion v.4.2, prodotto da Schneider Electrics spa. Il controllo è di tipo in anello chiuso in retroazione, con temocoppie e resistenze di riscaldamento con modulazione PWM. Ci si è inizialmente occupati di testare su banco prova varie tipologie di regolatori: a relay, a isteresi, a ricerca diretta del duty cycle, TBH, con approccio misto TBH/integratore di Clegg, PID. I diversi metodi di regolazione sono stati valutati sulla base di una serie di metri di giudizio (precisione dell'inseguimento, prestazioni statiche e dinamiche, flessibilità, peso computazionale, facilità implementativa), pesati secondo i requisiti imposti dal committente. Le metodologie selezionate sono state PID e TBH/Clegg integrator; quest'ultima ha dato risultati assai soddisfacenti, pur essendo un metodo monoparametrico. Si sono quindi studiate diverse modalità per la taratura del regolatore PID, in particolare: tuning in anello chiuso con metodo a relay per la fase di pretuning, algoritmo di Nelder-Mead, per la ricerca diretta continua dei valori che minimizzano l'errore integrale, per un selftuning adattivo. Si è infine proceduto ad implementare le soluzioni individuate in un software robusto, che rispetti gli standard del settore e si sono inoltre sviluppate una serie di funzionalità aggiuntive, quali: modulazione software PWM, preriscaldamento, handling errori/warning, filtraggio segnali in/out. Si è addizionalmente sviluppato un modello matematico predittivo dell'evoluzione del sistema, che potrebbe servire, in un futuro sviluppo, come base per un controllo model-based in cascata al controllo in retroazione studiato.
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
L'importanza dell'acciuga europea (Engraulis encrasicolus) come risorsa ittica, sia a livello economico che ecologico, nel Mar Mediterraneo, ha portato alla necessità di monitorare la biomassa deponente di questa specie per cercare di dare un limite al suo sovrasfruttamento (rappresentando il 22% delle catture nazionali). Lo studio effettuato riguarda le stime di fecondità dell'acciuga europea tramite l'applicazione di un metodo di analisi d'immagine, Whole Mount, su campioni di gonadi di adulti maturi e pronti alla deposizione. Il campionamento degli esemplari è avvenuto durante due campagne oceanografiche, organizzate dall'U.O.S di Capo Granitola dell'Istituto per l'Ambiente Marino Costiero del CNR, che hanno coperto l'area dello Stretto di Sicilia e del Mar Tirreno, durante i mesi estivi che rappresentano il picco di deposizione della specie. Nel presente lavoro sono stati analizzati in totale 76 ovari di acciuga, provenienti da entrambe le aree di campionamento e che presentassero ovociti maturi e risultassero, quindi, in una fase di deposizione nota come "deposizione imminente". Per entrambe le aree di studio è stata stimata una relazione lunghezza-peso con andamento esponenziale. I test statistici non parametrici di Kolmogorov-Smirnov e di Mann-Whitney hanno permesso di stimare se vi fossero differenze tra la fecondità, l'indice gonadosomatico (IGS) e il fattore di condizione (CF) nelle due aree, Stretto di Sicilia e piattaforma settentrionale siciliana. I valori di CF sono risultati significativamente differenti tra le due aree se valutati con il test di Kolmogorov-Smirnov, tuttavia tale differenza non è stata confermata dal test di Mann-Whitney. L'IGS e la fecondità, invece, sono risultati significativamente diversi nelle due aree per entrambi i test. Si può ipotizzare che valori di fecondità differenti nelle due aree, nonostante in entrambi i casi il campionamento sia avvenuto durante il picco di riproduzione della specie, possono essere dovuti alla variabilità dei fattori abiotici, quali temperature e nutrienti, differenti nello Stretto di Sicilia e nell'area lungo le coste settentrionali siciliane. Temperatura e nutrienti possono essere differenti, poiché vi è un diverso movimento delle masse d'acqua causato da correnti distinte nelle due aree. Conoscere la variabilità dei parametri riproduttivi di una specie di rilevanza commerciale così alta, come l'acciuga, rappresenta uno strumento fondamentale per scegliere le misure di gestione sostenibile degli stock più appropriate per aree differenti.
Resumo:
Oggi il mercato mondiale dell'anidride maleica (AM) è in continua espansione grazie ad un numero sempre crescente di applicazioni finali e sviluppo di nuove tecnologie industriali. La AM viene impiegata nella produzione di resine poliestere insature e resine alchidiche e nella produzione di chemicals a più alto valore aggiunto. Il processo di sintesi è tutt’ora basato sull'ossidazione selettiva del benzene e del n-butano. Con l’aumento delle emissione di gas serra, legate all’impiego di materie di origine fossile e la loro continua diminuzione, si stanno studiando nuovi processi basati su materie derivanti da fonti rinnovali. Tra i vari processi studiati vi è quello per la sintesi di AM, i quali utilizzano come molecola di furfurale, 5-idrossimetilfurfurale e 1-butanolo; tutte queste presentano però il problema di un costo superiore rispetto alle molecole tutt’ora usate. Ad oggi una delle molecole ottenibili da fonti rinnovabili avente un costo competitivo alle materie derivanti da fonti fossili è il bio-etanolo. Essendo nota la possibilità di trasformare dell’etanolo in composti a 4 atomi di carbonio (C4) come 1-butanolo (reazione di Guerbet) e in 1,3- butadiene (processo Lebedev) su ossidi misti Mg/Si e la loro trasformazioni in AM, è’ dunque possibile ipotizzare un processo operante in fase gas che accoppi entrambi i processi. Lo scopo di questo lavoro di tesi è stato quello di effettuare uno studio su sistemi catalitici mediante differenti approcci impiantistici. Il primo ha previsto l’impiego di un sistema detto “a cascata” nel quale è stato accoppiato il sistema misto a base di Mg/Si/O, per la trasformazione dell’etanolo a C4, e il pirofosfato di vanadile (VPP), per l’ossidazione selettiva di quest’ultimi in AM. Il secondo approccio ha previsto l’impiego di un unico sistema multifunzionale in grado di catalizzare tutti gli step necessari. In quest’ultimo caso, i sistemi studiati sono stati il Mg2P2O7 ed un sistema costituito da VPP DuPont sul quale è stato depositato MgO. I catalizzatori sono stati caratterizzati mediante diffrattometria a raggi X, spettroscopia Raman e analisi dell’area superficiale mediante metodo BET, mentre i test catalitici sono stati condotti su un impianto di laboratorio con un reattore assimilabile ad un modello di tipo PFR.
Resumo:
La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.
Resumo:
Tesi incentrata sull'impatto che la riduzione del lead time di consegna, come strategia commerciale, ha sulla supply chain della Neri SpA. A tale scopo è stato sviluppato un modello basato sulla matrice di Kraljic per la classificazione dei fornitori. La matrice è stata adattata alle esigenze aziendali ed è stato sfruttato il metodo di analisi multicriterio AHP per determinare i pesi dei parametri che compongono la dimensione più complessa della matrice. Sono stati sviluppati i diagrammi di Gantt partendo dai lead time presenti in distinta base. Da questi si sono individuati i percorsi temporalmente critici e dalla loro analisi le filiere critiche per lo sviluppo delle nuove potenzialità commerciali. Le filiere critiche sono state poi analizzate nel loro complesso, andando a verificare il ruolo dei singoli fornitori sfruttando come base di analisi la classificazione effettuata con la matrice di Kraljic. Dall'analisi delle filiere e dal confronto con la funzione commerciale sono state ipotizzate strategie per la riduzione dei lead time e il raggiungimento delle nuove potenzialità commerciali.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
Il makeup, come strumento atto a modificare i tratti somatici di un individuo per aumentarne la bellezza, è largamente diffuso e socialmente accettabile al giorno d’oggi. Per la sua facile reperibilità, semplicità di utilizzo e capacità di alterare le caratteristiche principali di un volto, può diventare uno strumento pericoloso per chi volesse sottrarsi a dei controlli. In questo lavoro di tesi sono stati analizzati algoritmi presenti in letteratura che cercano di arginare gli effetti di alterazione di un viso, causati dal makeup, durante un processo di riconoscimento del volto. Inoltre è stato utilizzato un software per verificare la robustezza dei programmi commerciali in merito al problema del makeup e confrontare poi i risultati riscontrati in letteratura con quelli ottenuti dai test.
Resumo:
In questa tesi si affronta lo studio di piastre isotrope e laminate mediante metodo GDQ e si confrontano i risultati con quelli ottenuti, per le stesse tipologie di piastre, mediante metodo FEM. Lo scopo del lavoro e quello di certificare la maggior efficienza del software di calcolo DiQuMASPAB, basato su teorie in forma forte, rispetto ai tradizionali software di calcolo agli elementi finiti attualmente in commercio. Il confronto ha come obiettivo quello di evidenziare i punti deboli dal punto di vista dell'approssimazione delle soluzioni e del costo computazonale.
Resumo:
Analisi della vulnerabilità sismica degli aggregati edilizi del centro storico di Castelfranco Emilia, contraddistinti dal numero 5,6,7,8,13,14,15,16. Utilizzo del metodo di analisi speditivo ed analitico, con due modalità distinte di calcolo degli indici. Analisi della vulnerabilità delle vie del centro storico di Castelfranco Emilia, in particolare Corso Martiri, Via ripa Superiore e Inferiore, Via Zanasi-P.zza Garibaldi, Via Bertelli, Via Picciolio-Fasani, Via Zanolini-Del Bagno, via Dalla Vacca-Morandi. Definizione dell'indice di vulnerabilità viaria. Classifica di vulnerabilità degli aggregati e delle vie.
Resumo:
L’obiettivo di questo lavoro di tesi è rappresentato dalla definizione di un metodo di ricerca terminologica e documentazione, nonché di traduzione assistita, supportato dalle moderne tecnologie disponibili in questo campo (Antconc, Bootcat, Trados ecc.), valido per la traduzione di questo tipo di documenti, gli standard, ma sfruttabile anche in altri ambiti della traduzione tecnico-scientifica, permettendo al traduttore e, di conseguenza, al committente, di ottenere un documento “accettabile” e qualitativamente idoneo in lingua di arrivo. Il percorso tracciato in questo elaborato parte dalla presentazione del quadro storico generale, per poi passare alla classificazione degli additivi alimentari in base alla tipologia e agli impieghi in campo alimentare. Verranno illustrati in modo generale i metodi di analisi degli additivi e i criteri di validazione dei metodi impiegati, in funzione degli standard internazionali relativi alla materia, rivolgendo particolare attenzione al quadro normativo e alle agli organi coinvolti nella regolamentazione e nel controllo di queste sostanze, sia in Italia che in Russia e nel resto del mondo. Tutto ciò in funzione degli avvenimenti sul piano geopolitico e su quello culturale: da un lato le sanzioni economiche tra UE e Russia, dall’altro EXPO 2015, opportunità per numerosi traduttori e terminologi di approfondire e arricchire le proprie conoscenze in un ambito tanto importante: alimentazione e sicurezza alimentare, in relazione al progetto di gestione terminologica VOCA9. La parte finale della tesi è dedicata alla presentazione degli standard russi GOST R e alla loro traduzione in italiano, in funzione della documentazione e alla ricerca terminologica necessarie per la traduzione tramite CAT tools ed indispensabili per la creazione di glossari.
Resumo:
Nell'ambito dell'elaborazione delle immagini, si definisce segmentazione il processo atto a scomporre un'immagine nelle sue regioni costituenti o negli oggetti che la compongono. Ciò avviene sulla base di determinati criteri di appartenenza dei pixel ad una regione. Si tratta di uno degli obiettivi più difficili da perseguire, anche perché l'accuratezza del risultato dipende dal tipo di informazione che si vuole ricavare dall'immagine. Questa tesi analizza, sperimenta e raffronta alcune tecniche di elaborazione e segmentazione applicate ad immagini digitali di tipo medico. In particolare l'obiettivo di questo studio è stato quello di proporre dei possibili miglioramenti alle tecniche di segmentazione comunemente utilizzate in questo ambito, all'interno di uno specifico set di immagini: tomografie assiali computerizzate (TAC) frontali e laterali aventi per soggetto ginocchia, con ivi impiantate protesi superiore e inferiore. L’analisi sperimentale ha portato allo sviluppo di due algoritmi in grado di estrarre correttamente i contorni delle sole protesi senza rilevare falsi punti di edge, chiudere eventuali gap, il tutto a un basso costo computazionale.
Resumo:
Mi sono occupato di confezionamento di bevande, un settore che utilizza largamente il PET. Il progetto di tesi consiste in un processo che serve a ideare nuove forme di contenitore in PET attraverso strumenti di ricerca e innovazione.