914 resultados para elaborazione di immagini metodi di segmentazione filtri per immagini
Resumo:
La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.
Resumo:
La ricerca condotta per questa tesi è incentrata sulla cosmesi naturale e rappresenta il risultato di un tirocinio avanzato svolto in collaborazione con l'azienda Remedia di Quarto di Sarsina (FC), i cui settori principali sono l'erboristeria e la cosmesi naturale. Lo scopo del progetto consiste nella preparazione di un interprete ad una conferenza sul tema della cosmesi naturale per le lingue italiano e tedesco. L'enfasi viene posta sul metodo da adottare per acquisire sia la terminologia sia le nozioni basilari del dominio in un arco di tempo limitato. Si tratta quindi di una ricerca linguistica incentrata sui termini e sulla fraseologia che ricorrono con maggiore frequenza nel corpus in italiano sul tema trattato. La tesi è suddivisa in quattro capitoli. Il primo capitolo tratta la pelle, la cosmesi tradizionale, gli ingredienti più controversi, i principali marchi di certificazione biologica per la cosmesi, infine descrive l'azienda e i metodi utilizzati per la trasformazione delle piante officinali. Il secondo capitolo introduce la metodologia adottata e i problemi riscontrati nel corso del progetto. Tratta inoltre la linguistica dei corpora connessa agli studi di terminologia, il ruolo svolto dall'esperto, la creazione di corpora specialistici e paragonabili nelle lingue di lavoro, nonchè l'analisi dei termini più ricorrenti e dei loro equivalenti interlinguistici nel loro contesto naturale. Infine introduco il prototipo di tesauro utilizzato per registrare 300 dei termini che ricorrono più frequentemente nel corpus in italiano. Il terzo capitolo presenta una disamina degli aspetti generali della terminologia, delle sue origini e delle principali scuole, in particolare la scuola di Vienna e il contributo di Eugen Wüster. Affronta inoltre le caratteristiche della comunicazione specialistica, ponendo l'accento su tecnicismi collaterali, equivalenza e variazione. Il quarto capitolo tratta nel dettaglio i risultati del progetto corredati da alcune osservazioni a livello cognitivo e terminologico.
Resumo:
In questo lavoro di tesi sono state studiate le caratteristiche di una macchina per tomosintesi Fujifilm AMULET Innovality in uso presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) di Meldola. Le valutazioni sono state fatte utilizzando diversi fantocci, uno dei quali costruito durante il lavoro di tesi. Per la valutazione delle immagini di mammografia digitale e di tomosintesi sono state seguite le linee guida della International Electrotechnical Commission (IEC) e della European Reference Organisation for Quality Assured Breast Screening and Diagnostic Services (EUREF). Per lo studio delle mammografie digitali sono stati valutati, utilizzando i software COQ e ImageJ, i parametri di NPS, MTF e DQE. Per lo studio delle immagini di tomosintesi sono stati appositamente sviluppati degli algoritmi in linguaggio Java, integrati poi all'interno del software COQ. Il programma sviluppato ha permesso di valutare ASF, MTF, NPS e omogeneità delle immagini ricostruite.
Resumo:
Gli obiettivi dell'elaborato sono lo studio e la programmazione di un algoritmo di controllo di temperatura per le superfici termosaldanti di macchine per il packaging (confezionatrici in film a file multiple) prodotte dal committente, OMAG srl. L'algoritmo è implementato tramite il software SoMachineMotion v.4.2, prodotto da Schneider Electrics spa. Il controllo è di tipo in anello chiuso in retroazione, con temocoppie e resistenze di riscaldamento con modulazione PWM. Ci si è inizialmente occupati di testare su banco prova varie tipologie di regolatori: a relay, a isteresi, a ricerca diretta del duty cycle, TBH, con approccio misto TBH/integratore di Clegg, PID. I diversi metodi di regolazione sono stati valutati sulla base di una serie di metri di giudizio (precisione dell'inseguimento, prestazioni statiche e dinamiche, flessibilità, peso computazionale, facilità implementativa), pesati secondo i requisiti imposti dal committente. Le metodologie selezionate sono state PID e TBH/Clegg integrator; quest'ultima ha dato risultati assai soddisfacenti, pur essendo un metodo monoparametrico. Si sono quindi studiate diverse modalità per la taratura del regolatore PID, in particolare: tuning in anello chiuso con metodo a relay per la fase di pretuning, algoritmo di Nelder-Mead, per la ricerca diretta continua dei valori che minimizzano l'errore integrale, per un selftuning adattivo. Si è infine proceduto ad implementare le soluzioni individuate in un software robusto, che rispetti gli standard del settore e si sono inoltre sviluppate una serie di funzionalità aggiuntive, quali: modulazione software PWM, preriscaldamento, handling errori/warning, filtraggio segnali in/out. Si è addizionalmente sviluppato un modello matematico predittivo dell'evoluzione del sistema, che potrebbe servire, in un futuro sviluppo, come base per un controllo model-based in cascata al controllo in retroazione studiato.
Resumo:
I depositi di liquidi infiammabili sono stabilimenti industriali in cui avvengono spesso incendi di grandi dimensioni a causa degli ingenti quantitativi di sostanze infiammabili detenute. Gli incendi tipici dei liquidi infiammabili sono gli incendi di pozza in caso di rilascio del liquido al suolo e gli incendi di serbatoio in caso di ignizione del liquido all’interno del serbatoio stesso. Tali incendi hanno la potenzialità di danneggiare le apparecchiature limitrofe, determinandone il cedimento e dunque l’incremento delle dimensioni dell’incendio e dell’area di danno; tale fenomeno è detto effetto domino. Per la modellazione degli incendi sono disponibili diversi strumenti, divisibili essenzialmente in due categorie: modelli semplici, ovvero basati su correlazioni semi-empiriche e modelli avanzati, costituiti dai codici CFD. L’obiettivo principale del presente lavoro di tesi è il confronto tra le diverse tipologie di strumenti disponibili per la modellazione degli incendi di liquidi infiammabili. In particolare sono stati confrontati tra loro il codice FDS (Fire Dynamics Simulator), il metodo del TNO ed il modello per gli incendi di pozza incorporato nel software ALOHA. Il codice FDS è un modello avanzato, mentre il metodo del TNO ed il modello implementato nel software ALOHA sono modelli semplici appartenenti alla famiglia dei Solid Flame Models. La prima parte del presente lavoro di tesi è dedicata all’analisi delle caratteristiche e delle problematiche di sicurezza dei depositi di liquidi infiammabili, con specifico riferimento all’analisi storica. Nella seconda parte invece i tre metodi sopra citati sono applicati ad un parco serbatoi di liquidi infiammabili ed è effettuato il confronto dei risultati, anche ai fini di una valutazione preliminare dell’effetto domino. La tesi è articolata in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono richiamati i principali concetti riguardanti gli incendi e vengono analizzate le caratteristiche e le problematiche di sicurezza dei depositi di liquidi infiammabili. Il Capitolo 3 è dedicato alla discussione delle caratteristiche degli incendi di pozza, alla presentazione delle tipologie di strumenti a disposizione per la loro modellazione ed alla descrizione di dettaglio dei modelli utilizzati nel presente lavoro di tesi. Il Capitolo 4 contiene la presentazione del caso di studio. Nel Capitolo 5, che costituisce il cuore del lavoro, i modelli descritti sono applicati al caso di studio, con un’approfondita discussione dei risultati e una valutazione preliminare dell’effetto domino. Nel Capitolo 6 infine sono riportate alcune considerazioni conclusive.
Resumo:
Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.
Resumo:
La quantità di dati che vengono generati e immagazzinati sta aumentando sempre più grazie alle nuove tecnologie e al numero di utenti sempre maggiore. Questi dati, elaborati correttamente, permettono quindi di ottenere delle informazioni di valore strategico che aiutano nell’effettuare decisioni aziendali a qualsiasi livello, dalla produzione fino al marketing. Sono nati soprattutto negli ultimi anni numerosi framework proprietari e open source che permettono l'elaborazione di questi dati sfruttando un cluster. In particolare tra i più utilizzati e attivi in questo momento a livello open source troviamo Hadoop e Spark. Obiettivo di questa tesi è realizzare un modello di Spark per realizzare una funzione di costo che sia non solo implementabile all’interno dell’ottimizzatore di Spark SQL, ma anche per poter effettuare delle simulazioni di esecuzione di query su tale sistema. Si è quindi studiato nel dettaglio con ducumentazione e test il comportamento del sistema per realizzare un modello. I dati ottenuti sono infine stati confrontati con dati sperimentali ottenuti tramite l'utilizzo di un cluster. Con la presenza di tale modello non solo risulta possibile comprendere in maniera più approfondita il reale comportamento di Spark ma permette anche di programmare applicazioni più efficienti e progettare con maggiore precisione sistemi per la gestione dei dataset che sfruttino tali framework.
Resumo:
Al giorno d’oggi quasi tutte le persone possiedono un mezzo motorizzato che utilizzano per spostarsi. Tale operazione, che risulta semplice per una persona, può essere compiuta da un robot o un autoveicolo in modo autonomo? La risposta a questa domanda è si, ma se ad una persona serve solo un po’ di pratica per guidare, questa azione non risulta altrettanto immediata per dei veicoli motorizzati. In soccorso ad essi vi è la Computer Vision, un ramo dell’informatica che, in un certo senso, rende un elaboratore elettronico in grado di percepire l’ambiente circostante, nel modo in cui una persona fa con i propri occhi. Oggi ci concentreremo su due campi della computer vision, lo SLAM o Simultaneous Localization and Mapping, che rende un robot in grado di mappare, attraverso una camera, il mondo in cui si trova ed allo stesso tempo di localizzare, istante per istante, la propria posizione all’interno di esso, e la Plane Detection, che permette di estrapolare i piani presenti all’interno di una data immagine.
Resumo:
L’antibiotico resistenza negli enterobatteri produttori di carbapenemasi (CPE) rappresenta una problematica emergente in sanità pubblica, dato che le opzioni alternative per il trattamento di pazienti infetti sono limitate. L’andamento epidemiologico di CPE a livello globale appare ad oggi molto variegato con differenze significative tra paesi. In Italia la diffusione di K. pneumoniae produttrice di KPC è endemica ed è stimata essere un terzo (32,9%) delle infezioni invasive (sangue e liquor) da K. pneumoniae. Pertanto, diventa indispensabile implementare gli studi di farmaco-resistenza per valutare e ridurre il potenziale di crescita di tali microrganismi. Questo studio presenta come fine la valutazione del Beta Carba test, metodo cromogeno, per il rapido rilevamento di CPE in confronto con il metodo standard di riferimento. Lo studio è stato svolto presso l’U.O. Microbiologia AUSL della Romagna ed è di natura retrospettiva, di tipo esclusivamente qualitativo. Sono stati analizzati 412 campioni completamente anonimizzati: 50 emocolture, 250 urine e 112 tamponi rettali di sorveglianza. La valutazione del test è stata condotta sia direttamente a partire dalle matrici biologiche (emocolture e urinocolture positive) che dalle colonie isolate di CPE da tamponi rettali di sorveglianza, urine o emocolture. I risultati sperimentali ottenuti in vitro con il β Carba, mostrano una totale concordanza con i metodi sia fenotipici che genotipici utilizzati come riferimento: sono state ottenute sensibilità e specificità del 100%. Inoltre, a favore del test si inserisce il parametro fondamentale della rapidità, consentendo quindi una celere rilevazione di CPE direttamente su campioni clinici con un tempo di risposta piuttosto veloce e affidabile pari a 15-30 minuti. In definitiva, grazie alla performance dimostrata in vitro, il test può rappresentare un valido strumento per arginare e limitare lo spreading di CPE, svolgendo un buon ruolo nella gestione dei pazienti infetti.
Resumo:
Lo scopo di questa trattazione è quindi di illustrare il lavoro svolto nel tentativo di classificare le reazioni emozionali ad immagini con una forte carica emozionale, sia positiva che negativa. A tale scopo sono stati acquisiti i segnali EEG di diversi soggetti durante l’esposizione ad immagini di vario contenuto, insieme alla loro reazione dichiarata alle immagini stesse. Queste sono state immagazzinate, elaborate utilizzando diversi metodi di estrazione delle informazioni, ed infine si è tentato di effettuare un riconoscimento di pattern sui segnali tramite algoritmi di apprendimento supervisionato; i dati sono stati quindi divisi tra dati di “training”, utilizzati per la strutturazione dell’algoritmo, e dati di test, necessari per la verifica dell’affidabilità dell’algoritmo.
Resumo:
Il mondo dell’Internet of Things e del single board computing sono settori in forte espansione al giorno d’oggi e le architetture ARM sono, al momento, i dominatori in questo ambito. I sistemi operativi e i software si stanno evolvendo per far fronte a questo cambiamento e ai nuovi casi d’uso che queste tecnologie introducono. In questa tesi ci occuperemo del porting della distribuzione Linux Sabayon per queste architetture, la creazione di un infrastruttura per il rilascio delle immagini e la compilazione dei pacchetti software.
Resumo:
In questo elaborato viene sperimentato un iter processuale che consenta di utilizzare i sensori termici affiancati a fotocamere digitale in ambito fotogrammetrico al fine di ottenere prodotto dal quale sono estrapolabili informazioni geometriche e termiche dell’oggetto di studio. Il rilievo fotogrammetrico è stato svolto mediante l’utilizzo di un drone con equipaggiamento multisensoriale, termico e digitale, su una porzione di territorio soggetto ad anomalie termiche nei pressi di Medolla (MO). Per l’analisi termica e geometrica sono stati posizionati sul campo 5 target termici di cui ne sono state misurate le coordinate per la georeferenziazione delle nuvole dense di punti e la temperatura. In particolare sono state eseguite due riprese aeree dalle quali sono stati estratti i frame necessari per i processi di restituzione fotogrammetrica. Le immagini sono state sottoposte ad una fase di trattamento che ha prodotto immagini rettificate prive di delle distorsioni impresse dall’obbiettivo. Per la creazione degli elaborati vettoriali e raster a colori e termici sono stati impiegati inizialmente software di fotogrammetria digitale in grado di fornire scene tridimensionali georeferenziate dell’oggetto. Sono state sviluppate sia in un ambiente open-source, sia sfruttando programmi commerciali. Le nuvole dense sono state successivamente trattate su una piattaforma gratuita ad interfaccia grafica. In questo modo è stato possibile effettuare dei confronti tra i diversi prodotti e valutare le potenzialità dei software stessi. Viene mostrato come creare un modello tridimensionale, contenente sia informazioni geometriche che informazioni termiche, partendo dalla nuvola termica e da quella a colori. Entrambe georeferenziate utilizzando gli stessi punti fotogrammetrici d’appoggio. Infine i prodotti ottenuti sono stati analizzati in un ambiente GIS realizzando sovrapposizioni grafiche, confronti numerici, interpolazioni, sezioni e profili.
Resumo:
L’oggetto di questo elaborato riguarda lo studio prestazionale di un Solid Rocket Motor mediante l’introduzione del fattore di “Hump”, che va a compensare il discostamento tra il profilo delle pressioni sperimentali e teoriche, cercando di legare tali variazioni a spiegazioni fisiche. In particolare andremo ad investigare, all’interno di due differenti tipologie di colata, quale sia l’effetto predominante all’interno del propellente che genera proprio tali discostamenti della pressione, e quindi della spinta, rispetto alla condizione ideale. Nell’elaborato verranno anzitutto presentate le diverse tipologie di propulsori, i loro singoli componenti, i parametri fondamentali che regolano la meccanica di questa tipologia di motori, le tipologie di grain esistenti e le loro caratteristiche. Successivamente descriveremo le BARIA (Bomb ARIAne), usate per i test del grain nella ditta AVIO s.p.a., e le tipologie di riempimento di questo motore, investigando i fenomeni fisici a cui sarà legato l’effetto di “Hump”. In seguito si descriverà il fattore di “Hump”, evidenziando, per le differenti tipologie di riempimento, i fenomeni fisici a cui sarà legato il discostamento tra le pressioni sperimentali e teoriche. Verranno poi descritti i programmi utilizzati, gli script in Matlab prodotti, al fine di ottenere le mappe relative all’orientazione ed alla concentrazione delle particelle, da introdurre nel simulatore. Infine verranno esposti i risultati ottenuti e confrontati con i dati sperimentali forniti dalla ditta AVIO s.p.a., le conclusioni e gli sviluppi futuri.
Resumo:
Progettazione di dettaglio di un banco di prova per testare sistemi ADCS per CubeSat: Alma Test-Bed. Ci si è concentrati sul progetto di un primo nucleo di AlmaTB in grado di testare il controllo di tipo magnetico. Fanno parte di AlmaTB una gabbia di Helmholtz, un air-bearing system, un CubeSat di test, un metrology system. La gabbia di Helmholtz è un apparato costituito da tre coppie di bobine, una per ogni asse spaziale, che serve ad annullare il campo magnetico locale e simulare quello che si troverà in orbita attorno alla Terra. Un software ricava i dati del campo magnetico terrestre da modello IGRF a determinate coordinate e quota e fornisce agli alimentatori del set di bobine l'indicazione della corrente da distribuire. L'air-bearing system è un cuscinetto d'aria generato da un compressore che serve a ricreare le caratteristiche condizioni dell'ambiente spaziale di microgravità e attrito quasi-zero. Il CubeSat di test sarà montato su questo sistema. Il CubeSat di test, nella prima versione di AlmaTB, contiene i sensori e gli attuatori di tipo magnetico per determinare e controllare l'assetto di un nanosatellite. Il magnetometro presente all'interno è utilizzato anche come controllo del funzionamento della gabbia di Helmholtz. Il metrology system traccia i movimenti e l'inclinazione del CubeSat. Questo fornisce il riferimento di assetto vero, in modo da capire se il sistema ADCS lavora correttamente. Una volta che il banco di prova sarà completato e operativo sarà possibile testare algoritmi di determinazione e controllo di assetto che utilizzano diversi dispositivi tra sensori e attuatori disponibili nel mock-up. Su una workstation sono installati i software di controllo ed elaborazione dati. Si è scelto di procedere con un approccio di tipo "chiavi in mano", cioè scegliendo, quando disponibile, sistemi già completi e disponibili sul mercato. La prima versione di AlmaTB nasce dall'importante, vasto lavoro di matching tra i diversi apparati.
Resumo:
I processi di separazione sono tra quelli che consumano più energia nelle nazioni maggiormente industrializzate, questo rende necessaria la ricerca continua di tecnologie e materiali che siano in grado di aumentarne l’efficienza. Uno dei principali campi di studio di questa ricerca riguarda la separazione di gas, in cui le membrane polimeriche si candidano come principale alternativa innovativa ai metodi classici. Questo lavoro di tesi mira all’analisi delle variabili che governano il trasposto di gas attraverso membrane polimeriche di tipo vetroso, alla comprensione dei fenomeni destabilizzanti quali aging e plasticizzazione in termini di cause ed effetti e alla primaria rielaborazione dei dati di letteratura relativi agli stessi fenomeni per verificare analiticamente quanto studiato nella parte precedente. Per fare ciò, operativamente, ci si è serviti del supporto di articoli scientifici che trattano il tema, andando ad estrapolare dati e informazioni rilevanti e delle indicazioni del professor Minelli che da anni è impegnato nella ricerca su questi materiali. Dopo una prima parte introduttiva riguardante le tecnologie a membrana e le loro applicazioni, si passa allo studio approfondito della teoria e alla discussione dei due fenomeni, ai quali viene dedicato un capitolo ciascuno per capirne nel dettaglio le implicazioni che comportano nell’utilizzo di tecnologie a membrane polimeriche. Nella rielaborazione ci si sofferma poi sui film sottili, nell’ordine del micron, che corrispondo alle dimensioni tipiche delle membrane utilizzate per la separazione di gas. Ci si focalizza su miscele contenenti anidride carbonica, gas di estremo interesse sia perché è uno dei maggiori contributori al fenomeno del surriscaldamento globale, sia perché è uno dei principali responsabili della plasticizzazione di un polimero, per via della sua buona solubilità. Si conclude l’elaborato con una breve analisi sulle possibili contromisure riguardanti aging e plasticizzazione.