998 resultados para Tecniche di enhancement, Impronte digitali, Riconoscimento biometrico


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La messa a punto di tecniche come il patch clamp e la creazione di doppi strati lipidici artificiali (artificial bilayers) ha permesso di effettuare studi su canali ionici per valutarne la permeabilità, la selettività ionica, la dipendenza dal voltaggio e la cinetica, sia in ambito di ricerca, per analizzarne il funzionamento specifico, sia in quello farmaceutico, per studiare la risposta cellulare a nuovi farmaci prodotti. Tali tecniche possono essere inoltre impiegate nella realizzazione di biosensori, combinando così i vantaggi di specificità e sensibilità dei sistemi biologici alla veloce risposta quantitativa degli strumenti elettrochimici. I segnali in corrente che vengono rilevati con questi metodi sono dell’ordine dei pA e richiedono perciò l’utilizzo di strumentazioni molto costose e ingombranti per amplificarli, analizzarli ed elaborarli correttamente. Il gruppo di ricerca afferente al professor Tartagni della facoltà di ingegneria di Cesena ha sviluppato un sistema miniaturizzato che possiede molte delle caratteristiche richieste per questi studi. L’obiettivo della tesi riguarda la caratterizzazione sperimentale di tale sistema con prove di laboratorio eseguite in uno spazio ridotto e senza l’impiego di ulteriori strumentazioni ad eccezione del PC. In particolare le prove effettuate prevedono la realizzazione di membrane lipidiche artificiali seguita dall’inserimento e dallo studio del comportamento di due particolari canali ionici comunemente utilizzati per questa tipologia di studi: la gramicidina A, per la facilità d’inserimento nella membrana e per la bassa conduttanza del singolo canale, e l’α-emolisina, per l’attuale impiego nella progettazione e realizzazione di biosensori. Il presente lavoro si sviluppa in quattro capitoli di seguito brevemente riassunti. Nel primo vengono illustrate la struttura e le funzioni svolte dalla membrana cellulare, rivolgendo particolare attenzione ai fosfolipidi e alle proteine di membrana; viene inoltre descritta la struttura dei canali ionici utilizzati per gli esperimenti. Il secondo capitolo comprende una descrizione del metodo utilizzato per realizzare i doppi strati lipidici artificiali, con riferimento all’analogo elettrico che ne risulta, ed una presentazione della strumentazione utilizzata per le prove di laboratorio. Il terzo e il quarto capitolo sono dedicati all’elaborazione dei dati raccolti sperimentalmente: in particolare vengono prima analizzati quelli specifici dell’amplificatore, quali quelli inerenti il rumore che si somma al segnale utile da analizzare e la variabilità inter-prototipo, successivamente si studiano le prestazioni dell’amplificatore miniaturizzato in reali condizioni sperimentali e dopo aver inserito i canali proteici all’interno dei bilayers lipidici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel settore dell'elettronica organica, i monocristalli organici sono particolarmente indicati, grazie al loro alto grado di purezza chimica, per lo studio delle qualità intrinseche di tutta la categoria dei cristalli organici. L'interesse applicativo si concretizza in dispositivi come LED, pannelli solari, sensori, display e componenti elettronici leggeri, flessibili e trasparenti. A tutto questo si aggiungono la biocompatibilità, il basso costo ed il basso impatto ambientale. L'obiettivo del seguente lavoro di tesi è la caratterizzazione di alcuni monocristalli in base alle loro proprietà ottiche ed optoelettroniche, analizzandoli mediante tecniche microscopiche in luce polarizzata e campo scuro e tecniche spettroscopiche di assorbimento e del voltaggio superficiale. Si è concentrata l'attenzione sul monocristallo di 4-idrossicianobenzene (4HCB), per la possibilità di confronto con risultati di precedenti analisi di spettroscopia in fotocorrente e per l'interesse verso applicazioni sensoristiche. Come risultato, per la prima volta, si è riuscito a ottenere uno spettro di assorbimento da un monocristallo di 4HCB dal quale si può stimare direttamente l'energia del bandgap del cristallo. Il valore ottenuto è minore di quello relativo all'analisi in fotocorrente, ma potrebbe corrispondere ad un bandgap di tipo ottico considerando che la presenza di stati localizzati dovuta al disordine molecolare provoca una diminuzione della distanza tra le bande. La misura è preliminare è va confermata, ma apre la strada ad ulteriori analisi spettroscopiche in condizioni sperimentali più favorevoli e/o ad analisi di altro tipo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi tematizza come proprio oggetto di indagine i percorsi di partecipazione politica e civica dei giovani nei contesti di transizione alla vita adulta, concentrandosi sull’influenza delle relazioni tra generazioni su tali espressioni di coinvolgimento. L’approfondimento empirico consiste in una ricerca qualitativa condotta presso il quartiere Navile di Bologna nel 2012. Basandosi sull’approccio metodologico della grounded theory, essa ha coinvolto un campione di giovani e un campione di adulti per loro significativi attraverso interviste semistrutturate. Dall’analisi emerge una rilevante disaffezione giovanile nei confronti della politica che, tuttavia, non traduce in un rifiuto del coinvolgimento, ma in una “partecipazione con riserva” espressa attraverso atteggiamenti tutt’altro che passivi nei confronti della politica formale - basati sulla logica della riforma, della resistenza o della ribellione - e mediante un forte investimento in attività partecipative non convenzionali (associazionismo e coinvolgimento). A fare da sfondo all’interesse partecipativo dei giovani si colloca una lettura negativa della propria condizione presente ed un conseguente conflitto intergenerazionale piuttosto manifesto, che si riflette sulle stesse modalità di attivazione. La politica, nelle sue espressioni più strettamente formali, viene interpretata come un ‘territorio adulto’, gestito secondo logiche che lasciano poco spazio ai giovani i quali, per tale ragione, scelgono di attivarsi secondo modalità alternative in cui il confronto con l’altro, quando presente, avviene prevalentemente tra pari o su basi avvertite come più paritarie. Il distanziamento dei giovani dalla politica formale riflette quindi una parallela presa di distanza dagli adulti, i quali risultano smarriti nello svolgimento delle loro funzioni di modello e di riconoscimento. La loro ambivalenza rispetto ai giovani - ossia il continuo oscillare tra il profondo pessimismo e il cieco ottimismo, tra la guida direttiva e la deresponsabilizzazione - si traduce in un riconoscimento parziale delle reali potenzialità ed esigenze dei giovani come cittadini ed adulti emergenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo di questa tesi di laurea è quello di descrivere le principali caratteristiche delle mappe digitali e dei sistemi di navigazione che possono essere fruiti dagli utenti attraverso l’utilizzo di dispositivi con diverse caratteristiche (quali i dispositivi mobili, come smart phone, tablet, eccetera). Questi sistemi offrono dei servizi estremamente utili, che mirano a migliorare la mobilità e l’indipendenza dell’utente e, quindi, possono rappresentare un valido supporto agli utenti con disabilità che desiderano spostarsi negli ambienti urbani in modo autonomo. D’altra parte, i contenuti digitali e i servizi offerti dalle mappe e dai sistemi di navigazione possono comportare delle barriere tecnologiche che influenzano la fruizione e la navigazione da parte di questi utenti. Nell’ambito di questa tesi saranno descritte anche le caratteristiche tecniche delle mappe digitali e dei sistemi di navigazione, con particolare attenzione alle barriere tecnologiche che queste possono rappresentare per gli utenti con disabilità. Infine, l’obiettivo principale di questa tesi è quello di illustrare alcuni progetti di ricerca che offrono delle soluzioni e dei validi supporti agli utenti con differenti disabilità nell’accesso e nella fruizione delle mappe digitali e dei sistemi di navigazione. In particolare, saranno presentati i progetti di ricerca più interessanti e quelli che maggiormente hanno avuto un riscontro pratico, offrendo delle soluzioni effettivamente utilizzabili dagli utenti che fanno uso di determinate tecnologie assistive e che hanno vincoli e bisogni specifici. Nell’ambito di questa tesi sarà dato spazio anche a progetti che offrono agli utenti mappe tematiche (comunque accessibili) che mirano ad offrire informazioni sull’accessibilità urbana, consentendo, così, agli utenti di avere dati aggiuntivi e di migliorare ulteriormente la loro autonomia nel muoversi in città.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La demolizione idrolitica delle pareti cellulari delle piante tramite enzimi lignocellulosici è quindi uno degli approcci più studiati della valorizzazione di scarti agricoli per il recupero di fitochimici di valore come secondary chemical building block per la chimica industriale. White rot fungi come il Pleurotus ostreatus producono una vasta gamma di enzimi extracellulari che degradano substrati lignocellulosici complessi in sostanze solubili per essere utilizzati come nutrienti. In questo lavoro abbiamo studiato la produzione di diversi tipi di enzimi lignocellulosici quali cellulase, xilanase, pectinase, laccase, perossidase e arylesterase (caffeoilesterase e feruloilesterase), indotte dalla crescita di Pleurotus ostreatus in fermentazione allo stato solido (SSF) di sottoprodotti agroalimentari (graspi d’uva, vinaccioli, lolla di riso, paglia di grano e crusca di grano) come substrati. Negli ultimi anni, SSF ha ricevuto sempre più interesse da parte dei ricercatori, dal momento che diversi studi per produzioni di enzimi, aromi, coloranti e altre sostanze di interesse per l' industria alimentare hanno dimostrato che SSF può dare rendimenti più elevati o migliorare le caratteristiche del prodotto rispetto alla fermentazione sommersa. L’utilizzo dei sottoprodotti agroalimentari come substrati nei processi SSF, fornisce una via alternativa e di valore, alternativa a questi residui altrimenti sotto/o non utilizzati. L'efficienza del processo di fermentazione è stato ulteriormente studiato attraverso trattamenti meccanici di estrusione del substrato , in grado di promuovere il recupero dell’enzima e di aumentare l'attività prodotta. Le attività enzimatiche prodotte dalla fermentazione sono strettamente dipendente della rimozione periodica degli enzimi prodotti. Le diverse matrici vegetali utilizzate hanno presentato diversi fenomeni induttivi delle specifiche attività enzimatiche. I processi SSF hanno dimostrato una buona capacità di produrre enzimi extracellulari in grado di essere utilizzati successivamente nei processi idrolitici di bioraffinazione per la valorizzazione dei prodotti agroalimentari.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduzione: L’indicazione alla rivascolarizzazione carotidea è comunemente posta in base alla percentuale di stenosi, alla presenza di sintomi neurologici ed alle condizioni cliniche del paziente. Una placca ad elevato potenziale embolico viene definita “vulnerabile”; la sua caratterizzazione, tuttavia, non è universalmente accettata ai fini della rivascolarizzazione. Lo scopo dello studio è indagare il ruolo del mezzo di contrasto ecografico (CEUS) nell’identificazione della placca carotidea vulnerabile. Materiali e Metodi: I pazienti sottoposti a endoarterectomia carotidea, sono stati valutati mediante TC cerebrale preoperatoria e CEUS. Le microbolle di contrasto rilevate nella placca, indicative di neovascolarizzazione, sono state quantificate in dB-E ed istologicamente valutate per cinque caratteristiche: (densità dei microvasi, spessore del cappuccio fibroso, estensione delle calcificazioni, infiltrato infiammatorio e core lipidico) il valore da 1 a 5, ottenuto in cieco, indica in grado di vulnerabilità della placca. L'ANOVA test, il test di Fisher e t Student sono stati usati per correlare le caratteristiche dei pazienti ed istologiche col valore di dB-E. Risultati: Di 22 pazienti (range 2-7.8, media 4.85 ±1.9 SD) vi era un numero più alto di sintomatici (7.40 ± 0.5) rispetto agli asintomatici (3.5 ± 1.4) (p = 0.002). Un più alto valore di dB-E si associava con la presenza di un sottile cappuccino fibroso (<200 µm, 5.96±1.5 vs. 3 ± 1,p = 0.01) ed un maggiore infiltrato infiammatorio (3.2 ± 0.9 vs. 6.4 ± 1.2, p = 0.03). Placche con vulnerabilità 5 si associavano ad un valore più alto di dB-E rispetto alle placche con vulnerabilità 1 (7.6 ± 0.2 vs. 2.5 ± 0.6, rispettivamente, p=0.001). Preoperatoriamente, le lesioni emboliche ipsilaterali alla TC, correlavano con un più alto valore di dB-E (5.96±1.5 vs. 3.0±1.0, p=0.01). Conclusioni: Il valore di dB-E alla CEUS indica l’estensione della neovascolarizzazione della placca carotidea e può essere utilizzato come marker di vulnerabilità della placca.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background: sebbene la letteratura recente abbia suggerito che l’utilizzo degli impianti corti possa rappresentare una alternative preferibile alle procedure di rigenerazione ossea nelle aree posteriori atrofiche, perché è un trattamento più semplice e con meno complicazioni, esistono solo pochi studi a medio e lungo termine che abbiano comparato queste tecniche. Scopo: lo scopo di questo studio retrospettivo è quello di valutare se gli impianti corti (6-8 mm) (gruppo impianti corti) possano presentare percentuali di sopravvivenza e valori di riassorbimento osseo marginali simili a impianti di dimensioni standard (≥11 mm) inseriti contemporaneamente ad una grande rialzo di seno mascellare. Materiali e Metodi: in totale, 101 pazienti sono stati inclusi: 48 nel gruppo impianti corti e 53 nel gruppo seno. In ciascun paziente da 1 a 3 impianti sono stati inseriti e tenuti sommersi per 4-6 mesi. I parametri clinici e radiografici valutati sono: i fallimenti implantari, le complicazioni, lo stato dei tessuti molli, e il riassorbimento osseo marginale. Tutti i pazienti sono stati seguiti per almeno 3 anni dal posizionamento implantare. Risultati: il periodo di osservazione medio è stato di 43.47 ± 6.1 mesi per il gruppo impianti corti e 47.03 ± 7.46 mesi per il gruppo seno. Due su 101 impianti corti e 6 su 108 impianti standard sono falliti. Al follow-up finale, si è riscontrato un riassorbimento osseo medio di 0.47 ± 0.48 mm nel gruppo impianti corti versus 0.64 ± 0.58 mm nel gruppo seno. Non sono presenti differenze statisticamente significative fra i gruppi in termini di fallimenti implantari, complicazioni protesiche, tessuti molli, e riassorbimento osseo. Il gruppo seno ha presentato, invece, un maggior numero di complicazioni chirurgiche. Conclusioni: entrambe le tecniche hanno dimostrato un simile tasso di successo clinico e radiografico, ma gli impianti corti hanno ridotto il numero di complicazioni chirurgiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Internet of Energy è un progetto di ricerca europeo nato con lo scopo di sviluppare infrastrutture hardware e software volte a introdurre la mobilità elettrica veicolare nei moderni contesti urbani. È stato oggetto di tesi di Federco Montori il quale ha sviluppato un primo prototipo di piattaforma comprendente un servizio cittadino di gestione delle ricariche, un’applicazione mobile che vi interagiva e infine un simulatore necessario al test della piattaforma. Nel corso di oltre un anno di sviluppo ho riscritto tutte le componenti software che costituivano il progetto ampliandone notevolmente le funzionalità, rendendole modulari e ben ingegnerizzate. Del progetto originario è stata ereditata l’architettura ontology-based basata sullo scambio di informazioni tramite il Semantic Information Broker (SIB). Il mio contributo è iniziato nel 2012 con la riscrittura dell’applicazione mobile che inizialmente funzionava solo in presenza del simulatore. Attualmente permette di interfacciarsi a un veicolo reale tramite la tecnologia Blue&Me di Fiat. Questo approccio è stato reso possibile grazie all’opportunità offerta dal Centro Ricerche Fiat, che ci ha permesso di testare presso loro sede l’applicazione mobile su un prototipo di Daily elettrico. Ho inoltre introdotto lo studio del profilo altimetrico e consumo energetico che separa il possessore dello smartphone da una determinata destinazione. Nel 2013 ho deciso di riscrivere il Servizio Cittadino per renderlo conforme a un nuovo protocollo di prenotazione. Ho colto l’occasione per rendere il servizio altamente performante grazie a tecniche quali: pool di thread, pool di oggetti e caching. Infine a cavallo tra il 2013 e il 2014 ho riscritto il simulatore al fine di ottimizzare il consumo di risorse, velocizzare il setup delle simulazioni e sopratutto renderlo più conforme alla realtà. Questo lavoro ha permesso di avere una piattaforma software che permette di valutare realisticamente gli scenari di mobilità elettrica veicolare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è stato quello di migliorare l’efficacia e l’efficienza di una proposta allo stato dell’arte per l’individuazione di punti salienti in immagini digitali [1]. Questo algoritmo sfrutta le proprietà dell’equazione alle derivate parziali che modella l’evoluzione di un’onda. Per migliorarlo sono stati implementati alcuni schemi numerici di risoluzione dell’equazione delle onde bidimensionale e sono stati valutati rispetto allo schema già utilizzato. Sono stati implementati sia schemi impliciti sia schemi espliciti, tutti in due versioni: con interlacciamento con l’equazione del calore (diffusivi) e senza. Lo studio dei migliori schemi è stato approfondito e questi ultimi sono stati confrontati con successo con la versione precedentemente proposta dello schema esplicito INT 1/4 con diffusione [1]. In seguito è stata realizzata una versione computazionalmente più efficiente dei migliori schemi di risoluzione attraverso l’uso di una struttura piramidale ottenuta per sotto-campionamento dell’immagine. Questa versione riduce i tempi di calcolo con limitati cali di performance. Il tuning dei parametri caratteristici del detector è stato effettuato utilizzando un set di immagini varianti per scala, sfocamento (blur), punto di vista, compressione jpeg e variazione di luminosità noto come Oxford dataset. Sullo stesso sono stati ricavati risultati sperimentali che identificano la proposta presentata come il nuovo stato dell’arte. Per confrontare le performance di detection con altri detector allo stato dell’arte sono stati utilizzati tre ulteriori dataset che prendono il nome di Untextured dataset, Symbench dataset e Robot dataset. Questi ultimi contengono variazioni di illuminazione, momento di cattura, scala e punto di vista. I detector sviluppati risultano i migliori sull’Untextured dataset, raggiungono performance simili al miglior detector disponibile sul Symbench dataset e rappresentano il nuovo stato dell’arte sul Robot dataset.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi riflette sulla necessità di un ripensamento delle scienze antropologiche nel senso di un loro uso pubblico e del loro riconoscimento al di fuori dell’accademia. Viene introdotto il dibattito sulla dimensione applicata dell’antropologia a partire dalle posizioni in campo nel panorama internazionale. Negli Stati Uniti la riflessione si sviluppa dalla proposta della public anthropology, l’antropologo pubblico si discosta dalla tradizionale figura europea di intellettuale pubblico. Alla luce delle varie posizioni in merito, la questione dell’applicazione è esaminata dal punto di vista etico, metodologico ed epistemologico. Inizialmente vengono prese in considerazione le diverse metodologie elaborate dalla tradizione dell’applied anthropology a partire dalle prime proposte risalenti al secondo dopoguerra. Successivamente viene trattata la questione del rapporto tra antropologia, potere coloniale e forze armate, fino al recente caso degli antropologi embedded nello Human Terrain System. Come contraltare vengono presentate le diverse forme di engagement antropologico che vedono ricercatori assumere diversi ruoli fino a casi estremi che li vedono divenire attivisti delle cause degli interlocutori. La questione del ruolo giocato dal ricercatore, e di quello che gli viene attribuito sul campo, viene approfondita attraverso la categoria di implication elaborata in contesto francese. Attraverso alcune esperienze di campo vengono presentate forme di intervento concreto nel panorama italiano che vogliono mettere in luce l’azione dell’antropologo nella società. Infine viene affrontato il dibattito, in corso in Italia, alla luce della crisi che sta vivendo la disciplina e del lavoro per la costituzione dell’associazione nazionale di antropologia professionale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Imprese di piccole e grandi dimensioni hanno dovuto convivere con il ritmo di uscita di nuovi e più potenti modelli di PC, consolle per videogiochi, telefoni cellulari, tablet, fotocamere digitali. I cicli di vita si sono ridotti drasticamente, tanto da far sembrare un’emergenza il rilascio di un nuovo prodotto quasi ogni anno. Le aziende, se ancora non lo hanno fatto, sono chiamate ad affrontare una transizione interna per aggiornare le politiche aziendali in modo da stare al passo con il progresso tecnologico. Se un tempo le regole interne vietavano o scoraggiavano l’utilizzo di dispositivi personali nell’ambiente di lavoro, nell’era moderna sono costrette ad accettarlo se non addirittura ad incoraggiarlo ed il fenomeno che mi accingerò ad analizzare in questo elaborato, denominato Bring Your Own Device (BYOD), punta proprio all’esplorazione degli sforzi progettuali che sono richiesti ad una grande azienda multinazionale per poter recepire i trend informatici. Con più di cinque miliardi di dispositivi mobili in tutto il mondo – e solo 2 miliardi di computer – il passaggio al ‘mobile’ come forma principale di collegamento alle reti aziendali procede con sempre maggiore rapidità. Negli anni recenti si è potuto assistere all’evoluzione del panorama di dispositivi portatili che ha permesso ad un pubblico di users sempre più vasto di potersi permettere l’acquisto di dispositivi di ultima generazione a prezzi non proibitivi. I fornitori di tecnologie hanno confezionato prodotti sempre più pensati per un uso privato, fornendo un’ampia scelta di soluzioni non solo a livello enterprise, come accadeva agli albori del boom tecnologico, ma maggiormente rivolte al singolo consumatore. Guardando ai trend sviluppatisi negli anni recenti, è possibile riconoscere una scia di segnali che preannunciavano quanto sta avvenendo adesso con il BYOD.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dissertazione espone le tecniche che sono alla base della modellazione e della simulazione di centrali idroelettriche, focalizzando l’attenzione sul sistema idraulico, che rappresenta il suo elemento costitutivo più importante e problematico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In alcuni paesi in via di sviluppo la forte crescita demografica ha favorito l’insinuarsi di un sistema consumistico, che comporta la generazione di ingenti quantitativi di rifiuti urbani. In tali paesi il problema è aggravato dalla progressiva urbanizzazione, con la conseguente necessità di smaltire i rifiuti solidi urbani nelle immediate vicinanze delle città dove vengono prodotti in gran quantità.Storicamente nei piani di gestione dei rifiuti si è sempre tenuta in considerazione la tutela della salute pubblica e dell’ambiente; negli ultimi anni è cresciuta l’attenzione verso l’utilizzo dei rifiuti come fonte di materie prime o di energia. Ai metodi di smaltimento tradizionali, rappresentati dalle discariche e dagli impianti di incenerimento, si sono progressivamente affiancate tecniche per la valorizzazione dei rifiuti: alcune di queste differenziano i rifiuti in base al materiale di cui sono costituiti per ottenere materie prime (raccolta differenziata), altre invece ricavano energia mediante opportuni trattamenti termici(termovalorizzazione). Se l’incenerimento dei rifiuti è nato con l’obiettivo di ridurne il volume e di distruggere le sostanze pericolose in essi presenti, la termovalorizzazione comprende un secondo obiettivo, che è quello di valorizzare il potere calorifico dei rifiuti, recuperando la potenza termica sviluppata durante la combustione e utilizzandola per produrre vapore, successivamente impiegato per produrre energia elettrica o come vettore termico per il teleriscaldamento. Il presente lavoro di tesi fa seguito ad un tirocinio svolto presso il termovalorizzatore costituito dal forno F3 per rifiuti speciali anche pericolosi della società Herambiente, ubicato in via Baiona a Ravenna. L’impianto utilizza un forno a tamburo rotante, scelto proprio per la sua versatilità nell’incenerire varie tipologie di rifiuti: solidi, liquidi organici e inorganici, fluidi fangosi. Negli ultimi anni si è delineato un aumento della richiesta di incenerimento di liquidi inorganici pericolosi, che sono prodotti di scarto di processi industriali derivanti dagli impianti del polo chimico ravennate. La presenza di un’elevata quantità di liquidi inorganici in ingresso al forno fa calare l’energia disponibile per la combustione e, di conseguenza, porta ad un consumo maggiore di combustibile ausiliario (metano). Si pone un problema di ottimo e cioè, a parità di potenza elettrica prodotta, occorre trovare la portata di rifiuti inorganici da inviare al forno che limiti la portata di metano in ingresso in modo da ottenere un utile netto positivo; ovviamente la soluzione ottimale è influenzata dal prezzo del metano e dalla remunerazione che il gestore riceve per lo smaltimento dei reflui inorganici. L’impostazione del problema di ottimo richiede la soluzione dei bilanci di materia e di energia per il termovalorizzatore. L’obiettivo del lavoro di tesi è stato l’impostazione in un foglio di calcolo dei bilanci di materia e di energia per il tamburo rotante e per la camera statica di post-combustione a valle del tamburo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Generic object recognition is an important function of the human visual system and everybody finds it highly useful in their everyday life. For an artificial vision system it is a really hard, complex and challenging task because instances of the same object category can generate very different images, depending of different variables such as illumination conditions, the pose of an object, the viewpoint of the camera, partial occlusions, and unrelated background clutter. The purpose of this thesis is to develop a system that is able to classify objects in 2D images based on the context, and identify to which category the object belongs to. Given an image, the system can classify it and decide the correct categorie of the object. Furthermore the objective of this thesis is also to test the performance and the precision of different supervised Machine Learning algorithms in this specific task of object image categorization. Through different experiments the implemented application reveals good categorization performances despite the difficulty of the problem. However this project is open to future improvement; it is possible to implement new algorithms that has not been invented yet or using other techniques to extract features to make the system more reliable. This application can be installed inside an embedded system and after trained (performed outside the system), so it can become able to classify objects in a real-time. The information given from a 3D stereocamera, developed inside the department of Computer Engineering of the University of Bologna, can be used to improve the accuracy of the classification task. The idea is to segment a single object in a scene using the depth given from a stereocamera and in this way make the classification more accurate.