528 resultados para gruppi di omotopia di ordine superiore cobordismo con framing gruppi di omotopia delle sfere


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto degli edifici privi di smorzatori viscosi eseguito adottando un fattore di riduzione delle forze R5 (fattore di struttura q del D.M.14/01/08) relativo ad uno smorzamento ξ = 5%, mentre per quelli equipaggiati con smorzatori viscosi il fattore di riduzione delle forze adottato sarà R30 = α R5 relativo ad uno smorzamento ξ = 30%, dove il parametro α è un valore tale da garantire un uguale o maggiore livello di sicurezza della struttura ed è assunto pari a 0,9 da analisi precedenti. Quello che in conclusione si vuole ottenere è che la richiesta di duttilità delle strutture con R30 e ξ = 30% sia minore o uguale di quella richiesta dalle strutture con R5 e ξ = 5%: μd30 ≤ μd5 Durante il percorso di tesi è stata anche valutata una procedura di definizione delle curve di Pushover manuale; la procedura indaga un modo rapido e concettualmente corretto per definire un ordine di grandezza della curva di capacità della struttura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di laurea tratta delle partizioni di un intero positivo. La tesi viene suddivisa in tre capitoli: nel primo capitolo definirò cosa significa scomporre additivamente un intero positivo e come si può rappresentare una partizione cioè utilizzando diagrammi, chiamati \textit{diagrammi di Ferrers}, o tabelle, chiamate \textit{tableau di Young}, si possono rappresentare graficamente partizioni. In seguito, in questo capitolo, verrà definita la funzione di partizione e, infine, tratterò delle partizioni ordinate. Il secondo capitolo ha carattere storico: infatti, mostra come cinque famosi matematici, Eulero, Ramanujan e Hardy, Hans Rademacher e Ken Ono, nel tempo abbiano affrontato il problema di trovare una formula matematica che meglio rappresenti la funzione di partizione. Il terzo ed ultimo capitolo riguarda le applicazioni delle partizioni, cioè come esse abbiano una relazione con le classi di coniugio nel gruppo simmetrico $S_{n}$ e con le classificazioni dei gruppi abeliani di ordine $p^{n}$, con p un numero primo. Di alcune affermazioni ( o teoremi ) nei capitoli seguenti non è stata riportata la dimostrazione; in questi casi si rimanda direttamente alle corrispondenti citazioni bibliografiche. 

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi di un sistema per il posizionamento e la movimentazione di sensori in galleria del vento. In particolare l’analisi è stata focalizzata sul sistema di movimentazione sonde (traversing) presente nel long-pipe in CICLoPE (Center for International Cooperation in Long Pipe Experiments). La struttura menzionata nasce per far fronte ad alcuni dei limiti presenti negli attuali laboratori fluidodinamici per lo studio della turbolenza ad alti numeri di Reynolds. Uno degli obiettivi del centro è quello di caratterizzare le più piccole strutture caratteristiche della turbolenza. Al fine di permettere tale studio era necessario migliorare il traversing esistente per ottenere movimenti ad alta precisione, in modo da raggiungere lo stesso ordine di grandezza delle scale più piccole della turbolenza. Il miglioramento di tale strumentazione è stato necessario anche per fornire un valido supporto alle metodologie esistenti per la determinazione della distanza tra sonde e parete, che resta una delle difficoltà nello studio della turbolenza di parete. L’analisi del traversing, svolta attraverso più test, ha fatto emergere problemi sia nella struttura del sistema, sia nel software che gestisce il motore per la movimentazione. La riprogrammazione del software e la rettifica di alcuni componenti del sistema hanno permesso di eliminare gli errori emersi. Le piccole imprecisioni restanti durante la movimentazione, non eliminabili con un’implementazione software, verranno totalmente superate grazie all’impiego del nuovo motore dotato di un encoder rotativo che sarà in grado di retroazionare il sistema, fornendo il reale spostamento effettuato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La possibilità di monitorare l’attività degli utenti in un sistema domotico, sia considerando le azioni effettuate direttamente sul sistema che le informazioni ricavabili da strumenti esterni come la loro posizione GPS, è un fattore importante per anticipare i bisogni e comprendere le preferenze degli utenti stessi, rendendo sempre più intelligenti ed autonomi i sistemi domotici. Mentre i sistemi attualmente disponibili non includono o non sfruttano appieno queste potenzialità, l'obiettivo di sistemi prototipali sviluppati per fini di ricerca, quali ad esempio Home Manager, è invece quello di utilizzare le informazioni ricavabili dai dispositivi e dal loro utilizzo per abilitare ragionamenti e politiche di ordine superiore. Gli obiettivi di questo lavoro sono: - Classificare ed elencare i diversi sensori disponibili al fine di presentare lo stato attuale della ricerca nel campo dello Human Sensing, ovvero del rilevamento di persone in un ambiente. - Giustificare la scelta della telecamera come sensore per il rilevamento di persone in un ambiente domestico, riportando metodi per l’analisi video in grado di interpretare i fotogrammi e rilevare eventuali figure in movimento al loro interno. - Presentare un’architettura generica per integrare dei sensori in un sistema di sorveglianza, implementando tale architettura ed alcuni algoritmi per l’analisi video all’interno di Home Manager con l’aiuto della libreria OpenCV .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità  nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità  di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità  certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità  di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità  e una sostanziale disomogeneità  prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità  idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità  di ottimizzare l'allocazione delle unità  operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presentiamo alcune proposte di modifica alle superfici di suddivisione di Catmull-Clark, per garantire la continuità del secondo ordine anche nei vertici straordinari e una buona qualità di forma. La ricerca di questi miglioramenti è motivata dal tentativo di integrazione delle superfici di suddivisione in un sistema di modellazione geometrica in contesto CAD/CAGD, il quale richiede che certi requisiti di regolarità e qualità siano soddisfatti. Illustriamo due approcci differenti per la modifica della superficie limite. Il primo prevede il blending tra la superficie originale e una superficie polinomiale approssimante, definita opportunamente, in modo tale da ottenere la regolarità desiderata. Il secondo metodo consiste nella sostituzione della superficie di Catmull-Clark con un complesso di patch di Gregory bicubici e adeguatamente raccordati. Insieme all’attività di analisi, riformulazione ed estensione di queste proposte, abbiamo realizzato una implementazione in codice C/C++ e OpenGL (con programmi accessori scritti in MATLAB e Mathematica), finalizzata alla sperimentazione e alla verifica delle caratteristiche dei metodi presentati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’idrogeno è un elemento di elevato interesse economico, con una produzione industriale che supera i 55 x 1010 m3/anno e notevoli prospettive di sviluppo delle sue applicazioni. Attualmente l’idrogeno è prodotto principalmente in impianti di larga scala (circa 1000 m3/h) da combustibili fossili attraverso processi di steam reforming ed ossidazione parziale catalitica. Per aumentare la produzione di idrogeno un ruolo fondamentale è svolto dalla reazione di water gas shift (WGS) che abbatte il contenuto di CO, massimizzando la produzione di idrogeno. La reazione è condotta industrialmente in due stadi, operanti ad alta temperatura (HTS, circa 350 °C) e bassa temperatura (LTS, circa 250 °C), utilizzando rispettivamente catalizzatori a base di ferro o rame. Tuttavia, è evidente l’interesse per nuove formulazioni in grado di operare in un unico stadio a temperatura intermedia (MTS), mantenendo le caratteristiche ottimali di attività e stabilità. In questo lavoro di tesi, condotto in collaborazione con AIR LIQUIDE (F), è stato affrontato uno studio della reazione di WGS finalizzato allo sviluppo di nuove formulazioni attive e stabili nell’MTS. In particolare, sono stati sintetizzati precursori idrotalcitici Cu/Zn/Al (contenenti carbonati o silicati), con bassi contenuti di rame (diversamente da quanto riportato in letteratura), modulandone le proprietà chimico-fisiche, l’attività catalitica e la stabilità con il tempo di reazione. Si è osservato come i catalizzatori con minori contenuti di rame ed ottenuti da precursori contenenti carbonati mostrassero un’elevata attività e selettività nell’MTS, raggiungendo valori di conversione del CO analoghi a quelli all’equilibrio termodinamico già a 300 °C, indipendentemente dai valori del rapporto S/DG e del tempo di contatto. Tutti i catalizzatori mostrano un’elevata stabilità con il tempo di reazione, con incrementi del quantitativo del CO in uscita dopo 100h di circa lo 0,7 % v/v. I catalizzatori scaricati dopo le prove catalitiche evidenziano gli effetti dei processi di sinterizzazione (diminuzione dell’area superficiale ed incremento delle dimensioni dei cristalliti), la cui entità diminuisce al diminuire del contenuto di rame. Infine, confrontando l’attività dei migliori catalizzatori preparati in questo lavoro di tesi con quella di uno dei più utilizzati catalizzatori commerciali per la reazione di WGS a bassa temperatura, si sono osservati valori di attività analoghi, raggiungendo quelli di equilibrio per temperature  300°C, ma con una attività significativamente superiore nelle condizioni LTS, soprattutto considerando il valore del tempo di contatto inferiore a quelli comunemente utilizzati negli impianti industriali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le moderne tecniche di imaging e i recenti sviluppi nel campo della visione computazionale consentono sempre più diffusamente l'utilizzo di metodi di image analysis, specialmente in ambito medico e biologico, permettendo un maggiore supporto sia alla diagnosi, sia alla ricerca. Il lavoro svolto in questa tesi si pone in un contesto di ricerca di carattere interdisciplinare, e riguarda il progetto e la realizzazione di un‘interfaccia grafica per l'analisi di colture batteriche geneticamente modificate, marcate con proteine fluorescenti (GFP), acquisite tramite un microscopio ad epifluorescenza. Nota la funzione di risposta del sistema di acquisizione delle immagini, l'analisi quantitativa delle colture batteriche è effettuata mediante la misurazione di proprietà legate all'intensità della risposta al marcatore fluorescente. L'interfaccia consente un'analisi sia globale dei batteri individuati nell'immagine, sia di singoli gruppi di batteri selezionati dall'utente, fornendo utili informazioni statistiche, sia in forma grafica che numerica. Per la realizzazione dell'interfaccia sono state adottate tecniche di ingegneria del software, con particolare enfasi alla interazione uomo-macchina e seguendo criteri di usability, al fine di consentire un corretto utilizzo dello strumento anche da parte di personale senza conoscenza in campo informatico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le leghe di alluminio da fonderia rivestono un ruolo fondamentale in ambito industriale e in particolare il settore dei trasporti ha notevolmente incrementato il loro impiego per la realizzazione di componenti strutturali. Al fine di aumentare ulteriormente la resistenza specifica, tali leghe possono essere impiegate come matrici per lo sviluppo di compositi (Metal Matrix Composites, MMCs), le cui fasi di rinforzo possono avere diversa composizione, forma e dimensione. In particolare, nel caso di rinforzo particellare, più le particelle sono piccole e finemente disperse nella matrice, più elevato può essere l’incremento delle prestazioni meccaniche. In quest’ottica, la ricerca ha portato allo sviluppo dapprima di compositi caratterizzati da un rinforzo micrometrico e, in anni recenti, si sta concentrando sul rinforzo nanometrico (Metal Matrix Nano Composites, MMNCs). I nano-compositi possono essere ottenuti attraverso metodologie differenti: tecniche in situ, in cui il rinforzo viene generato all’interno della matrice attraverso opportune reazioni chimiche, e tecniche ex situ, in cui i dispersoidi vengono inseriti nella matrice fusa, una volta già formati. Sebbene l’incremento prestazionale ottenibile da tali materiali sia stato dimostrato, è necessario far fronte ad alcune problematiche connesse a ciascuna tecnologia produttiva quali, ad esempio, il controllo dei parametri di processo, per quanto riguarda le tecniche in situ, e l’ottenimento di una efficace dispersione delle nano-particelle all’interno della matrice, nel caso delle metodologie ex-situ. Lo scopo della presente attività di tesi è lo studio di fattibilità, basato anche su un’ampia indagine bibliografica, e l’implementazione di metodologie produttive, su scala di laboratorio, volte allo sviluppo di MMNCs a matrice in lega di alluminio (A356, Al-Si-Mg). L’interesse è stato posto in primo luogo sul processo in situ di gas bubbling, mirato all’ottenimento di rinforzo d’allumina, indotto dalla reazione tra matrice metallica e gas ossidante (in questo caso aria secca industriale). In secondo luogo, dal punto di vista delle tecniche ex situ, è stato approfondito l’aspetto della dispersione delle particelle di rinforzo nel fuso, prestando particolare attenzione alla tecnica di trattamento ultrasonico del metallo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il termine biochar definisce il prodotto solido derivante dalla pirolisi di un qualsiasi materiale organico, con lo specifico scopo di essere applicato nei suoli sia per fini agronomici che di gestione ambientale. Un suo utilizzo in maniera "responsabile" richiede però una piena comprensione delle sue proprietà e dei meccanismi che controllano la sua attività nel terreno, che dipendono dalla biomassa di partenza e dalle condizioni di sintesi tramite pirolisi. Infatti le condizioni di pirolisi, in particolare la temperatura di processo e il tempo di residenza, determinano biochar con caratteristiche differenti. In questo lavoro di tesi sono stati prodotti biochar da due diverse tipologie di biomassa residuale ampiamente disponibili (stocchi di mais e pollina). Per ciascuna biomassa sono state scelte tre condizioni di pirolisi (400°C x 20 minuti, 500°C x 10 minuti e 600°C x 5 minuti). Sui biochar ottenuti sono state effettuate le seguenti determinazioni: analisi elementare, Pirolisi‐GC‐MS, idrocarburi policiclici aromatici (IPA), acidi grassi volatili (VFA), azoto ammoniacale (N‐NH4 +), pH, conduttività elettrica e ritenzione idrica. Infine i biochar sintetizzati sono stati utilizzati per fare due test di germinazione per valutare l'effetto sulla formazione delle prime strutture di crescita delle plantule, tramite test di tossicità brevi con piastre Petri. Il primo test è stato condotto a concentrazione crescente di miscele acqua/biochar (2, 5, 40 e 100 g/L sulla base delle quantità di biochar utilizzate come ammendante nel suolo), sulla germinazione seguendo la metodologia normata dalla ISO 11269:2012. I semi utilizzati nel primo test sono stati quelli del crescione (Lepidium sativum L.) come specie dicotiledone, e del sorgo (Sorghum saccharatum M.) come monocotiledone. Il secondo saggio di tossicità eseguito è stato quello descritto dalla normativa in materia UNI 11357, valutando l'eventuale effetto di tossicità alla massima concentrazione delle varie tipologie di biochar, utilizzando come specie dicotiledoni il cetriolo (Cucumis sativus L.) ed il crescione (Lepidium sativum L.), come monocotiledone il sorgo (Sorghum saccharatum M.). Per i biochar da stocchi di mais, rappresentativi di biomasse erbacee e con diverso grado di carbonizzazione, non si osservano effetti apprezzabili alle condizioni di uso agricolo. Nel caso dei biochar da pollina si osservano invece inibizioni alla germinazione sin dalle concentrazioni più basse. In particolare, quello pirolizzato a 400°C mostra un potenziale effetto tossico più marcato, probabilmente associato ad un contenuto di IPA e VFA superiore a quello degli altri biochar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio si colloca nell’ambito del progetto europeo (FP7) THESEUS, fra i cui scopi c’è quello di fornire informazioni su vulnerabilità e resilienza degli habitat costieri in seguito all’aumento di frequenza delle inondazioni dovuto al sea level rise. E’ stata indagata la zona intertidale di spiagge sabbiose, come recettore di cambiamenti climatici. All’interno dell’habitat intertidale le comunità macrobentoniche sono di solito individuate come indicatori delle variazioni dei parametri fisico-chimici e morfodinamici. Lo scopo di questo lavoro è consistito nell’analisi delle comunità macrobentoniche e della loro interazioni con le variabili ambientali lungo tre spiagge del Nord Adriatico sottoposte a fenomeni di erosione e differenti fra di loro per caratteristiche morfodinamiche: Lido di Spina, Bellocchio e la zona della Bassona di Lido di Dante. La risposta delle comunità bentoniche è stata indagata utilizzando i dati tassonomici delle specie e raggruppando le stesse nei rispettivi gruppi trofici. Le variabili ambientali considerate sono state quelle relative alla tipologia del sedimento e quelle relative alla morfodinamica Le comunità macrobentoniche delle spiagge di Lido di Spina e di Lido di Dante sono risultate relativamente più simili tra loro, nonostante i due siti fossero i più distanti. A Lido di Spina e Lido di Dante sono state rinvenute associazioni di specie, come Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose europee esposte al moto ondoso. In questi due siti, è risultato dominante il bivalve Lentidium mediterraneum, la cui ecologia e modalità di distribuzione aggregata permette di evidenziare il maggiore idrodinamismo che caratterizza i due siti. A Bellocchio, invece, è stato riscontrato un maggior numero di specie. Questo sito è caratterizzato dalla presenza di patch di giovanili del bivalve Mytilus galloprovincialis che sembrerebbe determinare il pattern del resto della comunità fungendo da ecosystem engineer. In termini di gruppi trofici, a Lido di Spina e a Lido di Dante prevalgono Filtratori, Carnivori e Detritivori di Superficie mentre Bellocchio è dominato da Filtratori e Misti discostandosi dagli altri siti per le sue condizioni del tutto particolari. Per quanto riguarda i descrittori abiotici, Lido di Spina e Lido di Dante, rispetto a Bellocchio, presentano una fascia intertidale più corta, pendenze maggiori, granulometrie più grossolane e risultando quindi, in generale, meno dissipative.