742 resultados para Tecnologia additiva, modellazione per deposizione di filamento fuso


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro ha analizzato il modulo di localizzazione ed identificazione dei mezzi circolanti in area di manovra e la tecnologia da impiegare per ottenere lo scambio dei dati tra le unità imbarcate ed il server centrale. L’attività è stata svolta in collaborazione con ADR-Aeroporti di Roma, gestore aeroportuale di Fiumicino. L’obiettivo è quello di ottenere, in tempo reale, la conoscenza della posizione e della traiettoria di tutti i mezzi circolanti in area di manovra per creare un sistema automatizzato di monitoraggio, in grado di controllare sia eventuali invasioni delle piste e dei raccordi principali sia rischi di potenziali collisioni tra velivoli e mezzi, garantendo la minima separazione richiesta dalle normative e fornendo agli operatori l’indicazione del rischio rilevato. La prima parte della tesi espone lo scenario europeo per quanto riguarda le tecnologie utilizzate per la sorveglianza di velivoli in area di manovra, la seconda descrive la tecnologia più diffusa e promettente a livello internazionale, proposta per l’aeroporto di Fiumicino, mentre nella terza parte tale tecnologia viene analizzata e sviluppata appunto per lo scenario preso in considerazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi riguarda la creazione di una architettura che ha lo scopo di far interagire attivamente un utente con una mappa digitale tramite browser web e un applicativo che calcola dei percorsi in base ad un algoritmo di ottimizzazione. Un ambito interessante, attuale e che avrà, molto probabilmente, notevoli sviluppi futuri. Basti pensare per esempio a come le persone interagiscono con le mappe digitali tramite i famosi Google Maps o Google Earth, Bing Maps e OpenStreetMap. Questa interazione è diventata talmente naturale che è ormai intuitivo ruotare la rotellina del mouse per zoomare oppure tenere premuto il tasto sinistro per trascinare la mappa. Spesso questi applicativi web offrono servizi per il calcolo di percorsi, o rilasciano anche delle API per interagire e personalizzare alcuni aspetti, anche se spesso in modo limitato per questioni di copyright. In questo contesto entrano in gioco associazioni, singoli individui e fondazioni che creano software e standard fruibili da chiunque per creare applicativi e architetture personalizzate senza vincoli di diritti troppo limitanti. In questa tesi viene mostrato un approccio che permette una personalizzazione molto dettagliata e un'alta interoperabilità con queste applicazioni specifiche. Ma tutti questi aspetti positivi sono fruibili, per ora, solo mediante supporto umano avente un bagaglio di esperienze tecniche adeguate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Dì che ti piace questa pagina”. Questo è uno dei tanti inviti rivolti a chi, ogni giorno, naviga in Internet. Che si stia leggendo un articolo sul sito de La Repubblica, o visitando il blog di un personaggio famoso o di un politico, i riferimenti ai social network sono ormai una presenza costante nelle pagine web. La facilità di restare in contatto con i propri amici, e la possibilità di collegarsi in qualsiasi momento, hanno portato gli utenti del Web 2.0 ad intensificare le discussioni, ed a commentare gli argomenti ed i contenuti prodotti dagli altri in un continuo e complesso “botta e risposta”. È possibile che quest'ambiente abbia favorito lo sviluppo di una nuova prospettiva della Rete, inteso come un nuovo modo di vedersi e di rapportarsi con gli altri, di esprimersi e di condividere le proprie storie e la propria storia. Per approfondire queste tematiche si è deciso di osservare alcuni dei social networks più diffusi, tra i quali Twitter e Facebook e, per raccogliere i dati più significativi di quest'ultimo, di sviluppare un'apposita applicazione software. Questa tesi tratterà gli aspetti teorici che hanno portato questa ricerca su scala nazionale e l'analisi dei requisiti del progetto; approfondirà le dinamiche progettuali e lo sviluppo dell'applicazione entro i vincoli imposti da Facebook, integrando un questionario per l'utente alla lettura dei dati. Dopo la descrizione delle fasi di testing e deployment, l'elaborato includerà un'analisi preliminare dei dati ottenuti per mezzo di una pre-elaborazione all'interno dell'applicazione stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'energy harvesting è un processo in cui l'energia ambientale comunemente disponibile viene catturata mediante opportuni trasduttori e circuiti elettronici per essere convertita in energia elettrica utilizzabile. Il progetto descritto sarà una estensione ed integrazione di un sistema già esistente, per la riproduzione attraverso un sistema elettrodinamico vibrante (shaker), di vibrazioni acquisite dall'ambiente circostante in situazioni di riferimento tipiche (esempio le vibrazioni prodotte da un veicolo in movimento o un uomo in corsa), al fine di caratterizzare trasduttori piezoelettrici per studiarne il funzionamento, le caratteristiche e il loro comportamento. Lo scopo finale è quello di realizzare un sistema stand-alone che sia in grado di riprodurre e controllare in maniera affidabile le vibrazioni imposte da un sistema vibrante, al fine di realizzare un sistema di caratterizzazione per dispositivi di energy harvesting vibrazionale. In questo progetto, l’intera gestione del processo viene affidata ad un microcontrollore presente sulla scheda di controllo, il quale consente in tempo reale la visualizzazione delle forme d’onda oggetto di studio mediante un display grafico, l’elaborazione dei dati presenti nel sistema nonché la possibilità di caricare e salvare dei dati significativi sulla memoria del sistema durante le fasi di testing. Le caratteristiche implementate rendono il sistema facile da usare. Successivamente verranno descritte le specifiche tecniche necessariamente da rispettare per la realizzazione di un sistema che permetta di riprodurre e fornire dati attendibili, la struttura di visualizzazione grafica del sistema, la parte di condizionamento del segnale e i principi teorici del controllo ad anello chiuso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato ha ad oggetto la direttiva PED (Pressure Equipment Directive) relativa agli apparecchi a pressione. Tale norma è stata recepita in Italia con il D.Lgs. n. 93/2000 ed è entrata in vigore definitivamente nel 2002. Essa è finalizzata alla libera circolazione delle attrezzature a pressione nella comunità europea e ne disciplina la progettazione, la costruzione, l'equipaggiamento e l'installazione in sicurezza, definendo per ciascuna delle fasi sopra elencate quali siano i documenti da presentare, gli accorgimenti da rispettare e i controlli a cui sottostare. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha avuto l’obiettivo di individuare i punti di contatto fra quanto richiesto dalla direttiva PED e quanto solitamente emerge dall’applicazione delle tecniche per l’analisi di rischio, degli standard internazionali e aziendali e delle norme di buona tecnica. Il risultato del lavoro consiste nella definizione di un iter tecnico-procedurale standardizzato ad uso dell’utilizzatore delle attrezzature a pressione tramite la quale l’azienda possa procedere alla compilazione delle Note Tecniche destinate al fabbricante delle attrezzature stesse, secondo quanto richiesto dalla direttiva. Tali Note Tecniche devono contenere le indicazioni relative ai valori progettuali di temperatura e pressione e ai Requisiti Essenziali di Sicurezza (RES) che devono essere soddisfatti, permettendo così al fabbricante di poter svolgere una corretta analisi di rischio e all’utilizzatore di ottenere la massima sicurezza negli impianti. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono illustrate le principali novità introdotte dalla direttiva PED e descritti i punti cardine della procedura di valutazione della conformità richiesta per le attrezzature a pressione. Nel Capitolo 3 viene esaminata l’integrazione della direttiva PED con la direttiva Macchine e la direttiva ATEX. Nel Capitolo 4 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per rispondere ai Requisiti Essenziali di Sicurezza (RES) richiesti in fase di compilazione della Nota Tecnica. Nel Capitolo 5 si fornisce una descrizione dettagliata dell’iter tecnico-procedurale messo a punto per la valutazione di conformità delle attrezzature e degli insiemi a pressione. Nel Capitolo 6 vengono illustrati ad uno ad uno i punti che devono essere presenti in una Nota Tecnica, ciascuno dei quali costituisce un Requisito Essenziale di Sicurezza. Nel Capitolo 7 viene approfondito uno dei Requisiti più critici, l’incendio esterno. Infine nel Capitolo 8 sono riportate le considerazioni conclusive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’acido adipico (AA) è un importante intermedio chimico prodotto in quantità pari a circa tre milioni di tonnellate annue, i cui usi riguardano principalmente la produzione di Nylon-6,6. Tutti i processi industriali odierni per la produzione dell’AA hanno in comune lo stadio finale di ossidazione con acido nitrico dell’ultimo intermedio di sintesi, che in genere è una miscela di cicloesanolo e cicloesanone (KA Oil). Esistono diversi problemi riguardanti questo processo, come la pericolosità che deriva dall’uso di acido nitrico concentrato. Dal punto di vista ambientale, il problema principale riguarda la produzione di protossido di azoto e di altri ossidi di azoto durante l’ultima fase di ossidazione con HNO3, per questo motivo, tutte le aziende che producono AA devono essere munite per legge di sistemi di abbattimento quantitativi o di recupero degli ossidi di azoto, che però risultano essere molto incisivi sul costo del processo. A livello industriale, quindi, il problema riguarda principalmente la sostenibilità economica, ma poiché queste procedure hanno un prezzo in termini di materiali ed energia, si ha anche un forte legame con la sostenibilità ambientale. Gli studi riguardanti nuovi processi per la produzione di AA sono numerosi; alcuni hanno portato a vie più “green”, ma solo pochi esempi sono veramente sostenibili dal punto di vista sia ambientale che economico. Il presente lavoro di tesi è diviso in due parti, entrambe riguardanti vie di sintesi alternative per la produzione di AA. La prima parte riguarda lo studio del secondo passaggio di una via di sintesi in due step che parte da cicloesene e che ha come intermedio l’1,2-cicloesandiolo.Sono stati provati catalizzatori eterogenei a base di nanoparticelle di Au supportate su MgO per il cleavage ossidativo in fase liquida del diolo con O2 in ambiente basico. La seconda parte invece riguarda il processo di sintesi dell’AA a partire da cicloesanone mediante l’ossidazione con perossido di idrogeno a e- caprolattone e la successiva ossidazione ad AA. Nello specifico, è stato studiato il meccanismo di reazione del primo passaggio in quanto evidenze sperimentali ottenute nel corso di lavori precedenti avevano dimostrato la presenza di un cammino di reazione differente da quello tipico per un’ossidazione di Baeyer-Villiger. In questa parte, si è studiato l’effetto di alcuni catalizzatori eterogenei a base di acidi di Lewis sui prodotti ottenuti nel primo stadio ossidativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ottica di uno sviluppo ecosostenibile, la progettazione e la realizzazione di imballaggi alimentari devono necessariamente tener conto del destino del materiale al termine della sua vita utile. Negli ultimi anni, infatti, il considerevole incremento dei volumi dei rifiuti plastici e le difficoltà legate al loro smaltimento e riciclo hanno rappresentato le forze motrici per l’individuazione di soluzioni concrete ai problemi connessi alla gestione di tali scarti. Lo sviluppo di nuovi polimeri che soddisfino requisiti di degradabilità, compatibilità con l’ambiente di smaltimento e rilascio di prodotti di degradazione con un basso livello di tossicità, oltre che possedere proprietà fisico-meccaniche adatte per l’applicazione richiesta, offre una possibile soluzione a tali questioni ad oggi irrisolte. Tra i polimeri biodegradabili, il poli(butilene 1,4-cicloesandicarbossilato) (PBCE) è un materiale di grande interesse, in quanto la presenza dell’anello alifatico nell’unità monomerica conferisce al materiale un’elevata cristallinità, una notevole stabilità termica e interessanti proprietà meccaniche. Per contro, l’eccessiva rigidità e fragilità del materiale e la sua lenta cinetica di biodegradazione lo rendono poco versatile e ne limitano notevolmente la gamma di possibili applicazioni. Per tali ragioni, si è scelto di incentrare il presente lavoro sullo sviluppo di copolimeri a base di PBCE, dotati sia di migliori proprietà meccaniche che di una maggiore velocità di degradazione. Lo scopo previsto è stato raggiunto mediante sintesi di due sistemi di copolimeri a blocchi contenenti eteroatomi lungo la catena principale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esposizione dell’attività di laboratorio basata sullo svolgimento di prove sperimentali di resistenza a fatica su accoppiamenti albero-mozzo realizzati mediante calettamento forzato con riscaldamento in forno del mozzo, con l’obiettivo di determinare l’influenza di tale tipo di accoppiamento sulla vita a fatica del componente. Gli accoppiamenti albero – mozzo, anche detti collegamenti forzati, sono collegamenti fissi o semi–permanenti utilizzati per unire due organi tra loro che permettono di trasmettere elevate forze tangenziali anche con interferenze non elevate, realizzando un’unione sicura, quanto quella ottenibile con linguetta o chiavetta. Inoltre l’assenza di masse esterne non genera squilibri dinamici. Il lavoro di sperimentazione in laboratorio è stato preceduto da uno studio mediante modellatore FEM. I risultati ottenuti dallo studio per mezzo di Ansys Workbench 12.0 sono stati il punto di partenza della sperimentazione, la quale è stata effettuata con l’obiettivo di verificare la validità dei risultati ottenuti mediante modellatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo di questa tesi è descrivere un percorso di creazione di una applicazione mobile per la realizzazione di un software i cui target sono smartphone e tablet. Order Sender è un’App per agenti di commercio presente sui mercati delle piattaforme mobile Android ed iOS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi ha avuto come obiettivo la preparazione di catalizzatori attivi nella reazione di ossidazione parziale catalitica, CPO, del metano per produrre gas di sintesi. I catalizzatori sono stati preparati tramite sintesi elettrochimica di composti di tipo idrotalcite a base di Rh/Mg/Al utilizzando come supporto schiume metalliche costituite da FeCrAlY. L’impiego di questo tipo di supporto comporta una serie di vantaggi, dallo sviluppo del catalizzatore all’ottimizzazione del processo catalitico in termini di prestazioni catalitiche, diminuzione degli “hot spots” termici, diminuzione delle perdite di carico e costi del catalizzatore. La sintesi del catalizzatore è stata effettuata per mezzo di una cella elettrochimica innovativa, che lavora in flusso, e quindi permette la continua rigenerazione della soluzione di sintesi, a differenza di quanto avviene in una cella elettrochimica standard a singolo comparto. La precipitazione dei composti di tipo idrotalcite si ottiene grazie alla tecnica di elettrogenerazione di basi, ovvero grazie alla generazione di un pH basico all’interno della cella elettrochimica a seguito dell’applicazione di un potenziale catodico. Il pH generato è il parametro più importante e determina la natura e la qualità del materiale depositato. È sorta quindi la necessità di sviluppare un sensore potenziometrico miniaturizzato per la determinazione istantanea del pH durante la sintesi, da installare all’interno della schiuma stessa. È possibile correlare le prestazioni catalitiche dei catalizzatori sintetizzati con la cella elettrochimica in flusso, alle loro caratteristiche di morfologia superficiale ed alla composizione chimica, e confrontare le stesse prestazioni catalitiche con quelle ottenute sintetizzando i catalizzatori con la cella elettrochimica standard a singolo comparto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi inizia da un’indagine svolta durante il Laboratorio di Sintesi Finale sulla città di Bogotá. Nello specifico ci si è occupati dello studio di una parte ristretta della città: la CUB, la città universitaria di Bogotá. Sì è in primo luogo analizzato gli aspetti salienti di quella parte di città, mettendone in evidenza sia gli elementi caratteristici che le criticità. Questo studio ha condotto alla definizione di alcune problematiche che, per importanza, sono state il centro del progetto successivamente proposto. La sintesi preliminare ha così prodotto una prima ipotesi progettuale che è stata il punto di partenza dello studio successivo. Nella fase successiva invece si è operato per un ulteriore approfondimento, passando sul piano reale e affrontando i temi scelti per l’area della Ciudad Universitaria de Bogotá. La CUB rappresenta il fulcro dell’offerta universitaria statale di Bogotá e i piani di sviluppo per il futuro la vedranno assoggettata ad un processo di forte saturazione delle aree ancora libere. Visto la dimensione di questo luogo, si è optato per la definizione di una possibile metodologia di intervento, più soddisfare il desiderio (a volte irrinunciabile) di ridefinizione della sua struttura interna, oggi particolarmente degradata. L’idea trova il suo senso anche nel desiderio di potere generare una maggiore integrazione tra l’uso degli spazi della CUB e i cittadini, che attualmente sono esclusi, primariamente per ragioni di sicurezza, dalla possibilità di godere di questo luogo. Il testo mette in evidenza, mediante un processo per tappe, il percorso intellettuale che ha portato alla definizione delle scelte progettuali rappresentate nelle tavole finali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di Tesi Magistrale, si focalizza sulla più importante delle aritmie atriali, ovvero la Fibrillazione Atriale, e sul trattamento della stessa attraverso le procedure di ablazione a radio frequenza (RF). Il lavoro di tesi, svolto presso l'Ospedale 'M. Bufalini' di Cesena, affronta in particolare l'uso della tecnologia EnSite NavX (un sistema di mappaggio elettroanatomico delle cavità cardiache) ed EnSite Contact (un sistema basato sulla misura dell'impedenza locale per la valutazione del contatto elettrodo tessuto). L'acquisizione e l'analisi dei dati di ECI (indice di accoppiamento elettrico), forniti dal modulo Contact, hanno permesso di comprendere come questo parametro, derivato dalla misura dell'impedenza locale, possa contribuire a fornire importanti informazioni in real-time all'elettrofisiologo e come lo studio della sua dinamica, con particolare attenzione alle variazioni tra pre e post ablazione, possa risultare utile per verificare l'avvenuta erogazione di energia ai tessuti.