731 resultados para CaCu3Ti4O12 combustibili solari fotoelettrocatalisi utilizzo di CO2 serigrafia


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del lavoro è stato quello di definire la filiera di smaltimento dei rifiuti di plastica di origine domestica. La modellazione della stessa ha preso come riferimento un insieme di informazioni rese disponibili dal CONAI, Consorzio Nazionale degli Imballaggi. Noti gli attori e le attività svolte al fine dell’avvio a recupero della frazione raccolta, è stato sviluppato un modello economico adeguato al fine di ripartire i costi delle attività in funzione della gestione del materiale. Tale modellazione non prende in esame le spese e gli introiti allocati al Consorzio, ma si focalizza sulle attività di raccolta, selezione e avvio a recupero. Ci si è poi concentrati sulla modellazione economica dell’avvio a recupero della frazione di plastica raccolta dal Comune di Bologna. Ripartendo la responsabilità di gestione tra il gestore del servizio (Hera), il Centro Comprensoriale (CC Akron Granarolo), i Centri di Selezione (CSS Argeco e Idealservice) e i riciclatori (tra quelli convenzionati al consorzio) si è definito il modello economico per il caso in esame. In particolare, si è adottato un approccio simulativo di allocazione del materiale selezionato in vista della modalità di vendita di alcuni prodotti tramite asta online. La quantificazione economica in sé risente di assunzioni definite per la determinazione di una componente di costo che possa essere il può possibile esaustiva delle operazioni svolte. Si è poi proceduto definendo una stima della quantità di diossido di carbonio prodotta in fase di combustione di carburante per la movimentazione dei flussi del caso di studio. I valori in esame sono stati desunti come prodotto tra la quantità di CO2 emessa per i chilometri percorsi a seconda della tipologia di mezzo adottata per la movimentazione dei flussi. I dati relativi alle quantità di anidrite carbonica prodotte sono stime in grammi di CO2 al chilometro realizzate da Arpa e distinte in funzione delle soluzioni tecnologiche da implementare secondo le disposizioni redatte dalla Comunità Europea. La nota metodologica adottata prevede di analizzare i risultati ottenuti in funzione della distanza percorsa, dei costi di trasporto e della quantità di CO2 generata per le attività.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Parlando della questione linguistica in Europa, viene svolta un'analisi in tre parti. La prima parte tratta storicamente del multilinguismo europeo e del concetto di lingua franca; la seconda presenta quindi le possibili soluzioni finora emerse, concentrandosi sull'utilizzo della lingua Inglese in ambito internazionale. Infine, sono illustrate altre possibilità, suddividendo il discorso in ulteriori tre parti: la prima riguarda l'utilizzo di una lingua naturale come lingua franca; la seconda espone alcuni progetti per semplificare lingue già esistenti; per ultimo, si offre una panoramica sulle lingue artificiali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli elementi ludici aiutano a comprendere i bisogni del mondo in cui viviamo e rendono meno noiose quelle attività che normalmente non gratificano in modo sufficiente un individuo; la gamification viene definita come l'utilizzo di elementi di gioco in contesti non di gioco. In questo elaborato viene analizzato come si è evoluto il rapporto tra essere umano e gioco, come si è arrivati a definire la gamification e quali sono le parti atomiche che la compongono. Si analizzano diversi casi di successo in cui è stata implementata la gamification ed infine viene analizzato il mio progetto personale ParcheggioGratuito, in cui applico metodologie di gamification per facilitare il meccanismo di ricerca del parcheggio nella propria città.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il crescente utilizzo di sistemi di analisi high-throughput per lo studio dello stato fisiologico e metabolico del corpo, ha evidenziato che una corretta alimentazione e una buona forma fisica siano fattori chiave per la salute. L'aumento dell'età media della popolazione evidenzia l'importanza delle strategie di contrasto delle patologie legate all'invecchiamento. Una dieta sana è il primo mezzo di prevenzione per molte patologie, pertanto capire come il cibo influisce sul corpo umano è di fondamentale importanza. In questo lavoro di tesi abbiamo affrontato la caratterizzazione dei sistemi di imaging radiografico Dual-energy X-ray Absorptiometry (DXA). Dopo aver stabilito una metodologia adatta per l'elaborazione di dati DXA su un gruppo di soggetti sani non obesi, la PCA ha evidenziato alcune proprietà emergenti dall'interpretazione delle componenti principali in termini delle variabili di composizione corporea restituite dalla DXA. Le prime componenti sono associabili ad indici macroscopici di descrizione corporea (come BMI e WHR). Queste componenti sono sorprendentemente stabili al variare dello status dei soggetti in età, sesso e nazionalità. Dati di analisi metabolica, ottenuti tramite Magnetic Resonance Spectroscopy (MRS) su campioni di urina, sono disponibili per circa mille anziani (provenienti da cinque paesi europei) di età compresa tra i 65 ed i 79 anni, non affetti da patologie gravi. I dati di composizione corporea sono altresì presenti per questi soggetti. L'algoritmo di Non-negative Matrix Factorization (NMF) è stato utilizzato per esprimere gli spettri MRS come combinazione di fattori di base interpretabili come singoli metaboliti. I fattori trovati sono stabili, quindi spettri metabolici di soggetti sono composti dallo stesso pattern di metaboliti indipendentemente dalla nazionalità. Attraverso un'analisi a singolo cieco sono stati trovati alti valori di correlazione tra le variabili di composizione corporea e lo stato metabolico dei soggetti. Ciò suggerisce la possibilità di derivare la composizione corporea dei soggetti a partire dal loro stato metabolico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato affronta l'applicazione della tecnologia di downsizing nei motori ad accensione comandata: i dispositivi che ne permettono l'implementazione nei veicoli leggeri (EGR, sovralimentazione) e i problemi intrinsechi di questa tecnologia (possibile comparsa di fenomeni anomali di combutione come preaccensioni, autoaccensioni, DDT, detonazione e superknock). Sono presi in esame diversi metodi di soluzione dei problemi sopraelencati, uno fra tutti l'aggiunta di un'iniezione d'acqua per diminuire le temperature dei gas in camera di combustione e mitigare così le possibili detonazioni. Infine l'elaborato analizza alcuni esempi di applicazione della tecnologia di downsizing al fine di ridurre le emissioni di CO2 allo scarico entro i limiti imposti dalla Comunità Europea. Il progetto Ultraboost di Jaguar Land Rover, la filosofia di rightsizing (giusta cilindrata in base alla classe a cui il veicolo appartiene) di Audi, lo SkyActiv-G di Mazda sono solo alcuni dei motori nati sotto la filosofia del downsizing. Nei motori progettati al fine di ridurre le emissioni allo scarico ma allo stesso tempo mantenere buone prestazioni del motore, si trovano anche il concetto di DCEE (Double Compression Expansion Engine) di Joahnnson e il motore a pistoni opposti a due tempi di Achates Power.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi affronta la tematica dei problemi cardiaci riscontrati in alcuni pazienti, a seguito del trattamento sanitario con procedure chemioterapiche. In particolar modo si concentra sugli effetti collaterali derivanti dalle cure somministrate ad individui affetti da tumori mammari, che, a causa di questa condizione, subiscono terapie mirate a livello del torace. La cardiotossicità che si presenta nei casi precedentemente indicati è di tipo acuto, o cronico. Il lavoro si prefigge lo scopo di analizzare una metodologia che identifichi e riscontri in tempo il manifestarsi della cardiotossicità, basandosi su alcuni sintomi e segnali, per evitare il manifestarsi del tipo cronico. Per raggiungere questo obiettivo si è studiato l'utilizzo di apparecchiature per l’ecocardiografia, che sono poco invasive e presentano una quantità di effetti collaterali estremamente ridotta. L’elaborato è suddiviso in quattro capitoli: 1. Il primo capitolo è dedicato al "Cuore". Nei diversi sottocapitoli ci si concentra sulla parte anatomica e sulla fisiologia dello stesso. Il sottocapitolo più importante è quello sulla "Cardiotossicità", tema centrale del lavoro, in cui sono spiegati i meccanismi con cui si manifesta, quali farmaci la causano e per quali motivi. 2. Il secondo capitolo si occupa dell’apparecchiatura usata durante lo studio del cuore, cioè l'ecografo. Dopo una breve introduzione sulle proprietà fisiche degli ultrasuoni, ci si concentra sulla struttura dell’apparecchiatura. In particolare ci si focalizza sugli strumenti per ecografie cardiache volumetriche. 3. Il terzo capitolo è dedicato al software TOMTEC. Si descrive in quali modalità si utilizza, in che maniera, e quali parametri identifica per l'eventuale riscontro di episodi di cardiotossicità. In uno dei sottocapitoli è descritto nel dettaglio il database creato dall’autrice per la raccolta dei dati relativi ai pazienti trattati. 4. L'ultimo capitolo è dedicato alla conclusioni, in cui si sottolinea l'importanza della ricerca di meccanismi per prevenire l'insorgere di malattie cardiache in pazienti già sottoposti a pesanti cicli di terapia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'argomento di questa tesi è la multisensorialità sensoriale. L'obbiettivo che abbiamo perseguito è stato quello di utilizzare un modello sviluppato in precedenza per effettuare un'analisi di sensitività e capire il ruolo che hanno i vari fattori per lo sviluppo della rete neurale. Inoltre abbiamo cercato di mostrare come effettivamente tale modello, come da letteratura, effettui una stima bayesiana. Al termine di questo lavoro si è evidenziata la forte influenza degli stimoli cross-modali nell'adattamento automatico della rete verso stimoli più precisi e del ventriloquismo necessario a ponderare gli stimoli a seconda del loro grado di affidabilità. Inoltre è stato dimostrato che attraverso l'utilizzo di una regola di apprendimento realistica, la rete neurale può imparare la funzione di verosimiglianza. Uno stimatore bayesiano di questo tipo riesce a rappresentare realisticamente l'integrazione multisensoriale che il nostro cervello deve intraprendere quando si trova davanti a più stimoli di natura sensoriale diversa. Molto interessanti anche gli sviluppi possibili di questo progetto che verranno accennati nelle ultime parti di questa tesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro presentato in questa Tesi si basa sul calcolo di modelli dinamici per Galassie Sferoidali Nane studiando il problema mediante l'utilizzo di funzioni di distribuzione. Si è trattato un tipo di funzioni di distribuzione, "Action-Based distribution functions", le quali sono funzioni delle sole variabili azione. Fornax è stata descritta con un'appropriata funzione di distribuzione e il problema della costruzione di modelli dinamici è stato affrontato assumendo sia un alone di materia oscura con distribuzione di densità costante nelle regioni interne sia un alone con cuspide. Per semplicità è stata assunta simmetria sferica e non è stato calcolato esplicitamente il potenziale gravitazionale della componente stellare (le stelle sono traccianti in un potenziale gravitazionale fissato). Tramite un diretto confronto con alcune osservabili, quali il profilo di densità stellare proiettata e il profilo di dispersione di velocità lungo la linea di vista, sono stati trovati alcuni modelli rappresentativi della dinamica di Fornax. Modelli calcolati tramite funzioni di distribuzione basati su azioni permettono di determinare in maniera autoconsistente profili di anisotropia. Tutti i modelli calcolati sono caratterizzati dal possedere un profilo di anisotropia con forte anisotropia tangenziale. Sono state poi comparate le stime di materia oscura di questi modelli con i più comuni e usati stimatori di massa in letteratura. E stato inoltre stimato il rapporto tra la massa totale del sistema (componente stellare e materia oscura) e la componente stellare di Fornax, entro 1600 pc ed entro i 3 kpc. Come esplorazione preliminare, in questo lavoro abbiamo anche presentato anche alcuni esempi di modelli sferici a due componenti in cui il campo gravitazionale è determinato dall'autogravità delle stelle e da un potenziale esterno che rappresenta l'alone di materia oscura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si focalizza sullo studio del funzionamento dell'asse HPT in esemplari di Tursiops truncatus, mantenuti in ambiente controllato. Sono state analizzate le concentrazioni sieriche di TSH, T3 e T4 su 8 individui, 4 maschi e 4 femmine, lungo un periodo di tempo tra febbraio 2015 e febbraio 2016, tramite prelievo di sangue in concomitanza con i controlli veterinari. Essendo il TSH un ormone specie-specifico e vista l'attuale insesistenza di sistemi per la sua rilevazione in cetacei, si è voluto valutare anche se l'utilizzo di un sistema canino con anticorpi policlonali, fosse efficace per la sua analisi in cetacei. L'analisi è stata condotta tramite il kit "Thyroid Stimulating Hormone (TSH) Canine ELISA" (DRG), da cui è stata ottenuta ottima riproducibilità ed affidabilità. L'analisi degli ormoni tiroidei T3 e T4 è stata condotta tramite i kit CLIA. A seguito dell’analisi con sistema ELISA per TSH canino, tutti i campioni di tursiope hanno presentato concentrazioni superiori al limite di rilevabilità della metodica, pari a 0.01 ng/ml, e tutti rispecchiano e sottolineano la loro attività biologica. Il meccanismo di feeback positivo/negativo è evidenziato dall'analisi statistica: infatti, esiste una correlazione positiva tra T3 e TSH e tra T3 e T4. Per quanto riguarda i valori di T3 e T4 riscontrati, le medie ottenute indicano per il T3 valori di 1,117 ± 0,337 ng/ml e per il T4 10,806 ± 16,933 μg/dl, i quali rientrano nel range indicato dagli studi di Fair et al. (2011) e St. Aubin et al (1996). Le analisi statistiche hanno poi mostrato differenze nelle concentrazioni sieriche di tali ormoni tra maschi adulti, femmine adulte, maschio giovane e femmina giovane. Esse sono però significative solo nel caso del T3 (p= 0,006203), mentre per quanto riguarda TSH e T4, esse non risultano significative (rispettivamente p= 0,951254 e p= 0,131574).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è essenzialmente focalizzata sullo sviluppo di un sistema di controllo in tempo reale per uno Shaker Elettrodinamico usato per riprodurre profili di vibrazione ambientale registrati in contesti reali e di interesse per il recupero di energia. Grazie all'utilizzo di uno shaker elettrodinamico è quindi possibile riprodurre scenari di vibrazione reale in laboratorio e valutare più agevolmente le prestazioni dei trasduttori meccanici. Tuttavia, è richiesto un controllo dello Shaker non solo in termini di stabilità ma anche per garantire l'esatta riproduzione del segnale registrato nel contesto reale. In questa tesi, si è scelto di sviluppare un controllo adattivo nel dominio del tempo per garantire la corretta riproduzione del profilo di accelerazione desiderato. L'algoritmo è stato poi implementato sul sistema di prototipazione rapida dSPACE DS1104 basata su microprocessore PowerPC. La natura adattiva dell'algoritmo proposto permette di identificare cambiamenti nella risposta dinamica del sistema, e di regolare di conseguenza i parametri del controllore. Il controllo del sistema è stato ottenuto anteponendo al sistema un filtro adattivo la cui funzione di trasferimento viene continuamente adattata per rappresentare al meglio la funzione di trasferimento inversa del sistema da controllare. Esperimenti in laboratorio confermano l'efficacia del controllo nella riproduzione di segnali reali e in tipici test di sweep frequenziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Attraverso lo studio di forze e momenti torcenti applicati alle articolazioni di spalla e gomito, si cerca di indagare la biomeccanica del lancio nel baseball, in relazione all'utilizzo di palle appesantite e alleggerite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene analizzato il concetto di mobilità elettrica e viene proposta un’applicazione per la gestione della propria auto elettrica. L'applicazione in questione si pone come scopo l’agevolazione delle interazioni dell’utente con l’auto a distanza. Analizzando le caratteristiche principali dell’auto elettrica, ne vengono delineati i benefici e le limitazioni dell’autonomia, per la quale si suggerisce soluzione tramite regole da adottare alla guida. Attraverso la comparazione con le tipologie di applicazioni esistenti per la mobilità si decide che genere di approccio adottare nella realizzazione della nostra applicazione. Seguono la descrizione delle tecnologie di sviluppo del progetto sotto forma di applicazione ibrida, tra le quali ci si sofferma sull'utilizzo di linguaggi di markup, fogli di stile e JavaScript lato client. Di quest’ultimo ne vengono elencate le API utilizzate, in particolare Google Maps e Google Charts. Successivamente si introduce il concetto di simulazione server ed i metodi e le tecniche adottate per renderlo effettivo. Infine vengono spiegate le scelte implementative nonché i metodi e le decisioni presi in ambito di sviluppo per realizzare al meglio l’applicazione, fornendo una presentazione dettagliata delle sue funzionalità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I transistor elettrochimici a base organica (OECT) hanno attratto sempre maggior interesse e sono oggetto di molti studi dagli anni '70 no ai nostri giorni. Questo lavoro di tesi ha come oggetto la realizzazione e la caratterizzazione di OECT a base di poli(3,4-etilen-diossi-tiofene) complessato con l'acido stirensolfonico (PSS). Questi dispositivi sono stati costruiti utilizzando solamente semiconduttori organici come materiali conduttivi ovvero senza l'uso di metalli, quindi risultano essere biocompatibili, economici e di semplice realizzazione. Questo tipo di sensori presenta un elevata sensibilità agli analiti e necessita di un'elettronica di controllo molto più semplice rispetto a metodi elettrochimici tradizionali che utilizzano un potenziostato ed un elettrodo di riferimento. Sono state studiate diverse geometrie e spessori di polimero depositato per ottimizzare le condizioni di lavoro per avere alta sensibilità e guadagno in corrente attraverso l'uso di misure di corrente di drain in funzione del tempo con aggiunte successive di analita. Questi dispositivi sono stati utilizzati come sensori di analiti quali la dopamina, l'acido ascorbico e l'acido urico. Attraverso scansioni in transcaratteristica, si è studiata la risposta dei transistor relativa agli analiti ed attraverso lo studio della transconduttanza si è ottenuta una nuova metodologia di lavoro in grado di separare i contributi relativi ai vari composti. Inoltre, in questa modalità, è stato possibile ottenere una selettività dei sensori ai vari analiti, problema principale dell'utilizzo di transistor elettrochimici, ed attraverso la modulazione della velocità di scansione dello strumento, è stata ottenuta una risposta alla sola dopamina, analita di maggior interesse per applicazioni biosensoristiche. In conclusione si può affermare che questo tipo di dispositivo possiede ottime proprietà e caratteristiche per ulteriori studi e sviluppi in applicazioni reali.