69 resultados para COSI
Resumo:
I continui sviluppi nel campo della fabbricazione dei circuiti integrati hanno comportato frequenti travolgimenti nel design, nell’implementazione e nella scalabilità dei device elettronici, così come nel modo di utilizzarli. Anche se la legge di Moore ha anticipato e caratterizzato questo trend nelle ultime decadi, essa stessa si trova a fronteggiare attualmente enormi limitazioni, superabili solo attraverso un diverso approccio nella produzione di chip, consistente in pratica nella sovrapposizione verticale di diversi strati collegati elettricamente attraverso speciali vias. Sul singolo strato, le network on chip sono state suggerite per ovviare le profonde limitazioni dovute allo scaling di strutture di comunicazione condivise. Questa tesi si colloca principalmente nel contesto delle nascenti piattaforme multicore ad alte prestazioni basate sulle 3D NoC, in cui la network on chip viene estesa nelle 3 direzioni. L’obiettivo di questo lavoro è quello di fornire una serie di strumenti e tecniche per poter costruire e aratterizzare una piattaforma tridimensionale, cosi come dimostrato nella realizzazione del testchip 3D NOC fabbricato presso la fonderia IMEC. Il primo contributo è costituito sia una accurata caratterizzazione delle interconnessioni verticali (TSVs) (ovvero delle speciali vias che attraversano l’intero substrato del die), sia dalla caratterizzazione dei router 3D (in cui una o più porte sono estese nella direzione verticale) ed infine dal setup di un design flow 3D utilizzando interamente CAD 2D. Questo primo step ci ha permesso di effettuare delle analisi dettagliate sia sul costo sia sulle varie implicazioni. Il secondo contributo è costituito dallo sviluppo di alcuni blocchi funzionali necessari per garantire il corretto funziomento della 3D NoC, in presenza sia di guasti nelle TSVs (fault tolerant links) che di deriva termica nei vari clock tree dei vari die (alberi di clock indipendenti). Questo secondo contributo è costituito dallo sviluppo delle seguenti soluzioni circuitali: 3D fault tolerant link, Look Up Table riconfigurabili e un sicnronizzatore mesocrono. Il primo è costituito fondamentalmente un bus verticale equipaggiato con delle TSV di riserva da utilizzare per rimpiazzare le vias guaste, più la logica di controllo per effettuare il test e la riconfigurazione. Il secondo è rappresentato da una Look Up Table riconfigurabile, ad alte prestazioni e dal costo contenuto, necesaria per bilanciare sia il traffico nella NoC che per bypassare link non riparabili. Infine la terza soluzione circuitale è rappresentata da un sincronizzatore mesocrono necessario per garantire la sincronizzazione nel trasferimento dati da un layer and un altro nelle 3D Noc. Il terzo contributo di questa tesi è dato dalla realizzazione di un interfaccia multicore per memorie 3D (stacked 3D DRAM) ad alte prestazioni, e dall’esplorazione architetturale dei benefici e del costo di questo nuovo sistema in cui il la memoria principale non è piu il collo di bottiglia dell’intero sistema. Il quarto ed ultimo contributo è rappresentato dalla realizzazione di un 3D NoC test chip presso la fonderia IMEC, e di un circuito full custom per la caratterizzazione della variability dei parametri RC delle interconnessioni verticali.
Resumo:
La distorsione della percezione della distanza tra due stimoli puntuali applicati sulla superfice della pelle di diverse regioni corporee è conosciuta come Illusione di Weber. Questa illusione è stata osservata, e verificata, in molti esperimenti in cui ai soggetti era chiesto di giudicare la distanza tra due stimoli applicati sulla superficie della pelle di differenti parti corporee. Da tali esperimenti si è dedotto che una stessa distanza tra gli stimoli è giudicata differentemente per diverse regioni corporee. Il concetto secondo cui la distanza sulla pelle è spesso percepita in maniera alterata è ampiamente condiviso, ma i meccanismi neurali che manovrano questa illusione sono, allo stesso tempo, ancora ampiamente sconosciuti. In particolare, non è ancora chiaro come sia interpretata la distanza tra due stimoli puntuali simultanei, e quali aree celebrali siano coinvolte in questa elaborazione. L’illusione di Weber può essere spiegata, in parte, considerando la differenza in termini di densità meccano-recettoriale delle differenti regioni corporee, e l’immagine distorta del nostro corpo che risiede nella Corteccia Primaria Somato-Sensoriale (homunculus). Tuttavia, questi meccanismi sembrano non sufficienti a spiegare il fenomeno osservato: infatti, secondo i risultati derivanti da 100 anni di sperimentazioni, le distorsioni effettive nel giudizio delle distanze sono molto più piccole rispetto alle distorsioni che la Corteccia Primaria suggerisce. In altre parole, l’illusione osservata negli esperimenti tattili è molto più piccola rispetto all’effetto prodotto dalla differente densità recettoriale che affligge le diverse parti del corpo, o dall’estensione corticale. Ciò, ha portato a ipotizzare che la percezione della distanza tattile richieda la presenza di un’ulteriore area celebrale, e di ulteriori meccanismi che operino allo scopo di ridimensionare – almeno parzialmente – le informazioni derivanti dalla corteccia primaria, in modo da mantenere una certa costanza nella percezione della distanza tattile lungo la superfice corporea. E’ stata così proposta la presenza di una sorta di “processo di ridimensionamento”, chiamato “Rescaling Process” che opera per ridurre questa illusione verso una percezione più verosimile. Il verificarsi di questo processo è sostenuto da molti ricercatori in ambito neuro scientifico; in particolare, dal Dr. Matthew Longo, neuro scienziato del Department of Psychological Sciences (Birkbeck University of London), le cui ricerche sulla percezione della distanza tattile e sulla rappresentazione corporea sembrano confermare questa ipotesi. Tuttavia, i meccanismi neurali, e i circuiti che stanno alla base di questo potenziale “Rescaling Process” sono ancora ampiamente sconosciuti. Lo scopo di questa tesi è stato quello di chiarire la possibile organizzazione della rete, e i meccanismi neurali che scatenano l’illusione di Weber e il “Rescaling Process”, usando un modello di rete neurale. La maggior parte del lavoro è stata svolta nel Dipartimento di Scienze Psicologiche della Birkbeck University of London, sotto la supervisione del Dott. M. Longo, il quale ha contribuito principalmente all’interpretazione dei risultati del modello, dando suggerimenti sull’elaborazione dei risultati in modo da ottenere un’informazione più chiara; inoltre egli ha fornito utili direttive per la validazione dei risultati durante l’implementazione di test statistici. Per replicare l’illusione di Weber ed il “Rescaling Proess”, la rete neurale è stata organizzata con due strati principali di neuroni corrispondenti a due differenti aree funzionali corticali: • Primo strato di neuroni (il quale dà il via ad una prima elaborazione degli stimoli esterni): questo strato può essere pensato come parte della Corteccia Primaria Somato-Sensoriale affetta da Magnificazione Corticale (homunculus). • Secondo strato di neuroni (successiva elaborazione delle informazioni provenienti dal primo strato): questo strato può rappresentare un’Area Corticale più elevata coinvolta nell’implementazione del “Rescaling Process”. Le reti neurali sono state costruite includendo connessioni sinaptiche all’interno di ogni strato (Sinapsi Laterali), e connessioni sinaptiche tra i due strati neurali (Sinapsi Feed-Forward), assumendo inoltre che l’attività di ogni neurone dipenda dal suo input attraverso una relazione sigmoidale statica, cosi come da una dinamica del primo ordine. In particolare, usando la struttura appena descritta, sono state implementate due differenti reti neurali, per due differenti regioni corporee (per esempio, Mano e Braccio), caratterizzate da differente risoluzione tattile e differente Magnificazione Corticale, in modo da replicare l’Illusione di Weber ed il “Rescaling Process”. Questi modelli possono aiutare a comprendere il meccanismo dell’illusione di Weber e dare così una possibile spiegazione al “Rescaling Process”. Inoltre, le reti neurali implementate forniscono un valido contributo per la comprensione della strategia adottata dal cervello nell’interpretazione della distanza sulla superficie della pelle. Oltre allo scopo di comprensione, tali modelli potrebbero essere impiegati altresì per formulare predizioni che potranno poi essere verificate in seguito, in vivo, su soggetti reali attraverso esperimenti di percezione tattile. E’ importante sottolineare che i modelli implementati sono da considerarsi prettamente come modelli funzionali e non intendono replicare dettagli fisiologici ed anatomici. I principali risultati ottenuti tramite questi modelli sono la riproduzione del fenomeno della “Weber’s Illusion” per due differenti regioni corporee, Mano e Braccio, come riportato nei tanti articoli riguardanti le illusioni tattili (per esempio “The perception of distance and location for dual tactile pressures” di Barry G. Green). L’illusione di Weber è stata registrata attraverso l’output delle reti neurali, e poi rappresentata graficamente, cercando di spiegare le ragioni di tali risultati.
Resumo:
Il calcestruzzo è uno dei materiali più utilizzati nell’edilizia, ma il meno sostenibile. Per la sua produzione vengono sfruttate elevate quantità di risorse naturali non rinnovabili con un impatto ambientale non trascurabile, sia per le sostanze emesse in atmosfera, sia per le macerie derivate post utilizzo. L’ingresso nel XXI secolo ha segnato definitivamente l’affermazione del concetto di sviluppo sostenibile nei riguardi di tutti i processi produttivi dei beni, che devono essere necessariamente strutturati secondo una logica di risparmio energetico e di controllo della produzione di scorie e rifiuti, prevedendone un loro riutilizzo in altri settori, o un loro smaltimento senza provocare danni all’ambiente. Anche l’industria del cemento e del calcestruzzo è chiamata a svolgere il proprio ruolo per contribuire ad un miglior bilancio ecologico globale, indirizzando la ricerca verso possibilità d’impiego di materiali “innovativi”, che siano in grado di sostituire parzialmente o totalmente l’uso di materie prime non rinnovabili, tenendo conto dell’enorme richiesta futura di infrastrutture, soprattutto nei paesi in via di sviluppo. Negli ultimi anni si sta sempre più affermando il potenziale del riciclo dei materiali ottenuti dalla demolizione di edifici (C&DW – Construction and Demolition Waste), questo dovuto anche a politiche di gestione dei rifiuti che incentivano il risparmio, il riutilizzo, il riciclo e la valorizzazione dei beni. I calcestruzzi con aggregati di riciclo sono generalmente suddivisi in due macrogruppi: quelli ottenuti da aggregati di riciclo di solo calcestruzzo (RCA – Recycled Coarse Aggregate) e quelli da aggregati da demolizione totale (MRA – Mixed Recycled Aggregate) che però contengono molte impurità. Come anche uno può subito pensare gli aggregati riciclati hanno delle proprietà diverse da quelli naturali, questi contengono oltre l’aggregato naturale anche il legante coeso, polveri di laterizio, vetro, ceramica, plastica eccet., i quali offrono una miscela ricca di cloruri, solfati, silice amorfa ed altri componenti dannosi per la nuova miscela di calcestruzzo. In presenza di questi prodotti, gli aggregati non solo non soddisfano i requisiti chimici, ma influiscono negativamente anche sulle proprietà fisico-meccaniche del calcestruzzo. Per questo vedremmo in questa tesi tramite un accurata analisi degli aggregati, e del loro “contributo” per il corretto comportamento del calcestruzzo, leggendo criticamente come le normative regolano i requisiti che gli aggregati debbono soddisfare, vedendo le varie possibilità di riutilizzo dei materiali di riciclo da demolizione. La tesi mira all'incentivo dei materiali da riciclo, come scelta sostenibile per il futuro dell'edilizia. E' stato calcolato che la produzione totale di macerie da demolizione nel mondo, non supera il 20% in massa degli aggregati che vengono utilizzati per la produzione del calcestruzzo nei paesi sviluppati. Dai vari studi è stato valutato in media che col solo 20% di riciclato sostituito, le caratteristiche del calcestruzzo indurito cambiano di poco dal normale miscelato con aggregati naturali; ovviamente se gli aggregati da riciclo sono stati selezionati e sottoposti ai vari test delle norme europee standardizzate. Quindi uno può subito pensare in linea teorica, tralasciando i costi di gestione, trasporto eccet. , che basta utilizzare per ogni metro cubo di calcestruzzo 20% di riciclato, per rispondere allo smaltimento dei rifiuti da C&D; abbassando cosi i costi degli inerti naturali, sempre parlando di economie di scala. Questo è in linea teorica, ma riflette un dato rilevante. Nel presente lavoro si partirà da una veloce lettura sul comportamento del calcestruzzo, su i suoi principali costituenti, concentrandoci sugli aggregati, analizzandone le sue proprietà fisico-meccaniche, quali la granulometria, la resistenza meccanica e la rigidezza, valutando l’importanza dei legami coesivi tra aggregato alla pasta cementizia. Verranno inoltre analizzate le azioni deleterie che possono instaurarsi tra aggregato di riciclo e pasta cementizia. Dopo aver visto le varie politiche sulla gestione dei rifiuti, la legislazione passata e presente sull’uso dei materiali riciclati, si analizzeranno vari studi sulle proprietà fisico-meccaniche dei calcestruzzi con aggregati di riciclo seguiti da università e poli di ricerca internazionali. Se gli aggregati di riciclo sono selezionati con metodo, in presenza di piani di gestione regionale e/o nazionale, è possibile soddisfare le prestazioni richieste del calcestruzzo, nel rispetto delle politiche di sostenibilità economico-ambientali. Può essere il calcestruzzo riciclato una scelta non solo sostenibile, ma anche economica per il settore edile? Si può avere un calcestruzzo riciclato ad alte prestazioni? Quali sono le politiche da mettere in atto per un mercato di produzione sostenibile del riciclato? Questo e molto altro verrà approfondito nelle pagine seguenti di questa tesi.
Resumo:
Background/Aims. Uremic Neuropathy (UN) highly limits the individual self-sufficiency causing near-continuous pain. An estimation of the actual UN prevalence among hemodialysis patients was the aim of the present work. Methods. We studied 225 prevalent dialysis patients from two Italian Centres. The Michigan Neuropathy Score Instrument (MNSI), already validated in diabetic neuropathy, was used for the diagnosis of UN. It consisted of a questionnaire (MNSI_Q) and a physical-clinical evaluation (MNSI_P). Patients without any disease possibly inducing secondary neuropathy and with MNSI score 3 have been diagnosed as affected by UN. Electroneurographic (ENG) lower limbs examination was performed in these patients to compare sensory conduction velocities (SCV) and sensory nerve action potentials (SNAP) with the MNSI results. Results. Thirtyseven patients (16.4%) were identified as being affected by UN, while 9 (4%) presented a score <3 in spite of neuropathic symptoms. In the 37 UN patients a significant correlation was found between MNSI_P and SCV (r2 = 0.1959; p<0.034) as well as SNAP (r2 = 0.3454; p=0.027) both measured by ENG. Conclusions. UN is an underestimated disease among the dialysis population even though it represents a huge problem in terms of pain and quality of life. MNSI could represent a valid and simple clinical-instrumental screening test for the early diagnosis of UN in view of an early therapeutic approach.
Resumo:
L’ingegner Pier Luigi Nervi (1891-1979), progettista, costruttore e teorico del “Costruire Correttamente”, ha intrapreso un proprio esclusivo percorso professionale che ha decretato negli anni una notevole fortuna critica fino a un sostanziale oblio dopo la sua morte. La presente ricerca di dottorato intende approfondire le tematiche legate a una significativa tipologia strutturale che ha contrassegnato il percorso professionale di Pier Luigi Nervi: le architetture voltate. Cupole, volte e coperture geodetiche rappresentano il sistema ottimale con il quale Nervi ha perseguito una personale ricerca mirata alla definizione di grandi luci di copertura a spessore ridotto. Questi sistemi di copertura rappresentano per Nervi la miglior espressione architettonica in quanto perfetta sintesi tra funzioni statiche e esigenze economiche. Le parole chiave per definire l’ambito di studio possono essere cosi riepilogate: sperimentazione/variazione sul tema/primato della grande luce/nuove strutture. La tesi intende indagare i tentativi di rinnovamento che, a partire dagli anni sessanta, spingono Pier Luigi Nervi a sperimentare l’applicazione di nuovi materiali come l’alluminio in sostituzione totale o parziale di un sistema costruttivo, quello del ferrocemento, che ha contraddistinto la maggior parte delle sue opere decretandone il successo. La testimonianza di questa intransigenza, legata all’etica del costruire secondo i principi di naturalezza e razionalità, costantemente riaffermata da Nervi nelle sue diverse pubblicazioni, è sorprendentemente disattesa nella ricerca sulle nuove strutture. Queste strutture, sperimentate senza successo in considerazione della loro mancata concreta attuazione, rivelano un complesso di singolarità capace di porre in discussione quell’intransigenza a cui Nervi ha fedelmente dichiarato di attenersi. La lettura critica del progetto di concorso per il Kuwait Sports Centre, elaborato nel 1968, contiene la sintesi di tutte le parole chiave della ricerca. Scopo della presente tesi è documentare circostanze, innovazioni e anomalie che hanno accompagnato Pier Luigi Nervi nella definizione di nuove strutture voltate.
Resumo:
Il presente lavoro è stato avviato per caratterizzare dal punto di vista geochimico i siti di alimentazione e di riproduzione del Fenicottero ed ottenere così un dataset relativo alle concentrazioni di metalli nei sedimenti di alcune zone umide, utilizzate da questa specie per alimentarsi e riprodursi e scarsamente studiate in passato. Il lavoro di tesi qui presentato si è articolato in due differenti studi: • Un’indagine dettagliata sulla presenza e distribuzione di metalli ed elementi potenzialmente tossici nei sedimenti provenenti da alcune delle principali aree di alimentazione del Fenicottero nell’Alto Adriatico; • Un’indagine preliminare relativa ai metalli contenuti nei sedimenti provenienti da alcuni siti riproduttivi del Fenicottero nel Mediterraneo occidentale. Per quanto riguarda i siti di alimentazione sono state campionate tre zone umide dell’area deltizia del fiume Po: le Valli di Rosolina, Valle Bertuzzi e le Valli di Comacchio. Riguardo i siti riproduttivi sono state campionate cinque aree umide nel Mediterraneo occidentale: le Paludi dell’Odiel nel sud-ovest della Spagna, la Camargue in Francia, lo Stagno di Cagliari in Sardegna, le Valli di Comacchio in Emilia-Romagna e Valle Dogà in Laguna di Venezia. I 57 campioni raccolti sono stati analizzati mediante analisi XRF ed analisi termiche, presso il Dipartimento di Scienze Biologiche, Geologiche e Ambientali, dell’Università di Bologna, e mediante analisi ICP-MS, presso l’AcmeLabs di Vancouver (Canada). Il complesso deltizio del fiume Po ha registrato concentrazioni anomale di Cd, Pb, Sb e Sn mostrando un generale arricchimento nei sedimenti delle aree umide investigate rispetto al valore di riferimento. Analizzando le correlazioni di questo elemento con le frazioni dei sedimenti, si è evidenziata una buona correlazione con la componente organica del sedimento. Ciò potrebbe indicare la presenza di fenomeni di adsorbimento di questo elemento ad opera della matrice organica. L’area di studio non è apparentemente interessata da importanti attività industriali, che potrebbero in parte spiegare le elevate concentrazioni di Cd, Pb, Sb e Sn. Due potenziali sorgenti antropogeniche di contaminazione sono rappresentate da un’estensiva attività agricola nelle zone limitrofe alle valli considerate e da un elevata pressione venatoria esercitata proprio all’interno di queste zone umide. In particolare, quest’ultima attività umana, potrebbe rappresentare una spiegazione più che plausibile per l’elevata presenza di Pb, messa in evidenza dallo studio, dato che fino ad pochissimi anni venivano utilizzate munizioni al Pb con conseguente rilascio in ambiente di ingenti quantitativi di questo metallo. Il Cu e lo Zn si distribuiscono invece in modo relativamente omogeneo nelle tre zone umide investigate, con un debole arricchimento di questi due elementi nei sedimenti delle Valli di Rosolina. Per quanto riguarda l’As, la sua distribuzione nell’area di studio, confrontata con i valori di background, non sembra sollevare particolare preoccupazione, cosi come la presenza di Hg in tutti e tre i siti investigati. Le Valli di Comacchio e Valle Bertuzzi sono inoltre caratterizzate da concentrazioni elevate di Cr e Ni, dati che confermano il naturale arricchimento di questi due elementi nell’area di studio evidenziato da un ampia letteratura e riconducibile ad apporti litologici provenienti dai depositi ofiolitici delle Alpi occidentali trasportati dal fiume Po verso l’Adriatico. Tuttavia, in alcuni campioni la concentrazione di Cr è molto superiore a quella caratteristica delle ofioliti di origine alpina, soprattutto per Valle Bertuzzi. Per spiegare queste anomalie sono necessarie indagini più approfondite sulla presenza e distribuzione di Cr nell’area di Comacchio e Bertuzzi. Riguardo ai 5 siti riproduttivi del Fenicottero, la colonia di Odiel (Spagna) si distingue per essere il sito maggiormente contaminato tra quelli investigati. Si sono infatti riscontrate elevate concentrazioni di As, Cu, Hg, Pb, Sb, Sn e Zn, se confrontate con quelle degli altri siti campionati. Questo risultato non sorprende. Il sito è infatti riconosciuto in letteratura come uno dei sistemi estuarini più inquinati dell’Europa occidentale, in quanto interessato dall’attività mineraria della IPB (Iberian Pyrite Belt), uno dei più importanti siti minerari mondiali, e dall’attività del polo industriale di Huelva. La colonia francese della Camargue si distingue invece per essere il sito meno impattato dall’attività antropica, non mostrando concentrazioni anomale per nessuno degli elementi in traccia analizzati. I sito riproduttivo situato nei pressi di Cagliari, in Sardegna, ha riportato elevate concentrazioni di Cd, Hg e Pb. La contaminazione di questo sito a seguito di ingenti scarichi di rifiuti industriali contenenti Hg e Pb a partire dagli anni ’60 è ben documentata in letteratura. Sebbene negli anni ’90 siano stati realizzati progetti di bonifica del sito, le concentrazioni ottenute nel presente studio sono ancora elevate suggerendo la possibilità che il processo di rimozione di Hg e Pb messo in atto in passato possa aver avuto scarsa efficacia. La colonia riproduttiva di Comacchio ha registrato concentrazioni elevate di Cr, Ni e Pb. Come già detto riguardo ai siti di alimentazione l’abbondanza di Cr e Ni nell’area è da ricondurre a fattori naturali, mentre le elevate concentrazioni di Pb non trovano riscontri in precedenti studi. La presenza di alcuni campioni con concentrazioni anomale di Cr e il generale arricchimento di Pb nel sito suggeriscono la necessità di studi più approfonditi e specifici sulla presenza di questi elementi nell’area di Comacchio. Infine, la colonia situata in Laguna di Venezia si caratterizza per avere concentrazioni relativamente elevate di Cd e Hg riconducibili all’attività del polo industriale di Porto Marghera, come già evidenziato da numerosi studi. Tuttavia, i dati del presente studio non confermano le concentrazioni anomale di Zn messe in evidenza da molti studi effettuati nell’intera laguna veneta. Ciò può trovare una spiegazione nel fatto che il sito indagato in questo studio corrisponde ad un piccola porzione dell’intera laguna, molto raramente investigato negli studi passati. Mediante il presente studio è stato quindi possibile implementare le scarse conoscenze geochimiche relative ai sedimenti di alcune zone umide frequentate dai fenicotteri nell’Alto Adriatico e, al contempo, mettere in luce alcune importanti criticità, in particolar modo riguardo Cd, Cr, Pb, Sb e Sn, la cui presenza e distribuzione nell’area dovrebbero essere ulteriormente investigate da studi futuri.
Resumo:
In genere, negli studi di vocazionalità delle colture, vengono presi in considerazione solo variabili ambientali pedo-climatiche. La coltivazione di una coltura comporta anche un impatto ambientale derivante dalle pratiche agronomiche ed il territorio può essere più o meno sensibile a questi impatti in base alla sua vulnerabilità. In questo studio si vuole sviluppare una metodologia per relazionare spazialmente l’impatto delle colture con le caratteristiche sito specifiche del territorio in modo da considerare anche questo aspetto nell’allocazione negli studi di vocazionalità. LCA è stato utilizzato per quantificare diversi impatti di alcune colture erbacee alimentari e da energia, relazionati a mappe di vulnerabilità costruite con l’utilizzo di GIS, attraverso il calcolo di coefficienti di rischio di allocazione per ogni combinazione coltura-area vulnerabile. Le colture energetiche sono state considerate come un uso alternativo del suolo per diminuire l’impatto ambientale. Il caso studio ha mostrato che l’allocazione delle colture può essere diversa in base al tipo e al numero di impatti considerati. Il risultato sono delle mappe in cui sono riportate le distribuzioni ottimali delle colture al fine di minimizzare gli impatti, rispetto a mais e grano, due colture alimentari importanti nell’area di studio. Le colture con l’impatto più alto dovrebbero essere coltivate nelle aree a vulnerabilità bassa, e viceversa. Se il rischio ambientale è la priorità, mais, colza, grano, girasole, e sorgo da fibra dovrebbero essere coltivate solo nelle aree a vulnerabilità bassa o moderata, mentre, le colture energetiche erbacee perenni, come il panico, potrebbero essere coltivate anche nelle aree a vulnerabilità alta, rappresentando cosi una opportunità per aumentare la sostenibilità di uso del suolo rurale. Lo strumento LCA-GIS inoltre, integrato con mappe di uso attuale del suolo, può aiutare a valutarne il suo grado di sostenibilità ambientale.
Resumo:
Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.
Resumo:
La stesura di questo elaborato di tesi trova le basi sull’articolo di Stergiopulos et al. “Determinants of stroke volume and systolic and diastolic aortic pressure” pubblicato sulla rivista americana American Journal of Physiology-Heart and Circulatory Physiology nel 1996. Si cerca di investigare sull’importanza che ricoprono alcuni parametri che descrivono il muscolo cardiaco e l’albero arterioso e sulla loro rispettiva influenza sulla pressione sistolica, pressione diastolica e sul volume di sangue eiettato in un battito, ovvero la gittata sistolica. Si procede con la descrizione in dettaglio della funzionalità cardiaca mediante il modello ad elastanza tempo variabile e il modello windkessel a tre elementi simulando così la contrazione ventricolare e l’albero arterioso sistemico. In dettaglio per quanto riguarda la struttura dell’elaborato è bene specificare che l’analisi teorica affrontata nei primi due capitoli ha l’obiettivo primario di: 1) chiarire i principali e caratteristici meccanismi che si trovano alla base della funzionalità cardiaca e procedere quindi con i richiami relativi alla fisiologia del sistema cardio-circolatorio facendo particolare attenzione al concetto di ciclo cardiaco, ciclo pressione-volume e fattori che determinano la funzionalità cardiaca in dettaglio; 2)illustrare quelli che sono i principali modelli di riferimento presenti in letteratura che descrivono la contrazione del ventricolo sinistro in termini di analisi pressione-volume ventricolari istantanei. Dal terzo capitolo in avanti si prosegue verso quello che è il vivo della trattazione dell’articolo di riferimento, nel capitolo appena citato si fa luce sui dettagli che caratterizzano il modello matematico utilizzato per approssimare al meglio il sistema cuore-sistema arterioso e sull’applicazione della teoria dell’analisi dimensionale mediante l’utilizzo del Teorema di Buckingham al fine di ricavare i parametri di interesse. Nel quarto capitolo si riportano i risultati dello studio con annessa validazione del modello e la sua applicazione rispetto al caso umano. Il quinto capitolo è sede della discussione dei risultati ottenuti cercando di far luce sull’universalità e applicabilità delle formule empiriche ottenute e su eventuali limitazioni e implicazioni riscontrabili. Tale elaborato si chiude con alcune conclusioni in merito allo studio effettuato.
Resumo:
Over the last 60 years, computers and software have favoured incredible advancements in every field. Nowadays, however, these systems are so complicated that it is difficult – if not challenging – to understand whether they meet some requirement or are able to show some desired behaviour or property. This dissertation introduces a Just-In-Time (JIT) a posteriori approach to perform the conformance check to identify any deviation from the desired behaviour as soon as possible, and possibly apply some corrections. The declarative framework that implements our approach – entirely developed on the promising open source forward-chaining Production Rule System (PRS) named Drools – consists of three components: 1. a monitoring module based on a novel, efficient implementation of Event Calculus (EC), 2. a general purpose hybrid reasoning module (the first of its genre) merging temporal, semantic, fuzzy and rule-based reasoning, 3. a logic formalism based on the concept of expectations introducing Event-Condition-Expectation rules (ECE-rules) to assess the global conformance of a system. The framework is also accompanied by an optional module that provides Probabilistic Inductive Logic Programming (PILP). By shifting the conformance check from after execution to just in time, this approach combines the advantages of many a posteriori and a priori methods proposed in literature. Quite remarkably, if the corrective actions are explicitly given, the reactive nature of this methodology allows to reconcile any deviations from the desired behaviour as soon as it is detected. In conclusion, the proposed methodology brings some advancements to solve the problem of the conformance checking, helping to fill the gap between humans and the increasingly complex technology.
Resumo:
Nel seguente elaborato verrà presentato il lavoro volto alla progettazione di una protesi di piede realizzata con materiale composito in fibra di carbonio riciclato. Per il suo conseguimento sono state prese in considerazione due scelte progettuali che permetteranno una futura realizzazione semplice ed economica. Una volta determinate le scelte progettuali, si sono generati dei semplici modelli di primo approccio, per i quali sono stati previsti modellazione CAD e simulazioni di opportuni modelli agli elementi finiti. Su quest’ultimi sono stati applicati i carichi e i vincoli secondo la norma UNI ISO 22675 e sono state eseguite diverse simulazioni al variare di alcuni parametri geometrici e del numero e orientamenti degli strati componenti le lamine. Dalle simulazioni sono stati ricavati i valori di tensione, ai quali è stato applicato il criterio di resistenza strutturale per i materiali compositi di Tsai – Hill. Dal confronto di tutti i risultati, si sono determinati i parametri di progetto ottimali per ognuna delle due varianti progettuali proposte. Sulla base dei risultati ottenuti sono stati realizzati nuovi modelli CAD più dettagliati, per i quali è stata condotta l’analisi FEM e la verifica del criterio strutturale come per i modelli di primo approccio. I modelli cosi definiti possono essere la base di partenza per la definizione del progetto costruttivo del prototipo di una o entrambe le varianti progettuali.
Resumo:
Nel 2004 due Fisici dell’Università di Manchester, nel Regno Unito, hanno isolato per la prima volta un materiale dallo spessore di un singolo atomo: il grafene. Questo materiale, composto da un reticolo di atomi di carbonio disposti a nido d’ape, possiede interessanti proprietà chimiche e fisiche, tra le quali una elevata resistenza chimica e meccanica, un’eccellente trasporto termico ed elettrico ed una elevata trasparenza. Il crescente fermento attorno al grafene ha suscitato un forte interesse a livello europeo, al punto che il 28 gennaio di quest’anno la Comunità Europea ha approvato i due più grandi progetti di ricerca mai finanziati in Europa. Tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 120 gruppi di ricerca da 17 Stati Europei e distribuirà nei prossimi anni 1,000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene. Nel mio elaborato di Tesi ho seguito le ricerche del gruppo grafene dell’Istituto per la Microelettronica e i Microsistemi del Consiglio Nazionale delle Ricerche di Bologna, approfondendo il funzionamento del sistema di sintesi di questo materiale chiamato Chemical Vapour Deposition e le tecniche sperimentali che permettono il trasferimento del grafene su substrati come il silicio, ma anche materiali polimerici flessibili come il PET, per la realizzazione di elettrodi conduttivi, trasparenti per applicazioni nell’elettronica flessibile. Questa esperienza e stata molto importante per la mia formazione e mi ha dato modo di lavorare ad un soggetto di ricerca cosi attuale, importante e promettente come il grafene. Nutro personalmente grande passione e aspettativa per questo materiale e sono convinto che nel prossimo futuro la tecnologia del grafene saprà entrare nella vita quotidiana di tutti noi.
Resumo:
Negli ultimi decenni, in varie parti del Mondo cosi come in Italia, si è assistito a un rapido aumento di strutture abitative, fabbricati ad uso industriale, residenziale e rurale. La continua sottrazione di terreno per tali scopi ha portato a un aumento di tutta una serie di problematiche ambientali. Con la diminuzione delle aree verdi si è andati incontro a una diminuzione della trattenuta idrica del terreno, all'aumento della velocità di scolo dell'acqua e del tempo di corrivazione con conseguenze sempre più drammatiche per le aree urbanizzate nei periodi di forti piogge. Inoltre, c'è da ricordare, che una diminuzione delle aree a verde comporta, oltre al cambiamento a livello paesaggistico, anche una diminuzione della capacità delle piante di trattenere le polveri inquinanti e di produrre ossigeno. Tutti questi fattori hanno portato allo studio di soluzioni tecnologiche che potessero unire i bisogni di verde della collettività con la necessità di una gestione sostenibile delle acque meteoriche. Tra esse, una che sta trovando notevole applicazione è la creazione di aree verdi sulla copertura degli edifici. Secondo le loro caratteristiche, queste aree verdi sono denominate tetti verdi e/o giardini pensili. La struttura si compone di strati di coltivazione e drenaggio con diversa profondità e una copertura vegetale. La vegetazione utilizzata può andare da specie con bassissime richieste manutentive (tipo estensivo) ad altre con maggiori necessità (tipo intensivo), come i tappeti erbosi. Lo scopo di questa tesi è stato quello di approntare una sperimentazione sul nuovo tetto verde realizzato presso la sede di Ingegneria, via Terracini 28, volta a stimare i costi economici e ambientali sostenuti per la realizzazione dello stesso, per poi confrontarli con i benefici ambientali legati al risparmio idrico ed energetico su scala edificio e urbana. Per la stima dei costi ambientali dei materiali utilizzati, dalla nascita al fine vita, si è utilizzato il metodo LCA- Life Cycle Assessment- e il software Sima Pro
Resumo:
Questo a lavoro di tesi si è incentrato sullo sviluppo di catalizzatori attivi nella reazione di ossidazione parziale catalitica (CPO) del metano per la produzione di idrogeno o/e syngas, con un rapporto ottimale di H2/CO, utile per la produzione idrocarburi attraverso la reazione di Fischer-Tropsch o per l’alimentazione delle fuels cells. La scarsa diffusione di questo processo è da attribuirsi alla mancanza di catalizzatori adatti a resistere agli elevati flussi e alle elevate temperature raggiunte nel letto senza subire processi di disattivazione; pertanto, è necessario lo sviluppo di nuovi catalizzatori non soltanto attivi, ma anche stabili nelle condizioni di reazione. In questa tesi si sono studiati catalizzatori con differenti fasi attive Rh e Ru supportati su CeO2-Al2O3, utilizzati in pellets. L'attenzione di questo lavoro di tesi si è focalizzata sullo studio delle proprietà e del ruolo della fase attiva e del promotore ceria nei catalizzatori. Per questo studio sono stati sintetizzati per coprecipitazione due catalizzatori con ugual concentrazione di cerio ma diversa fase attiva, Rodio e Rutenio e se ne sono studiate le proprietà. Della fase attiva con migliori prestazioni, il Rh, se ne è approfondito lo studio, indagando sulla migliore metodologia di attivazione e sul miglior metodo di sintesi del catalizzatore. Infine, per lo studio dell’effetto del cerio sia nelle proprietà chimico-fisiche che nella attività catalitica, sono stati preparati per coprecipitazione diversi catalizzatori di tipo Rh-CeO2-Al2O3, con un contenuto di cerio variabile ma con ugual concentrazione di fase attiva, cosi come dei campioni di riferimento contenti soltanto ceria o allumina. Questi catalizzatori sono stati testati in severe condizioni e per lunghi tempi di reazione per simulare l’utilizzo industriale ed evidenziarne le caratteristiche.