993 resultados para STATA
Resumo:
Uno dei principali ambiti di ricerca dell’intelligenza artificiale concerne la realizzazione di agenti (in particolare, robot) in grado di aiutare o sostituire l’uomo nell’esecuzione di determinate attività. A tal fine, è possibile procedere seguendo due diversi metodi di progettazione: la progettazione manuale e la progettazione automatica. Quest’ultima può essere preferita alla prima nei contesti in cui occorra tenere in considerazione requisiti quali flessibilità e adattamento, spesso essenziali per lo svolgimento di compiti non banali in contesti reali. La progettazione automatica prende in considerazione un modello col quale rappresentare il comportamento dell’agente e una tecnica di ricerca (oppure di apprendimento) che iterativamente modifica il modello al fine di renderlo il più adatto possibile al compito in esame. In questo lavoro, il modello utilizzato per la rappresentazione del comportamento del robot è una rete booleana (Boolean network o Kauffman network). La scelta di tale modello deriva dal fatto che possiede una semplice struttura che rende agevolmente studiabili le dinamiche tuttavia complesse che si manifestano al suo interno. Inoltre, la letteratura recente mostra che i modelli a rete, quali ad esempio le reti neuronali artificiali, si sono dimostrati efficaci nella programmazione di robot. La metodologia per l’evoluzione di tale modello riguarda l’uso di tecniche di ricerca meta-euristiche in grado di trovare buone soluzioni in tempi contenuti, nonostante i grandi spazi di ricerca. Lavori precedenti hanno gia dimostrato l’applicabilità e investigato la metodologia su un singolo robot. Lo scopo di questo lavoro è quello di fornire prova di principio relativa a un insieme di robot, aprendo nuove strade per la progettazione in swarm robotics. In questo scenario, semplici agenti autonomi, interagendo fra loro, portano all’emergere di un comportamento coordinato adempiendo a task impossibili per la singola unità. Questo lavoro fornisce utili ed interessanti opportunità anche per lo studio delle interazioni fra reti booleane. Infatti, ogni robot è controllato da una rete booleana che determina l’output in funzione della propria configurazione interna ma anche dagli input ricevuti dai robot vicini. In questo lavoro definiamo un task in cui lo swarm deve discriminare due diversi pattern sul pavimento dell’arena utilizzando solo informazioni scambiate localmente. Dopo una prima serie di esperimenti preliminari che hanno permesso di identificare i parametri e il migliore algoritmo di ricerca, abbiamo semplificato l’istanza del problema per meglio investigare i criteri che possono influire sulle prestazioni. E’ stata così identificata una particolare combinazione di informazione che, scambiata localmente fra robot, porta al miglioramento delle prestazioni. L’ipotesi è stata confermata applicando successivamente questo risultato ad un’istanza più difficile del problema. Il lavoro si conclude suggerendo nuovi strumenti per lo studio dei fenomeni emergenti in contesti in cui le reti booleane interagiscono fra loro.
Towards model driven software development for Arduino platforms: a DSL and automatic code generation
Resumo:
La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase più importante dello sviluppo sarà la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercherà di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sarà quindi di tipo platform-independent. Per la generazione automatica di codice è stata adottata una piattaforma di riferimento, cioè Arduino. Arduino è un sistema embedded che si sta sempre più affermando perché coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito è un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello può essere considerato anche come la sintassi astratta di un linguaggio, quindi può essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello è stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore è l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice è stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione è stato spostato più in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si è quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualità ed il meta-modello viene tradotto in codice che funziona correttamente.
Resumo:
L’imballaggio alimentare si può definire come un sistema coordinato per disporre i beni per il trasporto, la distribuzione, la conservazione, la vendita e l’utilizzo. Uno dei materiali maggiormente impiegati, nell’industria alimentare, per la produzione di imballaggi sono le materie plastiche. Esse sono sostanze organiche derivanti da petrolio greggio, sono composti solidi allo stato finito, ma possono essere modellate allo stato fluido. Un imballaggio alimentare deve svolgere determinate funzioni tra cui: - contenimento del prodotto - protezione del prodotto da agenti esterni - logistica - comunicativa - funzionale - ecologica L'ultimo punto sopracitato è il principale problema delle materie plastiche derivanti dal petrolio greggio. Questi materiali sono difficilmente riciclabili perché spesso un imballaggio è composto da più materiali stratificati o perché si trova a diretto contatto con gli alimenti. Inoltre questi materiali hanno un lungo tempo di degradazione (da 100 a 1000 anni) che ne rendono difficile e costoso lo smaltimento. Per questo nell’ultimo decennio è cominciata la ricerca di un materiale plastico, flessibile alle esigenze industriali e nel contempo biodegradabile. Una prima idea è stata quella di “imitare la natura” cercando di replicare macromolecole già esistenti (derivate da amido e zuccheri) per ottenere una sostanza plastico-simile utilizzabile per gli stessi scopi, ma biodegradabile in circa sei mesi. Queste bioplastiche non hanno preso piede per l’alto costo di produzione e perché risulta impossibile riconvertire impianti di produzione in tutto il mondo in tempi brevi. Una seconda corrente di pensiero ha indirizzato i propri sforzi verso l’utilizzo di speciali additivi aggiunti in minima misura (1%) ai classici materiali plastici e che ne permettono la biodegradazione in un tempo inferiore ai tre anni. Un esempio di questo tipo di additivi è l’ECM Masterbatch Pellets che è un copolimero di EVA (etilene vinil acetato) che aggiunto alle plastiche tradizionali rende il prodotto finale completamente biodegradabile pur mantenendo le proprie caratteristiche. Scopo di questo lavoro di tesi è stato determinare le modificazioni di alcuni parametri qualitativi di nettarine di Romagna(cv.-Alexa®) confezionate-con-film-plastici-tradizionali-e-innovativi. I campioni di nettarine sono stati confezionati in cestini in plastica da 1 kg (sigillati con un film flow-pack macroforato) di tipo tradizionale in polipropilene (campione denominato TRA) o vaschette in polipropilene additivato (campione denominato BIO) e conservati a 4°C e UR 90-95% per 7 giorni per simulare un trasporto refrigerato successivamente i campioni sono stati posti in una camera a 20°C e U.R. 50% per 4 giorni al fine di simulare una conservazione al punto vendita. Al tempo 0 e dopo 4, 7, 9 e 11 giorni sono state effettuate le seguenti analisi: - coefficiente di respirazione è stato misurata la quantità di CO2 prodotta - indice di maturazione espresso come rapporto tra contenuto in solidi solubili e l’acidità titolabile - analisi di immagine computerizzata - consistenza della polpa del frutto è stata misurata attraverso un dinamometro Texture Analyser - contenuto in solidi totali ottenuto mediante gravimetria essiccando i campioni in stufa sottovuoto - caratteristiche sensoriali (Test Accettabilità) Conclusioni In base ai risultati ottenuti i due campioni non hanno fatto registrare dei punteggi significativamente differenti durante tutta la conservazione, specialmente per quanto riguarda i punteggi sensoriali, quindi si conclude che le vaschette biodegradabili additivate non influenzano la conservazione delle nettarine durante la commercializzazione del prodotto limitatamente ai parametri analizzati. Si ritiene opportuno verificare se il processo di degradazione del polimero additivato si inneschi già durante la commercializzazione della frutta e soprattutto verificare se durante tale processo vengano rilasciati dei gas che possono accelerare la maturazione dei frutti (p.e. etilene), in quanto questo spiegherebbe il maggiore tasso di respirazione e la più elevata velocità di maturazione dei frutti conservati in tali vaschette. Alimentary packaging may be defined as a coordinate system to dispose goods for transport, distribution, storage, sale and use. Among materials most used in the alimentary industry, for the production of packaging there are plastics materials. They are organic substances deriving from crude oil, solid compounds in the ended state, but can be moulded in the fluid state. Alimentary packaging has to develop determinated functions such as: - Product conteniment - Product protection from fieleders agents - logistic - communicative - functional - ecologic This last term is the main problem of plastic materials deriving from crude oil. These materials are hardly recyclable because a packaging is often composed by more stratified materials or because it is in direct contact with aliments. Beside these materials have a long degradation time(from 100 to 1000 years) that make disposal difficult and expensive. For this reason in the last decade the research for a new plastic material is begin, to make industrial demands more flexible and, at the same time, to make this material biodegradable: At first, the idea to “imitate the nature” has been thought, trying to reply macromolecules already existents (derived from amid and sugars) to obtain a similar-plastic substance that can be used for the same purposes, but it has to be biodegradable in about six months. These bioplastics haven’t more success bacause of the high production cost and because reconvert production facilities of all over the wolrd results impossible in short times. At second, the idea to use specials addictives has been thought. These addictives has been added in minim measure (1%) to classics plastics materials and that allow the biodegradation in a period of time under three years. An example of this kind of addictives is ECM Masterbatch Pellets which is a coplymer of EVA (Ethylene vinyl acetate) that, once it is added to tradizional plastics, make final product completely biodegradable however maintaining their own attributes. The objective of this thesis work has been to determinate modifications of some Romagna’s Nectarines’ (cv. Alexa®) qualitatives parameters which have been packaged-with traditional and innovative-plastic film. Nectarines’ samples have been packaged in plastic cages of 1 kg (sealed with a macro-drilled flow-pack film) of traditional type in polypropylene (sample named TRA) or trays in polypropylene with addictives (sample named BIO) and conservated at 4°C and UR 90-95% for 7 days to simulate a refrigerated transport. After that, samples have been put in a camera at 20°C and U.R. 50% for 4 days to simulate the conservation in the market point. At the time 0 and after 4, 7, 9 and 11 days have been done the following analaysis: - Respiration coefficient wherewith the amount CO2 producted has been misurated - Maturation index which is expressed as the ratio between solid soluble content and the titratable acidity - Analysis of computing images - Consistence of pulp of the fruit that has been measured through Texture Analyser Dynanometer - Content in total solids gotten throught gravimetry by the drying of samples in vacuum incubator - Sensorial characteristic (Panel Test) Consequences From the gotten results, the two samples have registrated no significative different scores during all the conservation, expecially about the sensorial scores, so it’s possible to conclude that addictived biodegradable trays don’t influence the Nectarines’ conservation during the commercialization of the product qualifiedly to analized parameters. It’s advised to verify if the degradation process of the addicted polymer may begin already during the commercialization of the fruit and in particular to verify if during this process some gases could be released which can accelerate the maturation of fruits (p.e. etylene), because all this will explain the great respiration rate and the high speed of the maturation of fruits conservated in these trays.
Resumo:
Questa relazione finale è stata frutto di un lavoro sperimentale svolto in collaborazione con un’azienda del territorio ed ha avuto come obiettivo principale quello di verificare i parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda sta studiando una nuova tipologia di “prodotto funzionale” addizionando componenti ad attività nutraceutica al salame ottenuto da sole parti magre di suino. L’intenzione dell’azienda è di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici che possono esercitare sulla salute umana. A questo scopo, sul prodotto di nuova formulazione (ed in parallelo sul prodotto a formulazione classica e su un prodotto del tutto simile commercializzato da un’altra azienda) sono state effettuate sia la determinazione della percentuale lipidica, al fine di individuare il quantitativo totale di grasso, che una caratterizzazione gascromatografica del profilo quali-quantitativo in acidi grassi, analsi fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06, e successive modifiche, previsti per le indicazioni da inserire in etichetta (claims). Inoltre, è stato importante controllare che la concentrazione voluta di acido alfa-linolenico si mantenga tale durante tutto il periodo di shelf-life del prodotto (45 gg), perciò per soddisfare quest’ultima finalità, le analisi sono state eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. E’ apparso poi fondamentale monitorare un possibile decadimento/modifica della qualità organolettica del prodotto di nuova formulazione, a causa del possibile aumento di ossidabilità della frazione lipidica causata da una maggiore presenza di acidi grassi polinsaturi; ed infine, con l’intento di verificare se la nuova formulazione potesse comportare una variazione significativa delle caratteristiche sensoriali del prodotto, sono stati condotti un test descrittivo quantitativo (QDA), in grado di descrivere il profilo sensoriale del prodotto ed un test discriminante qualitativo (metodo triangolare) capace di valutare l’eventuale comparsa di cambiamenti in seguito alle modifiche apportate al prodotto; per ultimo è stato poi eseguito un test affettivo quantitativo (test di preferenza, condotto su scala di laboratorio) in grado fornire informazioni sul gradimento e di evidenziare i principali vettori che guidano le scelte dei consumatori. I risultati delle analisi chimiche e sensoriali, eseguite per soddisfare tali richieste, hanno evidenziato come il salume presenti un quantitativo di tali acidi grassi polinsaturi in linea con il claim “Alimento fonte di acidi grassi omega-3”, (requisiti indicati dal Reg. 1924/06 e successive modifiche), risultato confermato sia all’inizio che al termine della vita commerciale del prodotto (pari a circa 45 giorni). Inoltre, esso risulta essere piuttosto interessante dal punto di vista nutrizionale, poiché caratterizzato da un contenuto di grasso per la categoria dei salumi, relativamente limitato, pari a circa il 15%, con percentuali più favorevoli in acidi grassi insaturi. L’analisi del profilo sensoriale condotta ad inizio shelf-life ha invece evidenziato come questa tipologia di prodotto sia caratterizzata sia al gusto che all’olfatto da note più sapide e speziate , oltre ad una maggiore consistenza della fetta, rispetto agli altri campioni analizzati, mentre i risultati relativi al termine della shelf-life hanno evidenziato come esso tenda ad essere soggetto ad alterazioni sensoriali rilevabili proprio al termine della fase di conservazione dovute nello specifico alla formazione di composti responsabili dell’odore di rancido. I test discriminanti, condotti con giudici non allenati, non hanno invece fatto registrare differenze sensoriali significative tra il prodotto con formulazione classica e quello di nuova formulazione, confrontati ad inizio e a fine shelf-life. Riassumendo, dai risultati ottenuti da questo lavoro sperimentale, il prodotto di nuova formulazione, arricchito in acidi grassi polinsaturi della serie omega-3, risulta essere in linea con il claim “Alimento fonte di acidi grassi omega-3”, presenta in generale un contenuto di grasso totale inferiore a quello di altre tipologie di salumi ed un rapporto più favorevole tra acidi grassi insaturi e saturi, per questo può essere considerato un prodotto interessante dal punto di vista della salute e della nutrizione. Proprio per la sua formulazione più ricca in acidi grassi polinsaturi, tende però a fine shelf-life a presentare una leggera nota di rancido, riconducibile ad una maggiore ossidabilità della frazione lipidica. Tale variazione sensoriale è risultata comunque percepita solo da un panel allenato, mentre un test di tipo discriminante, condotto con giudici non allenati, non ha messo in luce differenze significative tra il salume di nuova formulazione e quello con formulazione classica né all’inizio, né al termine della vita commerciale del prodotto.
Resumo:
Il progetto degli edifici privi di smorzatori viscosi eseguito adottando un fattore di riduzione delle forze R5 (fattore di struttura q del D.M.14/01/08) relativo ad uno smorzamento ξ = 5%, mentre per quelli equipaggiati con smorzatori viscosi il fattore di riduzione delle forze adottato sarà R30 = α R5 relativo ad uno smorzamento ξ = 30%, dove il parametro α è un valore tale da garantire un uguale o maggiore livello di sicurezza della struttura ed è assunto pari a 0,9 da analisi precedenti. Quello che in conclusione si vuole ottenere è che la richiesta di duttilità delle strutture con R30 e ξ = 30% sia minore o uguale di quella richiesta dalle strutture con R5 e ξ = 5%: μd30 ≤ μd5 Durante il percorso di tesi è stata anche valutata una procedura di definizione delle curve di Pushover manuale; la procedura indaga un modo rapido e concettualmente corretto per definire un ordine di grandezza della curva di capacità della struttura.
Resumo:
Il presente lavoro di tesi è stato organizzato in tre parti principali: in prima analisi, è stato effettuato uno studio preliminare di patine reali prelevate da bronzi esposti all’aperto, al fine di verificare l’ipotesi che diverse geometrie di esposizione generano patine differenti nella morfologia e nella composizione sulla superficie della lega. In particolare, è stata posta l’attenzione sullo Sn, il quale esibisce un differente comportamento in aree esposte o riparate dalla pioggia battente. Successivamente quindi, mediante una prova di invecchiamento accelerato che riproduce l’azione della pioggia battente (dropping test) è stata quindi studiata l’efficienza dell’inibitore PropS-SH (3-mercapto-propil-trimetossi-silano), il quale si è dimostrato un possibile sostituto del BTA nell’inibizione della corrosione dei bronzi e tra i primi candidati nello studio dell’inibizione della corrosione nei bronzi dorati. Lo studio è stato effettuato impiegando il dropping test sia per la pre-patinazione (in modo da produrre un substrato rappresentativo di quello su cui si applica l’inibitore) che per l’esposizione vera e propria. I risultati ottenuti sono stati poi confrontati con quelli ottenuti in un lavoro precedente, in cui è stata studiata l’efficienza dello stesso inibitore in condizioni che simulano invece l’azione della pioggia stagnante. Infine, sono stati condotti studi preliminari sulla corrosione di campioni di bronzo dorato mediante invecchiamento accelerato in condizioni che simulano sia la pioggia battente che quella stagnante (wet&dry test).
Resumo:
Lo scopo del progetto di tesi è stato quello di indagare come è variato nel tempo l’impatto dell’impianto di incenerimento situato a Coriano, in provincia di Rimini, a seguito dell’introduzione di soluzioni tecnologiche sempre più evolute al fine di una maggiore tutela ambientale. Lo studio è stata condotto utilizzando la tecnica del Valutazione del Ciclo di Vita (LCA, Life Cycle Assesment), che consente di quantificare gli impatti utilizzando indicatori precisi e di considerare il processo in tutti i suoi dettagli. I risultati evidenziano una progressiva diminuzione dell’impatto complessivo dell’impianto, dovuto sia alle operazioni di adeguamento relative alle attività di incenerimento, sia all’introduzione di un sistema sempre più efficiente di recupero energetico. I confini del sistema sono infatti stati ampliati per poter includere nello studio l’energia elettrica generata dal recupero del calore prodotto durante la combustione. Sono stati valutati rapporti causa-effetto tra i risultati ottenuti ed alcune informazioni correlate al processo, quali composizione dei rifiuti e variazione temporale del mix energetico in Italia. Sono infine state effettuate valutazioni relativamente alla comparazione dell’impianto studiato con altre realtà territoriali ed impiantistiche e sono state prese in esame alcune tra le tecnologie più innovative applicabili al processo, soprattutto per quel che riguarda la depurazione dei fumi.
Resumo:
I nanomateriali presentano proprietà molto differenti dai corrispondenti materiali bulk; per questo motivo, negli ultimi anni, se ne è sempre più diffuso l’utilizzo. In particolare, recentemente ha suscitato grande interesse l’impiego di nanoparticelle bimetalliche, le cui proprietà ottiche, morfologiche e dimensionali possono essere modulate sulla base della composizione. L’interesse del mondo industriale allo studio di materiali con dimensioni nano-metriche deriva principalmente dalle loro possibili applicazioni su grande scala ed è quindi di fondamentale importanza la messa a punto di metodologie di sintesi versatili, facilmente scalabili ed a basso impatto ambientale. L’ottimizzazione della sintesi è un aspetto molto importante in quanto deve assicurare un accurato controllo di forma, dimensioni e composizione. A tale scopo è stata sviluppata una sintesi a basso impatto ambientale, in acqua, basata sull’azione riducente del sistema glucosio – NaOH, che permette di ottenere nanoparticelle stabili e con dimensioni omogenee. Nel corso dello studio il riscaldamento è stato effettuato mediante un sistema a microonde: una tecnologia affidabile e sicura che permette un riscaldamento rapido ed omogeneo. La tesi ha come scopo:• l’ottimizzazione e la caratterizzazione di nanosospensioni monometalliche di Pd mediante la sintesi già ottimizzata in lavori precedenti per i metalli: Au, Ag e Cu; •lo studio di sistemi bimetallici Pd/Cu e Pd/Au con morfologia di lega, ottenuti per co-riduzione dei sali precursori; •lo studio dell’attività catalitica delle nanoparticelle sintetizzate nella reazione di riduzione del 4-nitrofenolo a 4-amminofenolo mediante NaBH4; •lo studio della supportazione su carbone di Pd/Au per applicazioni elettrocatalitiche. Per poter studiare e valutare l’eventuale presenza di effetti sinergici tra i metalli coinvolti nella sintesi sono stati confrontati sistemi monometallici con sistemi bimetallici a differenti composizioni (Pd/Cu e Pd/Au). In particolare è stato possibile apprezzare un miglioramento delle prestazioni catalitiche per i sistemi bimetallici Pd/Au rispetto ai metalli di partenza, al contrario i sistemi bimetallici Pd/Cu mostrano un peggioramento dell’attività catalitica all’aumentare del contenuto di rame. La nanosospensione Pd/Au risultata con le maggiori prestazioni catalitiche, è stata supportata su carbone per applicazioni nel campo dell’elettrocatalisi. Da uno studio preliminare sulle tecniche di supportazione è emerso che il metodo migliore per depositare le nanoparticelle sul carbone è l’impregnazione fisica.
Resumo:
Il seguente elaborato è il risultato di uno stage di sei mesi, svolto presso l’azienda Bosch Rexroth Oil Control S.p.A.. L’ente presso cui è stato svolto il tirocinio è l’Industrial Engineering. In particolare è stata compiuta un’analisi dei flussi delle cartucce meccaniche, una famiglia di valvole oleodinamiche. Il lavoro si è sviluppato in tre fasi: nella prima è stata fatta un’analisi dei dati di giacenza, tempi e cicli di lavoro delle cartucce; nella seconda fase si è proposta l’introduzione di un nuovo sistema di picking gestito con supermarket a kanban; nell’ultima fase si è valutata la convenienza dai punti di vista tecnico ed economico del progetto.
Resumo:
La ricerca consta di quattro capitoli: nella prima parte si analizzano, in prospettiva empirica, i canoni argomentativi utilizzati dalla Corte costituzionale italiana. Tali canoni possono essere generalmente distinti in due grandi famiglie: giuridico-interpretativi per un verso, e ed empirico fattuali per un altro. In un secondo capitolo si è visto come la Corte costituzionale italiana ha frutto uso di questi canoni nella sua giurisprudenza italiana in tema di diritto soggettivo di libertà di espressione e di mezzi di comunicazione del pensiero. Nel primo caso la Corte costituzionale ha fatto ricorso a canoni interpretativi testuali, mentre nel secondo ad argomentazioni empiriche spesso accompagnate da un giudizio di proporzionalità sull'intervento legislativo. Nella terza parte del lavoro si è invece descritta la giurisprudenza della Corte Suprema americana: è stata analizzata l'evoluzione delle tecniche argomentativi in tema di libertà di espressione: partendo dall'ad hoc balancing e dal definitional balancing si è giunti alla descrizione dei diversi livelli di scrutinio e alla progressiva concettualizzazione delle categorie espressive. Infine nel quarto capitolo si sono messe a confronto le due giurisprudenze: si è potuto così notare che la progressiva categorizzazione del diritto di libertà negli Stati Uniti ha dato esiti maggiormente garantisti, mentre più liberisti in relazione alle concrete dinamiche di formazione del discorso pubblico. Viceversa, in Italia i canoni testuali hanno originato una giurisprudenza più restrittiva quanto al diritto soggettivo e più egualitaria quanto al sistema della libertà di espressione. In ogni caso, entrambe le esperienze evidenziano il ruolo di policy-maker delle Corti costituzionali nei moderni ordinamenti liberal-democratici.
Resumo:
Lo stabilirsi di nuovi criteri abitativi nella Lombardia di fine Ottocento e dei primi decenni del XX secolo, ha fatto emergere, nel vasto tema dell’abitazione popolare, componenti meritevoli di essere analizzate nelle loro differenti declinazioni. Nella ricerca sono quindi stati analizzati: gli studi tipologici di quel periodo, l’impiego di differenti materiali edili, il linguaggio compositivo, le interrelazioni dei manufatti architettonici con il contesto urbano, l’apporto delle cooperative alla realizzazione degli interventi, lo sviluppo e l’impiego della prefabbricazione e la tutela, valorizzazione e trasformazione del patrimonio edilizio esistente. Presupposto di quest’analisi è stata l’ampia ricostruzione storiografica delle fasi germinali e del dibattito ottocentesco sulla casa operaia e popolare, che hanno condotto (all’inizio del novecento) alla creazione dell’Istituto Autonomo Case Popolari od Economiche di Milano. Sono state enucleate anche le principali caratteristiche formali e tecnologiche dell’edilizia residenziale popolare milanese di quel periodo. La ricerca inoltre è stata finalizzata alla definizione di strategie gestionali del patrimonio storiografico esistente (documentario, iconografico e bibliografico) rivolto a una migliore fruizione dei beni architettonici considerati e a supporto di conoscenza per la sua valorizzazione, tutela, trasformazione e recupero. Per questa ragione l’analisi delle fonti documentarie e archivistiche, si è basata sull’indagine di alcuni progetti originari (quasi mai in possesso dell’Aler e parzialmente dispersi in archivi comunali e privati). La ricostruzione del patrimonio storico-visuale dell’edilizia residenziale d’inizio secolo, ha dedicato attenzione anche agli aspetti architettonici e di vita degli spazi comuni, dello stato di conservazione e delle trasformazioni delle strutture originarie. Accanto a questi filoni di indagine è stata sviluppata un’attenta analisi della letteratura esistente, studiando sia la pubblicistica sia la letteratura scientifica coeva alle costruzione e gli studi, anche di grande portata, compiuti nei decenni successivi. L’indagine propone anche una periodizzazione delle fasi realizzative dell’edilizia popolare, relazionandole a contesti architettonici e storiografici di più ampio respiro. Si sono indagate, ad esempio, le ragioni del costituirsi di una forte interdipendenza delle varie realtà sociali urbane e si sono posti a confronto gli elementi prettamente architettonici con il quadro tematico connesso al concetto di modernità. La ricerca non ha neppure trascurato gli studi chiarificatori delle istanze sociali, che hanno trovato particolari riferimenti nelle analisi scientifiche (pubblicate su riviste specialistiche, in qualche caso di difficile reperibilità) o nelle ricerche commissionate dal Comune di Milano nel primo decennio del XX secolo. Grande importanza è stata riposta anche nell’analisi delle delibere comunali (verificate e documentate in modo organico e complessivo) che, a partire dal 1861, trattano il tema dell’impegno pubblico nella realizzazione di edilizia operaia a basso costo.
Resumo:
During this internship, the α-alkylation of branched aldehydes was taken into consideration. An enantiopure Betti’s base derivative was used as catalyst, applying a new concept in catalysis: organocatalysis. The Betti’s base may be of particular interest for organic chemists working in the field of “reactions catalysed by enantiopure small organic molecules”, in particular for the ones interested in enantiopure primary amines. The potential of secondary amines as catalysts has certainly been known for years. It is indeed more innovative to conduct reactions using primary amine derivatives as catalyst. In this work, the efficacy of the primary amine was checked first. Then, the focus was set on finding optimal reaction conditions. Finally, to have a more complete picture of the structure of the compounds used in the project, experimental and computational IR spectra were compared, after the method was validated. Durante il periodo di tirocinio è stata presa in esame la reazione di α-alchilazione di aldeidi branched, utilizzando un derivato dell’ammina di Betti come catalizzatore enantiopuro ed applicando un nuovo tipo di catalisi: l’organocatalisi. Questi composti possono essere di particolare interesse per lavori in chimica organica, nel campo delle reazioni catalizzate da “piccole” molecole organiche, in particolare da ammine primarie a chiralità definita; la potenzialità delle ammine secondarie chirali come catalizzatori è certamente nota da anni, ma innovativo è condurre il tutto con l’impiego di un derivato amminico primario. Altri aspetti significativi sono gli apparenti e innumerevoli vantaggi, dal punto di vista economico ed ambientale, oltre che operativo e sintetico, derivanti dal nuovo tipo di catalisi. In un primo momento è stata verificata l’efficacia dell’ammina primaria sintetizzata nella reazione in progetto, quindi sono state individuate le condizioni di reazione ottimali. Infine, per un’analisi più completa di alcune molecole organiche e dopo un’opportuna validazione del metodo utilizzato, sono stati ottenuti a livello computazionale gli spettri IR delle molecole di sintesi prodotto e catalizzatore.
Resumo:
La tossicità delle polveri atmosferiche è associata sia alla natura granulometrica sia al carico di contaminanti, da qui la necessità di investigare oltre la concentrazione delle PM in atmosfera anche la loro composizione chimica. In questo studio è stata effettuata una prima caratterizzazione da un punto di vista sia granulometrico che chimico del particolato atmosferico campionato in una zona suburbana di Riccione (Castello degli Agolanti). In particolare sono state determinate le concentrazioni di metalli quali Pb, Cd, Ni, Zn, Cu, Fe e Al nel PM 2,5 PM 10 e PM totale. Inoltre, dato che uno degli scopi dello studio è quello di verificare il contributo della combustione di biomasse sul carico complessivo di contaminanti, il periodo di campionamento comprende il giorno delle Fogheracce, festa popolare in cui vengono accesi diversi falò all’aperto. Complessivamente sono stati prelevati 13 campioni di 48 ore per ogni frazione granulometrica dal 9 Marzo all’8 Aprile 2011. Dallo studio emerge che nel periodo di campionamento, mediamente il contributo antropogenico è dominante per Pb, Cd, Ni Cu e Zn dovuto principalmente al traffico veicolare. Tali metalli, ad eccezione del Cu infatti si concentrano nel particolato più fine. Al e Fe invece sono principalmente marker delle emissioni crostali e si concentrano nella frazione grossolana. Interessante quanto registrato nella giornata delle Fogheracce. Oltre ad una variazione nel contenuto relativo dei metalli con un forte arricchimento di Pb e Al, per quest’ultimo si nota anche un forte incremento della sua concentrazione nella frazione PM2.5 ad indicare una diversa sorgente emissiva. Si evidenzia in questo studio un importante contributo nel carico di inquinanti da parte di combustioni di biomasse all’aperto.
Resumo:
L’ossidazione catalitica parziale (CPO) del metano è un processo di elevato interesse scientifico ed industriale, permettendo la produzione su piccola scala di H2 o la produzione di syngas con un rapporto H2/CO = 2, utile per la produzione di metanolo o la sintesi di Fischer-Tropsch di idrocarburi. Inoltre, si possono raggiungere elevate conversioni del metano e selettività in syngas operando a bassi valori del tempo di contatto, riducendo così le dimensioni dei reattori. Tuttavia, gli elevati flussi e le temperature raggiunte nel letto possono condurre rapidamente alla disattivazione del catalizzatore; pertanto, è necessario lo sviluppo di materiali non soltanto attivi, ma anche stabili nelle condizioni di reazione. Lo scopo di questo lavoro è stato lo sviluppo di catalizzatori a base di Rh e ceria, utilizzati sia come pellets che supportati su una schiuma metallica. In particolare, il lavoro è stato focalizzato sulla sintesi, caratterizzazione ed attività catalitica di materiali Rh-CeO2-Al2O3. La presenza di CeO2 può modificare la dispersione del Rh metallico e la sua stabilità nei confronti della sinterizzazione e della formazione del carbone, mentre la stabilità termica è favorita dalla presenza di Al2O3. Poiché queste proprietà e, di conseguenza, le prestazione catalitiche dipendono dalla dimensioni delle particelle di CeO2 sono stati preparati catalizzatori con diverso contenuto di CeO2 (10 e 20 p/p %) ed utilizzando differenti metodi di preparazione per modularne le proprietà. Le sintesi sono effettuate per coprecipitazione e per sintesi con urea per trattamento micronde-idrotermale. Le prestazione dei catalizzatori in pellets sono state analizzate in un impianto di laboratorio operando a bassi valori del tempo di contatto e modificando la temperatura e la concentrazione della miscela gassosa, i.e. sia in condizioni lontane dall’equilibrio termodinamico che in condizioni prossime a quelle industriali. Un catalizzatore con lo stesso contenuto di Rh ed ottenuto da precursori tipo idrotalcite (HT) è stato utilizzato come riferimento. Per incrementare ulteriormente le prestazioni catalitiche, in particolare il trasferimento del calore lungo il letto catalitico, la migliore composizione individuata delle prove precedenti è stata depositata su pellets di una schiuma metallica (FeCrAlloy). E’ stato utilizzato il metodo dell’elettrosintesi per la deposizione di idrossidi di Rh, Ce e Al, ottenendo dopo calcinazione catalizzatori strutturati. Si è valutato l’effetto dei parametri di sintesi, potenziale applicato e tempo, sulle proprietà catalitiche. Anche in questo caso i risultati sono stati confrontati quelli ottenuti con un catalizzatori di riferimento ottenuti da un precursore HT preparati per elettrosintesi.
Resumo:
The present work describes the development of a new body-counter system based on HPGe detectors and installed at IVM of KIT. The goal, achieved, was the improvement of the ability to detect internal contaminations in the human body, especially the ones concerning low-energy emitters and multiple nuclides. The development of the system started with the characterisation of detectors purchased for this specific task, with the optimisation of the different desired measurement configurations following and ending with the installation and check of the results. A new software has been developed to handle the new detectors.