33 resultados para di(2-ethylhexyl)phosphoric acid
Resumo:
Nelle società moderne, il problema del “rifiuto”, costituisce un fenomeno strettamente connesso allo stile di vita dei cittadini, nonché al sistema di produzione e distribuzione dei beni di consumi e alle normative che regolano questi due aspetti.Ogni anno, solamente in Italia, sono circa 380.000 le tonnellate di pneumatici che sono destinate a discarica, e sono oltre 100 gli anni che un pneumatico impiega per la biodegradazione. L’utilizzo del bitume modificato con polverino di gomma è nato negli Stati Uniti, ma al giorno d'oggi viene utilizzato sempre più frequentemente anche in Italia e in Europa quale valida alternativa per il confezionamento di conglomerati bituminosi. L’attività sperimentale presentata in questa tesi consiste nel confronto di 2 miscele: una di conglomerato bituminoso standard e l’altra sperimentale con polverino di gomma da PFU, progettata nel Laboratorio di Strade dell’Università di Ingegneria e Architettura di Bologna. Per procedere con la comparazione delle due materiali si è realizzato un campo prove in vera grandezza, in viale Togliatti a Bologna. Nel laboratorio di Strade dell'Università di Bologna si sono poi confezionati dei provini con il materiale prelevato in sito, e su di essi sono state svolte le prove di caratterizzazione statica (ITS) e dinamica (ITSM). Il risultati ottenuti dimostrano che la miscela sperimentale presenta caratteristiche meccaniche inferiori a quella vergine, ma in ogni caso soddisfacenti e superiori a quelli mediamente riconosciuti per miscele bituminose tradizionali per strati di usura. Da sottolineare è che la minore rigidezza presentata dalle miscele additivate con PFU, secondo consolidata bibliografia scientifica, potrebbe conferirle una maggiore resistenza ai carichi ripetuti e determinare così un miglioramento delle caratteristiche di durabilità della pavimentazione bituminosa.
Resumo:
La dialisi, le cui basi sono state fondate a metà ottocento dal chimico Thomas Graham, è la terapia, alternativa al trapianto, utilizzata su pazienti affetti da insufficienza renale. Ad oggi tale terapia ha un numero sempre maggiore di utilizzatori, più di 2,5 milioni di persone al mondo, ragione per cui ha un impatto sempre più grande sul sistema sanitario. La terapia, ha come scopo principale quello ripristinare gli equilibri idro-elettrolitico e acido-base del sangue del paziente utilizzando principi quali ultrafiltrazione, convezione e diffusione. Per raggiungere questo obiettivo, il sangue del paziente viene fatto scorrere controcorrente al liquido di dialisi, di composizione nota, ai capi di una membrana semipermeabile. Nel caso dell’emodialisi tutto il processo si svolge in circolazione extracorporea. La dialisi viene eseguita quando i reni del paziente non riescono più a espletare la loro funzione, con conseguente accumulo di tossine e di liquidi, che nel giro di pochi giorni porterebbe alla morte se non si interviene. Data la sua funzione, una parte importante della macchina che esegue l’emodialisi, è il sistema di controllo dell’ultrafiltrazione, che permette di rimuovere in maniera controllata i liquidi che il paziente non riesce a smaltire in maniera autonoma. La rimozione di liquidi avviene mediante la creazione di un gradiente pressorio tra il lato sangue e il lato dializzato, che causa il passaggio di liquidi da una parte all’altra della membrana semipermeabile. Esistono vari metodi che permettono di realizzare questo processo, che si differenziano per la strategia utilizzata per creare i gradienti pressori; ognuno dei quali permette di ottenere una determinata accuratezza. Scopo del mio lavoro di tesi è stato quello di studiare e validare un nuovo sistema di realizzazione e controllo dell’ultrafiltrazione.
Resumo:
Abbiamo investigato con metodologie geofisiche del tutto non invasive un settore della necropoli etrusca di Monterozzi, Tarquinia (VT). Le tecniche utilizzate, per l'accertamento di camere sepolcrali nel sottosuolo, sono state il GPR e la geoelettrica. Dalla campagna effettuata nel mese di giugno 2016 è emerso che: I) le camere mortuarie, scavate direttamente nella roccia calcarenitica, si possono suddividere in superficiali (profondità maggiore di 2 m e comprendenti un dromos di accesso) e profonde (profondità maggiore di 5 m e di dimensioni maggiori rispetto alle prime); II) il metodo GPR permette un'elevata risoluzione delle strutture nascoste a scapito della profondità di investigazione, inoltre è affetto da disturbo proveniente da artefatti antropici posti in superficie; III) il metodo resistivo adottato permette esplorazioni profonde e risulta molto potente nella localizzazione delle cavità sepolte; IV) le strutture archeologiche nel sottosuolo producono sulla superficie topografica delle forme ben riconoscibili per il diverso contenuto in umidità rispetto all'intorno, di ausilio quindi al presente studio è stata l’analisi delle immagini da satellite di Google Earth; V) l'approccio di lavoro che ha combinato le due diverse metodologie sia tra loro sia con le immagini digitali risulta molto vantaggioso ai fini della presente ricerca.
Resumo:
Preparations of heterogeneous catalysts are usually complex processes that involve several procedures as precipitation, crystallization and hydrothermal treatments. This processes are really dependent by the operative conditions such as temperature, pH, concentration etc. Hence the resulting product is extremely affected by any possible variations in these parameters making this synthesis really fragile. With the aim to improve these operations has been decided to exploit a new possible strong environment-respectful process by mechanochemical treatment, which permits to carry out solvent free-solvent synthesis exploiting the Mixer Mill MM400 (Retsch) in order to have reproducible results. Two different systems have been studied in this kind of synthesis: a tin β -zeolite tested in a H-trasnfer reaction of cyclohexanone and a silver on titania catalyst used in the fluorination of 2,2 dimethyl glucaric acid. Each catalyst has been characterized by different techniques in order to understand the transformations involved in the mechanochemical treatment.
Resumo:
Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.
Resumo:
During the past years, the considerable need in the domain of communications for more potent photonic devices has focused the research activities into the nonlinear optical (NLO) materials which can be used for modern optical switches. In this regard, a lot of research activities are focused on the organic materials and conjugated polymers which offer more advantages compared to the inorganic ones. On this matter, poly(3-alkylthiophene) (P3AT), an organic conjugated polymer, can be investigated as potential optical material with in particular the focus on the NLO properties such as the first- and second-hyperpolarizability, β and γ respectively. The activities carried out at the Laboratory of Polymer Synthesis of the KU Leuven, during the master's thesis work, focused on the study of conjugated polymers in order to evaluate their NLO properties for the future purpose of applications in optical systems. In particular, three series of polythiophenes functionalized with an alkyl side chain in the 3-position were synthesized: poly(3-hexylthiophene) (P3HT), poly[3-(2-ethylhexyl)thiophene] (P3EHT) and random copolymer of the two regio-isomers of P3HT. They were made in order to study the influence of molar mass, branching and regio-irregularity on the γ-value. The Kumada catalyst transfer condensative polymerization (KCTCP) and the Pd(RuPhos)-protocol were used for the polymerizations in order to have control over the molar mass of the growing chain and consequently to obtain well-defined and reproducible materials. The P3AT derivatives obtained were characterized by gel permeation chromatography (GPC), spectroscopic techniques (1H-NMR, UV-Vis) and the γ-value was investigated using the third-harmonic scattering (THS) technique. In particular, the THS technique is useful to investigate the optical behavior of the series of polymers in solution.
Resumo:
The interest in five-membered ring molecules derives from their important application in many different fields, such as pharmaceutical and agrochemical areas. A common strategy for their formation is four-membered ring expansion, which also allows to add molecular complexity and functional handles within one single operation starting from readily available starting materials. Organocatalysis can be exploited to promote the reaction and to obtain a good enantio- and diastereoselection. This technique involves the exclusive use of organic molecules as catalysts, without resorting to metals. The aim of this work is to obtain enantiopure cyclopentanones starting from achiral allylic cyclobutanols. The reaction consists in a ring expansion promoted by the addition of a halogen to the double bond of the substrate, with formation of a haliranium ion as intermediate, followed by a semipinacol rearrangement to afford the cyclopentanone. The reaction is catalysed by a chiral phosphoric acid that, besides accelerating the rate of the reaction, transmits a specific chirality thanks to its chiral structure, following the asymmetric catalysis principles. Starting from symmetric trans-allylic cyclobutanols, the whole reaction is a desymmetrization and leads to the formation of two new stereogenic centres: a mixture of diastereoisomers is obtained, each as couple of enantiomers; the ratio between the possible configurations is determined by the relative position that the chiral catalyst and the reagent occupy during the reaction. Since the reaction is already optimized, the original aim was to study the scope: first, the synthesis of a set of allylic cyclobutanols and their relative precursors, in order to have a wider range of substrates; then, the identification of the type of substrate that undergoes the expansion, with the study of enantio- and diastereoselectivity obtained in each case. Due to the Covid-19 emergency, most of the work was developed as a bibliographic study.
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto della deplezione dietetica della lisina, in concomitanza o meno della supplementazione di due diverse tipologie di integratori alimentari, sui principali tratti qualitativi e sulle proprietà tecnologiche della carne di petto di pollo. Pertanto, 1620 polli maschi sono stati allevati e suddivisi in 4 gruppi sperimentali in funzione dei trattamenti dietetici che prevedevano la deplezione del contenuto di lisina nella dieta con l’aggiunta o meno di 2 diversi tipi di integratori nella fase starter. Al termine della prova (50gg), 12 muscoli pettorali/gruppo sono stati destinati all’analisi del pH, colore, drip e cooking loss e sforzo di taglio. I risultati ottenuti hanno evidenziato che la deplezione della lisina insieme all’aggiunta dell’integratore 2 (contenente un precursore della creatina) ha determinato una significativa modificazione del colore della carne in termini di luminosità e indice di rosso (a*) e un aumento del cooking loss rispetto al gruppo di controllo. Tuttavia, le modificazioni ottenute sono di lieve entità e non determinano un eventuale peggioramento qualitativo della carne. Infatti, la deplezione della lisina non ha fatto rilevare alcuna modificazione significativa nei confronti dei parametri qualitativi e tecnologici presi in esame. Considerata la limitata disponibilità di studi presenti in letteratura riguardo la restrizione dietetica della quota di lisina, questo studio suggerisce come la sua deplezione nel primo periodo di vita dell’animale possa rappresentare una strategia efficace per ridurre i costi di alimentazione e migliorare la sostenibilità del sistema di produzione senza influenzare negativamente la qualità della carne. Infatti, è noto che la riduzione della concentrazione di alcuni componenti della dieta possa determinare una minore escrezione di azoto e fosforo, migliorando così la sostenibilità ambientale del sistema produttivo.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
I Nuclei Galattici Attivi (AGN) sono sorgenti luminose e compatte alimentate dall'accrescimento di materia sul buco nero supermassiccio al centro di una galassia. Una frazione di AGN, detta "radio-loud", emette fortemente nel radio grazie a getti relativistici accelerati dal buco nero. I Misaligned AGN (MAGN) sono sorgenti radio-loud il cui getto non è allineato con la nostra linea di vista (radiogalassie e SSRQ). La grande maggioranza delle sorgenti extragalattiche osservate in banda gamma sono blazar, mentre, in particolare in banda TeV, abbiamo solo 4 MAGN osservati. Lo scopo di questa tesi è valutare l'impatto del Cherenkov Telescope Array (CTA), il nuovo strumento TeV, sugli studi di MAGN. Dopo aver studiato le proprietà dei 4 MAGN TeV usando dati MeV-GeV dal telescopio Fermi e dati TeV dalla letteratura, abbiamo assunto come candidati TeV i MAGN osservati da Fermi. Abbiamo quindi simulato 50 ore di osservazioni CTA per ogni sorgente e calcolato la loro significatività. Assumendo una estrapolazione diretta dello spettro Fermi, prevediamo la scoperta di 9 nuovi MAGN TeV con il CTA, tutte sorgenti locali di tipo FR I. Applicando un cutoff esponenziale a 100 GeV, come forma spettrale più realistica secondo i dati osservativi, prevediamo la scoperta di 2-3 nuovi MAGN TeV. Per quanto riguarda l'analisi spettrale con il CTA, secondo i nostri studi sarà possibile ottenere uno spettro per 5 nuove sorgenti con tempi osservativi dell'ordine di 250 ore. In entrambi i casi, i candidati migliori risultano essere sempre sorgenti locali (z<0.1) e con spettro Fermi piatto (Gamma<2.2). La migliore strategia osservativa per ottenere questi risultati non corrisponde con i piani attuali per il CTA che prevedono una survey non puntata, in quanto queste sorgenti sono deboli, e necessitano di lunghe osservazioni puntate per essere rilevate (almeno 50 ore per studi di flusso integrato e 250 per studi spettrali).
Resumo:
Negli ultimi vent’anni innumerevoli sforzi sono stati compiuti a livello internazionale per ottenere un censimento completo degli “Active Galactic Nuclei” (AGN), ovvero di nuclei galattici attivi, oscurati in banda X. Tale censimento potrebbe rappresentare infatti la soluzione alla problematica del cosiddetto fondo cosmico non risolto in banda X. Gli studi finora condotti sfruttano la forte correlazione fra l'attività del SMBH e l'evoluzione della galassia ospite attraverso osservazioni in banda X hard, nel vicino-medio infrarosso e nell'ottico. Questa tesi si colloca in questo scenario con lo scopo di verificare e confermare l'affidabilità della selezione tramite la riga di emissione del CIV a 1549 Å di AGN oscurati fino a z≈3. Per raggiungere tale obiettivo è stato assunto che il CIV rappresenti un indicatore affidabile della luminosità intrinseca degli AGN e del loro alto potenziale di ionizzazione. Inoltre, allo studio in banda ottica delle sorgenti sono stati associati i dati profondi in banda X per analizzarne le proprietà X e caratterizzarne l’ammontare dell’oscuramento in tale banda in termini di densità di colonna di idrogeno. In particolare, in questo lavoro vengono presentati i risultati dell’analisi in banda X del campione di 192 AGN selezionati nella survey ottica zCOSMOS-Deep, attraverso la riga di emissione del CIV a 1549 Å. Queste 192 sorgenti hanno un redshift medio di 2.2 e una magnitudine media AB in banda B di 23.7. La copertura in banda X del campo selezionato è data dalla survey Chandra COSMOS-Legacy comprendente 4.6 Ms di osservazioni in un’area di 2.2 deg2. I risultati ottenuti in questo progetto di tesi tramite la selezione possono ritenersi soddisfacenti: metà delle AGN di Tipo 2 selezionate con il CIV e rilevate in banda X risultano fortemente oscurate (NH>10^23 cm^(-2) ). Inoltre, le AGN di Tipo 2 non rilevate in banda X risultano consistenti con uno scenario di oggetti oscurati.
Resumo:
Lo scopo di questa tesi è la misura di sezione d’urto di produzione di coppie top-antitop nel canale adronico. Per la misura sono stati utilizzati i dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con un’energia nel centro di massa pari a 13 TeV. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 2.474 f b^ −1 . L’analisi dati inizia selezionando gli eventi che soddisfano determinate condizioni (e.g. trigger, tagli cinematici, sei o più jet, almeno 2 jet provenienti dall’adronizzazione di due quark bottom) con lo scopo di incrementare la purezza del segnale scartando il più possibile gli eventi di fondo. A seguire, viene ricostruita la massa del quark top usando un fit cinematico. Sulle distribuzioni di tale massa si basa la stima degli eventi di fondo e di segnale. Infine, attraverso un fit di verosimiglianza, si ottiene il valore della sezione d’urto: σ t t ̄ = 893 ± 57 (stat) ± 104 (syst) pb. Questo risultato è in buon accordo con il valore teorico di 832 pb e con altre misure di CMS effettuate in canali differenti.
Resumo:
In questo lavoro si proveranno a mettere a fuoco le caratteristiche e le peculiarità di 2 delle filiere di produzione russa di nuova generazione di maggior interesse attualmente utilizzate in patria e in vari stati europei negli impianti nucleari per la generazione elettrica, con particolare attenzione su cosa è stato fatto di diverso ed innovativo soprattutto in campo di sicurezza, sostenibilità ed economicità: il reattore ad acqua pressurizzata VVER e il reattore veloce BN.
Resumo:
Su ogni superficie cubica non singolare nello spazio proiettivo complesso giacciono esattamente 27 rette distinte. Questo è il primo risultato non banale sulle superfici algebriche di grado maggiore di 2 che ha dato inizio alla moderna geometria algebrica e che per la prima volta fu intuito nel 1849 da Arthur Cayley. In questa tesi verrà dimostrata la precedente affermazione generale prendendo inizialmente in considerazione la superficie cubica di Fermat per cui verranno ricavate esplicitamente le 27 rette. Inoltre si giungerà alla classificazione della Fermat a partire dal risultato ottenuto dal matematico svizzero L.Schläfli che classificherà le superfici cubiche lisce definite sul campo dei reali in base al loro numero di rette reali e piani tritangenti reali.