210 resultados para di(2-etyyliheksyyli)fosforihappo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nelle società moderne, il problema del “rifiuto”, costituisce un fenomeno strettamente connesso allo stile di vita dei cittadini, nonché al sistema di produzione e distribuzione dei beni di consumi e alle normative che regolano questi due aspetti.Ogni anno, solamente in Italia, sono circa 380.000 le tonnellate di pneumatici che sono destinate a discarica, e sono oltre 100 gli anni che un pneumatico impiega per la biodegradazione. L’utilizzo del bitume modificato con polverino di gomma è nato negli Stati Uniti, ma al giorno d'oggi viene utilizzato sempre più frequentemente anche in Italia e in Europa quale valida alternativa per il confezionamento di conglomerati bituminosi. L’attività sperimentale presentata in questa tesi consiste nel confronto di 2 miscele: una di conglomerato bituminoso standard e l’altra sperimentale con polverino di gomma da PFU, progettata nel Laboratorio di Strade dell’Università di Ingegneria e Architettura di Bologna. Per procedere con la comparazione delle due materiali si è realizzato un campo prove in vera grandezza, in viale Togliatti a Bologna. Nel laboratorio di Strade dell'Università di Bologna si sono poi confezionati dei provini con il materiale prelevato in sito, e su di essi sono state svolte le prove di caratterizzazione statica (ITS) e dinamica (ITSM). Il risultati ottenuti dimostrano che la miscela sperimentale presenta caratteristiche meccaniche inferiori a quella vergine, ma in ogni caso soddisfacenti e superiori a quelli mediamente riconosciuti per miscele bituminose tradizionali per strati di usura. Da sottolineare è che la minore rigidezza presentata dalle miscele additivate con PFU, secondo consolidata bibliografia scientifica, potrebbe conferirle una maggiore resistenza ai carichi ripetuti e determinare così un miglioramento delle caratteristiche di durabilità della pavimentazione bituminosa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dialisi, le cui basi sono state fondate a metà ottocento dal chimico Thomas Graham, è la terapia, alternativa al trapianto, utilizzata su pazienti affetti da insufficienza renale. Ad oggi tale terapia ha un numero sempre maggiore di utilizzatori, più di 2,5 milioni di persone al mondo, ragione per cui ha un impatto sempre più grande sul sistema sanitario. La terapia, ha come scopo principale quello ripristinare gli equilibri idro-elettrolitico e acido-base del sangue del paziente utilizzando principi quali ultrafiltrazione, convezione e diffusione. Per raggiungere questo obiettivo, il sangue del paziente viene fatto scorrere controcorrente al liquido di dialisi, di composizione nota, ai capi di una membrana semipermeabile. Nel caso dell’emodialisi tutto il processo si svolge in circolazione extracorporea. La dialisi viene eseguita quando i reni del paziente non riescono più a espletare la loro funzione, con conseguente accumulo di tossine e di liquidi, che nel giro di pochi giorni porterebbe alla morte se non si interviene. Data la sua funzione, una parte importante della macchina che esegue l’emodialisi, è il sistema di controllo dell’ultrafiltrazione, che permette di rimuovere in maniera controllata i liquidi che il paziente non riesce a smaltire in maniera autonoma. La rimozione di liquidi avviene mediante la creazione di un gradiente pressorio tra il lato sangue e il lato dializzato, che causa il passaggio di liquidi da una parte all’altra della membrana semipermeabile. Esistono vari metodi che permettono di realizzare questo processo, che si differenziano per la strategia utilizzata per creare i gradienti pressori; ognuno dei quali permette di ottenere una determinata accuratezza. Scopo del mio lavoro di tesi è stato quello di studiare e validare un nuovo sistema di realizzazione e controllo dell’ultrafiltrazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abbiamo investigato con metodologie geofisiche del tutto non invasive un settore della necropoli etrusca di Monterozzi, Tarquinia (VT). Le tecniche utilizzate, per l'accertamento di camere sepolcrali nel sottosuolo, sono state il GPR e la geoelettrica. Dalla campagna effettuata nel mese di giugno 2016 è emerso che: I) le camere mortuarie, scavate direttamente nella roccia calcarenitica, si possono suddividere in superficiali (profondità maggiore di 2 m e comprendenti un dromos di accesso) e profonde (profondità maggiore di 5 m e di dimensioni maggiori rispetto alle prime); II) il metodo GPR permette un'elevata risoluzione delle strutture nascoste a scapito della profondità di investigazione, inoltre è affetto da disturbo proveniente da artefatti antropici posti in superficie; III) il metodo resistivo adottato permette esplorazioni profonde e risulta molto potente nella localizzazione delle cavità sepolte; IV) le strutture archeologiche nel sottosuolo producono sulla superficie topografica delle forme ben riconoscibili per il diverso contenuto in umidità rispetto all'intorno, di ausilio quindi al presente studio è stata l’analisi delle immagini da satellite di Google Earth; V) l'approccio di lavoro che ha combinato le due diverse metodologie sia tra loro sia con le immagini digitali risulta molto vantaggioso ai fini della presente ricerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto della deplezione dietetica della lisina, in concomitanza o meno della supplementazione di due diverse tipologie di integratori alimentari, sui principali tratti qualitativi e sulle proprietà tecnologiche della carne di petto di pollo. Pertanto, 1620 polli maschi sono stati allevati e suddivisi in 4 gruppi sperimentali in funzione dei trattamenti dietetici che prevedevano la deplezione del contenuto di lisina nella dieta con l’aggiunta o meno di 2 diversi tipi di integratori nella fase starter. Al termine della prova (50gg), 12 muscoli pettorali/gruppo sono stati destinati all’analisi del pH, colore, drip e cooking loss e sforzo di taglio. I risultati ottenuti hanno evidenziato che la deplezione della lisina insieme all’aggiunta dell’integratore 2 (contenente un precursore della creatina) ha determinato una significativa modificazione del colore della carne in termini di luminosità e indice di rosso (a*) e un aumento del cooking loss rispetto al gruppo di controllo. Tuttavia, le modificazioni ottenute sono di lieve entità e non determinano un eventuale peggioramento qualitativo della carne. Infatti, la deplezione della lisina non ha fatto rilevare alcuna modificazione significativa nei confronti dei parametri qualitativi e tecnologici presi in esame. Considerata la limitata disponibilità di studi presenti in letteratura riguardo la restrizione dietetica della quota di lisina, questo studio suggerisce come la sua deplezione nel primo periodo di vita dell’animale possa rappresentare una strategia efficace per ridurre i costi di alimentazione e migliorare la sostenibilità del sistema di produzione senza influenzare negativamente la qualità della carne. Infatti, è noto che la riduzione della concentrazione di alcuni componenti della dieta possa determinare una minore escrezione di azoto e fosforo, migliorando così la sostenibilità ambientale del sistema produttivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Nuclei Galattici Attivi (AGN) sono sorgenti luminose e compatte alimentate dall'accrescimento di materia sul buco nero supermassiccio al centro di una galassia. Una frazione di AGN, detta "radio-loud", emette fortemente nel radio grazie a getti relativistici accelerati dal buco nero. I Misaligned AGN (MAGN) sono sorgenti radio-loud il cui getto non è allineato con la nostra linea di vista (radiogalassie e SSRQ). La grande maggioranza delle sorgenti extragalattiche osservate in banda gamma sono blazar, mentre, in particolare in banda TeV, abbiamo solo 4 MAGN osservati. Lo scopo di questa tesi è valutare l'impatto del Cherenkov Telescope Array (CTA), il nuovo strumento TeV, sugli studi di MAGN. Dopo aver studiato le proprietà dei 4 MAGN TeV usando dati MeV-GeV dal telescopio Fermi e dati TeV dalla letteratura, abbiamo assunto come candidati TeV i MAGN osservati da Fermi. Abbiamo quindi simulato 50 ore di osservazioni CTA per ogni sorgente e calcolato la loro significatività. Assumendo una estrapolazione diretta dello spettro Fermi, prevediamo la scoperta di 9 nuovi MAGN TeV con il CTA, tutte sorgenti locali di tipo FR I. Applicando un cutoff esponenziale a 100 GeV, come forma spettrale più realistica secondo i dati osservativi, prevediamo la scoperta di 2-3 nuovi MAGN TeV. Per quanto riguarda l'analisi spettrale con il CTA, secondo i nostri studi sarà possibile ottenere uno spettro per 5 nuove sorgenti con tempi osservativi dell'ordine di 250 ore. In entrambi i casi, i candidati migliori risultano essere sempre sorgenti locali (z<0.1) e con spettro Fermi piatto (Gamma<2.2). La migliore strategia osservativa per ottenere questi risultati non corrisponde con i piani attuali per il CTA che prevedono una survey non puntata, in quanto queste sorgenti sono deboli, e necessitano di lunghe osservazioni puntate per essere rilevate (almeno 50 ore per studi di flusso integrato e 250 per studi spettrali).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi vent’anni innumerevoli sforzi sono stati compiuti a livello internazionale per ottenere un censimento completo degli “Active Galactic Nuclei” (AGN), ovvero di nuclei galattici attivi, oscurati in banda X. Tale censimento potrebbe rappresentare infatti la soluzione alla problematica del cosiddetto fondo cosmico non risolto in banda X. Gli studi finora condotti sfruttano la forte correlazione fra l'attività del SMBH e l'evoluzione della galassia ospite attraverso osservazioni in banda X hard, nel vicino-medio infrarosso e nell'ottico. Questa tesi si colloca in questo scenario con lo scopo di verificare e confermare l'affidabilità della selezione tramite la riga di emissione del CIV a 1549 Å di AGN oscurati fino a z≈3. Per raggiungere tale obiettivo è stato assunto che il CIV rappresenti un indicatore affidabile della luminosità intrinseca degli AGN e del loro alto potenziale di ionizzazione. Inoltre, allo studio in banda ottica delle sorgenti sono stati associati i dati profondi in banda X per analizzarne le proprietà X e caratterizzarne l’ammontare dell’oscuramento in tale banda in termini di densità di colonna di idrogeno. In particolare, in questo lavoro vengono presentati i risultati dell’analisi in banda X del campione di 192 AGN selezionati nella survey ottica zCOSMOS-Deep, attraverso la riga di emissione del CIV a 1549 Å. Queste 192 sorgenti hanno un redshift medio di 2.2 e una magnitudine media AB in banda B di 23.7. La copertura in banda X del campo selezionato è data dalla survey Chandra COSMOS-Legacy comprendente 4.6 Ms di osservazioni in un’area di 2.2 deg2. I risultati ottenuti in questo progetto di tesi tramite la selezione possono ritenersi soddisfacenti: metà delle AGN di Tipo 2 selezionate con il CIV e rilevate in banda X risultano fortemente oscurate (NH>10^23 cm^(-2) ). Inoltre, le AGN di Tipo 2 non rilevate in banda X risultano consistenti con uno scenario di oggetti oscurati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è la misura di sezione d’urto di produzione di coppie top-antitop nel canale adronico. Per la misura sono stati utilizzati i dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con un’energia nel centro di massa pari a 13 TeV. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 2.474 f b^ −1 . L’analisi dati inizia selezionando gli eventi che soddisfano determinate condizioni (e.g. trigger, tagli cinematici, sei o più jet, almeno 2 jet provenienti dall’adronizzazione di due quark bottom) con lo scopo di incrementare la purezza del segnale scartando il più possibile gli eventi di fondo. A seguire, viene ricostruita la massa del quark top usando un fit cinematico. Sulle distribuzioni di tale massa si basa la stima degli eventi di fondo e di segnale. Infine, attraverso un fit di verosimiglianza, si ottiene il valore della sezione d’urto: σ t t ̄ = 893 ± 57 (stat) ± 104 (syst) pb. Questo risultato è in buon accordo con il valore teorico di 832 pb e con altre misure di CMS effettuate in canali differenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro si proveranno a mettere a fuoco le caratteristiche e le peculiarità di 2 delle filiere di produzione russa di nuova generazione di maggior interesse attualmente utilizzate in patria e in vari stati europei negli impianti nucleari per la generazione elettrica, con particolare attenzione su cosa è stato fatto di diverso ed innovativo soprattutto in campo di sicurezza, sostenibilità ed economicità: il reattore ad acqua pressurizzata VVER e il reattore veloce BN.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Su ogni superficie cubica non singolare nello spazio proiettivo complesso giacciono esattamente 27 rette distinte. Questo è il primo risultato non banale sulle superfici algebriche di grado maggiore di 2 che ha dato inizio alla moderna geometria algebrica e che per la prima volta fu intuito nel 1849 da Arthur Cayley. In questa tesi verrà dimostrata la precedente affermazione generale prendendo inizialmente in considerazione la superficie cubica di Fermat per cui verranno ricavate esplicitamente le 27 rette. Inoltre si giungerà alla classificazione della Fermat a partire dal risultato ottenuto dal matematico svizzero L.Schläfli che classificherà le superfici cubiche lisce definite sul campo dei reali in base al loro numero di rette reali e piani tritangenti reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: I trattamenti volti al recupero della deambulazione nel paziente post stroke sono ampiamente declinati in letteratura, ma vi sono tanti interrogativi per quanto riguarda gli eventi avversi che possono intercorrere in neuroriabilitazione. Dato l’ampio spettro di opzioni terapeutiche in questo ambito, innanzitutto, è utile comprendere quali trattamenti si dimostrano nocivi nella riabilitazione di un paziente così complesso. Obiettivo: l’obiettivo di questa Scoping Review è quello di indagare la presenza di eventi avversi riportati in letteratura che possono insorgere nella riabilitazione volta al recupero del cammino nel paziente post stroke. Inoltre, si cerca di individuare quali strategie terapeutiche non siano applicabili e sicure nell’ambito della neuroriabilitazione. Metodi: la ricerca è avvenuta consultando più banche dati online come Pubmed, Cochrane Library, PEDro, il motore di ricerca Google Scholar; il tutto tramite ricerca manuale bibliografica. Sono stati poi analizzati gli articoli pertinenti rispetto al nostro quesito di partenza, prendendo in considerazione qualsiasi tipologia di studio e senza porre limiti di lingua. Risultati: sono stati individuati 53 articoli secondo i criteri di eleggibilità, di cui: 28 RCT, 8 Systematic Reviews, 7 studi pilota, 4 meta – analisi, 2 studi cross-sectional, 2 studi osservazionali prospettici, 1 studio preliminare e 1 studio post hoc di 2 RCT. Il processo di selezione degli articoli è stato riportato utilizzando un diagramma di flusso, mentre il loro contenuto è sintetizzato in tabella sinottica. Conclusione: L’analisi degli studi segue l’applicazione della stringa di ricerca. Dall’analisi attuale della letteratura non viene evidenziata l’insorgenza di eventi avversi gravi e trattamento-correlati, che fossero responsabili di un cambiamento nella pratica clinica. Sono stati rilevati invece, alcuni eventi avversi di grado lieve o moderato, non sempre direttamente correlabili al trattamento proposto.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Studio di fattibilità per la realizzazione di un modulo ERP con l'utilizzo di Apache Struts 2.