447 resultados para Rustichelli-Valori


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi, svolto presso l’Istituto di Scienza e Tecnologia dei Materiali Ceramici (ISTEC-CNR, Faenza, RA), ha affrontato la produzione e la caratterizzazione di ceramici a base di boruro di zirconio (ZrB2) con lo scopo di valutare l’efficacia delle fibre corte di carbonio come potenziale rinforzo. Il boruro di zirconio appartiene a una famiglia di materiali noti come UHTC (Ultra-High Temperature Ceramics) caratterizzati da elevato punto di fusione e in grado di mantenere la resistenza meccanica e operare con limitata ossidazione a temperature superiori ai 2000°C. Il principale ostacolo nella produzione dei materiali a base di ZrB2 è il processo di sintesi, infatti, a causa della loro elevata temperatura di fusione, per ottenere un materiale completamente denso è necessario utilizzare processi a temperatura e pressione elevati (T > 2000°C e P > 30 MPa), condizioni che vanno ad influenzare la microstruttura della matrice e delle fibre e di conseguenza le proprietà meccaniche del materiale. L’aggiunta di additivi di sinterizzazione idonei permette di ottenere materiali perfettamente densi anche a temperature e pressioni inferiori. Tuttavia lo ZrB2 non viene ampiamente utilizzato per applicazioni strutturali a causa della sua fragilità, per far fronte alla sua bassa tenacità il materiale viene spesso rinforzato con una fase allungata (whiskers o fibre). È già oggetto di studi l’utilizzo di fibre corte e whiskers di SiC per tenacizzare lo ZrB2, tuttavia la forte interfaccia che viene a crearsi tra fibra e matrice, che non permette il pull-out delle fibre, ci porta a credere che una fibra che non tenda a reagire con la matrice, presentando un’interfaccia più debole, possa portare ad una tenacizzazione più efficace. Per questo scopo sono stati realizzati mediante pressatura a caldo due materiali rinforzati con fibre corte di carbonio: ZrB2 + 5% vol MoSi2 + 8% vol fibre di carbonio e [ZrB2 + 2 % peso C] + 8% vol fibre di carbonio, indicati rispettivamente con Z5M_Cf e Z2C_Cf. Sono stati analizzati e discussi diversi aspetti del materiale rinforzato tra cui: il comportamento di densificazione durante la pressatura a caldo, l’evoluzione della microstruttura della matrice, la distribuzione e la morfologia delle fibre, l’influenza del rinforzo sulle proprietà meccaniche di durezza e tenacità e sulla resistenza all’ossidazione. L’elaborato è strutturato come segue: inizialmente sono state introdotte le caratteristiche generali dei ceramici avanzati tra cui le proprietà, la produzione e le applicazioni; successivamente è stata approfondita la descrizione dei materiali a base di boruro di zirconio, in particolare i processi produttivi e l’influenza degli additivi di sinterizzazione sulla densificazione e sulle proprietà; ci si è poi concentrati sull’effetto di una seconda fase allungata per il rinforzo del composito. Per quanto riguarda la parte sperimentale vengono descritte le principali fasi della preparazione e caratterizzazione dei materiali: le materie prime, disperse in un solvente, sono state miscelate mediante ball-milling, successivamente è stato evaporato il solvente e la polvere ottenuta è stata formata mediante pressatura uniassiale. I campioni, dopo essere stati sinterizzati mediante pressatura uniassiale a caldo, sono stati tagliati e lucidati a specchio per poter osservare la microstruttura. Quest’ultima è stata analizzata al SEM per studiare l’effetto dell’additivo di sinterizzazione (MoSi2 e carbonio) e l’interfaccia tra matrice e fase rinforzante. Per approfondire l’effetto del rinforzo sulle proprietà meccaniche sono state misurate la durezza e la tenacità del composito; infine è stata valutata la resistenza all’ossidazione mediante prove in aria a 1200°C e 1500°C. L’addizione di MoSi2 ha favorito la densificazione a 1800°C mediante formazione di una fase liquida transiente, tuttavia il materiale è caratterizzato da una porosità residua di ~ 7% vol. L’addizione del carbonio ha favorito la densificazione completa a 1900°C grazie alla reazione dall’additivo con gli ossidi superficiali dello ZrB2. La microstruttura delle matrici è piuttosto fine, con una dimensione media dei grani di ~ 2 μm per entrambi i materiali. Nel caso del materiale con Z5M_Cf sono presenti nella matrice particelle di SiC e fasi MoB derivanti dalla reazione dell’additivo con le fibre e con la matrice; invece nel materiale Z2C_Cf sono presenti grani di carbonio allungati tra i bordi grano, residui delle reazioni di densificazione. In entrambi i materiali le fibre sono distribuite omogeneamente e la loro interfaccia con la matrice è fortemente reattiva. Nel caso del materiale Z5M_Cf si è formata una struttura core-shell con lo strato più esterno formato da SiC, formato dalla reazione tra il siliciuro e la fibra di C. Nel caso del materiale Z2C_Cf non si forma una vera e propria interfaccia, ma la fibra risulta fortemente consumata per via dell’alta temperatura di sinterizzazione. I valori di durezza Vickers dei materiali Z5M_Cf e Z2C_Cf sono rispettivamente 11 GPa e 14 GPa, valori inferiori rispetto al valore di riferimento di 23 GPa dello ZrB2, ma giustificati dalla presenza di una fase meno dura: le fibre di carbonio e, nel caso di Z5M_Cf, anche della porosità residua. I valori di tenacità dei materiali Z5M_Cf e Z2C_Cf, misurati con il metodo dell’indentazione, sono rispettivamente 3.06 MPa·m0.5 e 3.19 MPa·m0.5. L’osservazione, per entrambi i materiali, del fenomeno di pull-out della fibra, sulla superficie di frattura, e della deviazione del percorso della cricca, all’interno della fibra di carbonio, lasciano supporre che siano attivi questi meccanismi tenacizzanti a contributo positivo, unitamente al contributo negativo legato allo stress residuo. La resistenza all’ossidazione dei due materiali è confrontabile a 1200°C, mentre dopo esposizione a 1500°C il materiale Z5M_Cf risulta più resistente rispetto al materiale Z2C_Cf grazie alla formazione di uno strato di SiO2 protettivo, che inibisce la diffusione dell’ossigeno all’interno della matrice. Successivamente, sono stati considerati metodi per migliorare la densità finale del materiale e abbassare ulteriormente la temperatura di sinterizzazione in modo da minimizzare la degenerazione della fibra. Da ricerca bibliografica è stato identificato il siliciuro di tantalio (TaSi2) come potenziale candidato. Pertanto è stato prodotto un terzo materiale a base di ZrB2 + Cf contenente una maggiore quantità di siliciuro (10% vol TaSi2) che ha portato ad una densità relativa del 96% a 1750°C. Questo studio ha permesso di approcciare per la prima volta le problematiche legate all’introduzione delle fibre di carbonio nella matrice di ZrB2. Investigazioni future saranno mirate alla termodinamica delle reazioni che hanno luogo in sinterizzazione per poter analizzare in maniera più sistematica la reattività delle fibre nei confronti della matrice e degli additivi. Inoltre riuscendo ad ottenere un materiale completamente denso e con fibre di carbonio poco reagite si potrà valutare la reale efficacia delle fibre di carbonio come possibili fasi tenacizzanti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato ha ad oggetto la direttiva PED (Pressure Equipment Directive) relativa agli apparecchi a pressione. Tale norma è stata recepita in Italia con il D.Lgs. n. 93/2000 ed è entrata in vigore definitivamente nel 2002. Essa è finalizzata alla libera circolazione delle attrezzature a pressione nella comunità europea e ne disciplina la progettazione, la costruzione, l'equipaggiamento e l'installazione in sicurezza, definendo per ciascuna delle fasi sopra elencate quali siano i documenti da presentare, gli accorgimenti da rispettare e i controlli a cui sottostare. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha avuto l’obiettivo di individuare i punti di contatto fra quanto richiesto dalla direttiva PED e quanto solitamente emerge dall’applicazione delle tecniche per l’analisi di rischio, degli standard internazionali e aziendali e delle norme di buona tecnica. Il risultato del lavoro consiste nella definizione di un iter tecnico-procedurale standardizzato ad uso dell’utilizzatore delle attrezzature a pressione tramite la quale l’azienda possa procedere alla compilazione delle Note Tecniche destinate al fabbricante delle attrezzature stesse, secondo quanto richiesto dalla direttiva. Tali Note Tecniche devono contenere le indicazioni relative ai valori progettuali di temperatura e pressione e ai Requisiti Essenziali di Sicurezza (RES) che devono essere soddisfatti, permettendo così al fabbricante di poter svolgere una corretta analisi di rischio e all’utilizzatore di ottenere la massima sicurezza negli impianti. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono illustrate le principali novità introdotte dalla direttiva PED e descritti i punti cardine della procedura di valutazione della conformità richiesta per le attrezzature a pressione. Nel Capitolo 3 viene esaminata l’integrazione della direttiva PED con la direttiva Macchine e la direttiva ATEX. Nel Capitolo 4 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per rispondere ai Requisiti Essenziali di Sicurezza (RES) richiesti in fase di compilazione della Nota Tecnica. Nel Capitolo 5 si fornisce una descrizione dettagliata dell’iter tecnico-procedurale messo a punto per la valutazione di conformità delle attrezzature e degli insiemi a pressione. Nel Capitolo 6 vengono illustrati ad uno ad uno i punti che devono essere presenti in una Nota Tecnica, ciascuno dei quali costituisce un Requisito Essenziale di Sicurezza. Nel Capitolo 7 viene approfondito uno dei Requisiti più critici, l’incendio esterno. Infine nel Capitolo 8 sono riportate le considerazioni conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è l'installazione di un Rilassometro ottenuto a partire da un magnete permanente situato nel Dipartimento di Fisica e Astronomia (DIFA - via Irnerio, 46), al fine di eseguire misure attendibili di Rilassometria in mezzi porosi su campioni del diametro di alcuni centimetri. Attualmente nel Dipartimento è gia presente un elettromagnete adibito a misure di questo tipo; tuttavia, questo strumento permette lo studio di campioni di piccole dimensioni (circa 220mm3) e si rivela insuffciente per lo studio di rocce, coralli e altre strutture porose di più grande dimensione senza la frantumazione del campione stesso; per questa ragione si è presentata la necessità dell'istallazione di una nuova strumentazione. Parte della strumentazione utilizzata è in disuso da parecchi anni e le caratteristiche devono essere verificate. Dopo l'assemblaggio della strumentazione (magnete, console, probe), sono state determinate le migliori condizioni in cui effettuare le misure, ovvero i parametri fondamentali dell'elettronica (frequenza di risonanza, TATT, tempo morto del probe, tempo di applicazione dell'impulso 90°) e la zona di maggiore uniformità del campo magnetico. Quindi, sono state effettuate misure di T1 e T2 su campioni bulk e su un campione di roccia saturata d'acqua, confrontando i risultati con valori di riferimento ottenuti tramite elettromagnete. I risultati ottenuti risultano consistenti con i valori attesi, con scarti - inevitabili a causa della grande differenza di volume dei campioni - molto ridotti, pertanto l'installazione del nuovo Rilassometro risulta essere completata con successo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca affronta in modo unitario e nell’ottica europea i multiformi fenomeni della doppia imposizione economica e giuridica, assumendo come paradigma iniziale la tassazione dei dividendi cross-border. Definito lo statuto giuridico della doppia imposizione, se ne motiva la contrarietà all’ordinamento europeo e si indagano gli strumenti comunitari per raggiungere l’obiettivo europeo della sua eliminazione. In assenza di un’armonizzazione positiva, il risultato sostanziale viene raggiunto grazie all’integrazione negativa. Si dimostra che il riserbo della Corte di Giustizia di fronte a opzioni di politica fiscale è soltanto un’impostazione di facciata, valorizzando le aperture giurisprudenziali per il suo superamento. Questi, in sintesi, i passaggi fondamentali. Si parte dall’evoluzione delle libertà fondamentali in diritti di rango costituzionale, che ne trasforma il contenuto economico e la portata giuridica, attribuendo portata costituzionale ai valori di neutralità e non restrizione. Si evidenzia quindi il passaggio dal divieto di discriminazioni al divieto di restrizioni, constatando il fallimento del tentativo di configurare il divieto di doppia imposizione come principio autonomo dell’ordinamento europeo. Contemporaneamente, però, diventa opportuno riesaminare la distinzione tra doppia imposizione economica e giuridica, e impostare un unico inquadramento teorico della doppia imposizione come ipotesi paradigmatica di restrizione alle libertà. Conseguentemente, viene razionalizzato l’impianto giurisprudenziale delle cause di giustificazione. Questo consente agevolmente di legittimare scelte comunitarie per la ripartizione dei poteri impositivi tra Stati Membri e l’attribuzione delle responsabilità per l’eliminazione degli effetti della doppia imposizione. In conclusione, dunque, emerge una formulazione europea dell’equilibrato riparto di poteri impositivi a favore dello Stato della fonte. E, accanto ad essa, una concezione comunitaria del principio di capacità contributiva, con implicazioni dirompenti ancora da verificare. Sul piano metodologico, l’analisi si concentra criticamente sull’operato della Corte di Giustizia, svelando punti di forza e di debolezza della sua azione, che ha posto le basi per la risposta europea al problema della doppia imposizione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alla luce delle improrogabili necessità ambientali, le prospettive di crescita del mercato dei bio-combustibili e quindi del biodiesel, sono molto ampie; si rende quindi necessario lo sviluppo di nuovi processi chimici in grado di valorizzare il co-prodotto della sintesi del biodiesel, ovvero il glicerolo. Tra le varie opzioni proposte dalla recente letteratura scientifica e brevettuale, la trasformazione one-pot del glicerolo ad acido acrilico può rappresentare una soluzione. All’interno di questa tematica, durante il periodo di tesi ho eseguito uno studio di catalizzatori a base di ossidi misti contenenti tungsteno, molibdeno e/o vanadio. Tali ossidi presentano sia funzionalità acida, necessaria per il primo stadio di disidratazione del glicerolo ad acroleina, sia funzionalità redox, necessaria all’ossidazione dell’acroleina ad acido acrilico. I sistemi tri-componente W-V-Mo si sono rivelati catalizzatori attivi e selettivi per la sintesi diretta di glicerolo ad acido acrilico. La miglior performance catalitica di questa classe di catalizzatori ha consentito di ottenere selettività in acido acrilico del 31%, con selettività totale ad acido acrilico ed acroleina superiore al 38% (valori tra i più elevati rispetto a quelli riportati in letteratura). Infine, si è dimostrato che i catalizzatori a base di W-V-Mo sono sistemi potenzialmente sfruttabili anche in impianti a doppio stadio per la produzione di acido acrilico con alimentazioni miste propilene/glicerolo. Ulteriori studi sono attualmente in corso per approfondire le capacità catalitiche degli ossidi misti studiati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chirurgia con ultrasuoni focalizzati guidati da MRI (MR-g-FUS) è un trattamento di minima invasività, guidato dal più sofisticato strumento di imaging a disposizione, che utilizza a scopo diagnostico e terapeutico forme di energia non ionizzante. Le sue caratteristiche portano a pensare un suo possibile e promettente utilizzo in numerose aree della patologia umana, in particolare scheletrica. L'osteoma osteoide affligge frequentemente pazienti di giovane età, è una patologia benigna, con origine ed evoluzione non chiare, e trova nella termoablazione con radiofrequenza continua sotto guida CT (CT-g-RFA) il suo trattamento di elezione. Questo lavoro ha valutato l’efficacia, gli effetti e la sicurezza del trattamento dell’osteoma osteoide con MR-g-FUS. Sono stati presi in considerazione pazienti arruolati per MR-g-FUS e, come gruppo di controllo, pazienti sottoposti a CT-g-RFA, che hanno raggiunto un follow-up minimo di 18 mesi (rispettivamente 6 e 24 pazienti). Due pazienti erano stati esclusi dal trattamento MR-g-FUS per claustrofobia (2/8). Tutti i trattamenti sono stati portati a termine con successo tecnico e clinico. Non sono state registrate complicanze o eventi avversi correlati all’anestesia o alle procedure di trattamento, e tutti i pazienti sono stati dimessi regolarmente dopo 12-24 ore. La durata media dei trattamenti di MR-g-FUS è stata di 40±21 min. Da valori di score VAS pre-trattamento oscillanti tra 6 e 10 (su scala 0-10), i trattamenti hanno condotto tutti i pazienti a VAS 0 (senza integrazioni farmacologiche). Nessun paziente ha manifestato segni di persistenza di malattia o di recidiva al follow-up. Nonostante la neurolisi e la risoluzione dei sintomi, la perfusione del nidus è stata ritrovata ancora presente in oltre il 70% dei casi sottoposti a MR-g-FUS (4/6 pazienti). I risultati derivati da un'analisi estesa a pazienti più recentemente arruolati confermano questi dati. Il trattamento con MR-g-FUS sembra essere efficace e sicuro nel risolvere la sintomatologia dell'osteoma osteoide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conformemente ai trattati, l'UE sviluppa una politica comune in materia di asilo, immigrazione e controllo delle frontiere esterne, fondata sulla solidarietà e sul rispetto dei diritti fondamentali e, a tal fine, avvia relazioni strategiche con i Paesi terzi e le Organizzazioni internazionali. Un fenomeno “senza frontiere”, quale quello migratorio, esige del resto un'azione coerente e coordinata sia sul piano interno sia su quello esterno. La messa in atto di quest'ultima, tuttavia, si scontra con difficoltà di rilievo. Innanzitutto, l'UE e i suoi Stati membri devono creare i presupposti per l'avvio della collaborazione internazionale, vale a dire stimolare la fiducia reciproca con i Paesi terzi, rafforzando la propria credibilità internazionale. A tal fine, le istituzioni, gli organi e gli organismi dell'UE e gli Stati membri devono impegnarsi a fornire un modello coerente di promozione dei valori fondanti, quali la solidarietà e il rispetto dei diritti fondamentali, nonché a coordinare le proprie iniziative, per individuare, insieme ai Paesi terzi e alle Organizzazioni internazionali, una strategia d'azione comune. In secondo luogo, l'UE e gli Stati membri devono adottare soluzioni volte a promuovere l'efficacia della collaborazione internazionale e, più precisamente, assicurare che la competenza esterna sia esercitata dal livello di governo in grado di apportare il valore aggiunto e utilizzare la forma collaborativa di volta in volta più adeguata alla realizzazione degli obiettivi previsti. In definitiva, l'azione esterna dell'UE in materia di politica migratoria necessita di una strategia coerente e flessibile. Se oggi la coerenza è garantita dalla giustiziabilità dei principi di solidarietà, di rispetto dei diritti fondamentali e, giustappunto, di coerenza, la flessibilità si traduce nel criterio del valore aggiunto che, letto in combinato disposto con il principio di leale cooperazione, si pone al centro del nuovo modello partenariale proposto dall'approccio globale, potenzialmente idoneo a garantire la gestione efficace del fenomeno migratorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo: Il nostro obiettivo è stato quello di confrontare la tomoterapia (HT) e la protonterapia ad intensità modulata (IMPT) nel trattamento del tumore prostatico, seguendo un protocollo di boost simultaneo (SIB) e moderatamente ipofrazionato. Materiali e metodi: Abbiamo selezionato 8 pazienti, trattati con HT e abbiamo rielaborato i piani con 2 campi IMPT. La dose prescritta è stata di 74 Gy sul PTV1 (prostata e vescicole seminali prossimali), 65.8 Gy sul PTV2 (vescicole seminali distali) e 54 Gy sul PTV3 (linfonodi pelvici). Risultati: Sia con IMPT che con HT abbiamo ottenuto una copertura e una omogeneità di dose del target sovrapponibile. Oltre i 65 Gy, HT e IMPT erano equivalenti per il retto, mentre con l’IMPT c’era maggior risparmio della vescica e del bulbo penieno da 0 a 70 Gy. Da 0 fino a 60 Gy, i valori dosimetrici dell’IMPT erano molto più bassi per tutti gli organi a rischio (OARs), eccetto che per le teste femorali, dove la HT aveva un vantaggio dosimetrico rispetto all’IMPT nel range di dose 25-35 Gy. La dose media agli OARs era ridotta del 30-50% con l’IMPT. Conclusioni: Con le due tecniche di trattamento (HT e IMPT) si ottiene una simile distribuzione di dose nel target. Un chiaro vantaggio dosimetrico dell’IMPT sul HT è ottenuto dalle medie e basse dosi. Le attuali conoscenze sulle relazioni dose-effetto e sul risparmio delle madie e basse dosi con l’IMPT non sono ancora state quantificate dal punto di vista clinico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis presenta un breve estado de la cuestión de la sociología y la ética del deporte como nueva disciplina académica, desde su origen hasta el presente. En segundo lugar pretende ver que aporta la perspectiva de la sociologia relacional al estudio del deporte. La primera contribución es la “trans-discipliniariedad” entre disciplinas como la sociología y la ética, evitando caer en una ética “sociologizzata” o en una sociología “eticizzata”. Gracias a la relacionalidad se obtiene la des-mercantilización de bienestar. La lógica relacional busca el desarrollo económico sin olvida que la sociedad está formada por personas, que son lo realmente importantes por encima de los interés económicos. Otra contribución es la distinción entre la “sociedad humana” y la “sociedad de lo humano” que evita muchos de los actuales problemas que trae consigo las nuevas tecnologías. Y finalmente aporta el esquema “AGIL” como “brújula relacional” que ayuda a relaizar los objetivos, medios y reglas éticas dentro de la práctica deportiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le scelte di asset allocation costituiscono un problema ricorrente per ogni investitore. Quest’ultimo è continuamente impegnato a combinare diverse asset class per giungere ad un investimento coerente con le proprie preferenze. L’esigenza di supportare gli asset manager nello svolgimento delle proprie mansioni ha alimentato nel tempo una vasta letteratura che ha proposto numerose strategie e modelli di portfolio construction. Questa tesi tenta di fornire una rassegna di alcuni modelli innovativi di previsione e di alcune strategie nell’ambito dell’asset allocation tattica, per poi valutarne i risvolti pratici. In primis verificheremo la sussistenza di eventuali relazioni tra la dinamica di alcune variabili macroeconomiche ed i mercati finanziari. Lo scopo è quello di individuare un modello econometrico capace di orientare le strategie dei gestori nella costruzione dei propri portafogli di investimento. L’analisi prende in considerazione il mercato americano, durante un periodo caratterizzato da rapide trasformazioni economiche e da un’elevata volatilità dei prezzi azionari. In secondo luogo verrà esaminata la validità delle strategie di trading momentum e contrarian nei mercati futures, in particolare quelli dell’Eurozona, che ben si prestano all’implementazione delle stesse, grazie all’assenza di vincoli sulle operazioni di shorting ed ai ridotti costi di transazione. Dall’indagine emerge che entrambe le anomalie si presentano con carattere di stabilità. I rendimenti anomali permangono anche qualora vengano utilizzati i tradizionali modelli di asset pricing, quali il CAPM, il modello di Fama e French e quello di Carhart. Infine, utilizzando l’approccio EGARCH-M, verranno formulate previsioni sulla volatilità dei rendimenti dei titoli appartenenti al Dow Jones. Quest’ultime saranno poi utilizzate come input per determinare le views da inserire nel modello di Black e Litterman. I risultati ottenuti, evidenziano, per diversi valori dello scalare tau, extra rendimenti medi del new combined vector superiori al vettore degli extra rendimenti di equilibrio di mercato, seppur con livelli più elevati di rischio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Perfusion CT imaging of the liver has potential to improve evaluation of tumour angiogenesis. Quantitative parameters can be obtained applying mathematical models to Time Attenuation Curve (TAC). However, there are still some difficulties for an accurate quantification of perfusion parameters due, for example, to algorithms employed, to mathematical model, to patient’s weight and cardiac output and to the acquisition system. In this thesis, new parameters and alternative methodologies about liver perfusion CT are presented in order to investigate the cause of variability of this technique. Firstly analysis were made to assess the variability related to the mathematical model used to compute arterial Blood Flow (BFa) values. Results were obtained implementing algorithms based on “ maximum slope method” and “Dual input one compartment model” . Statistical analysis on simulated data demonstrated that the two methods are not interchangeable. Anyway slope method is always applicable in clinical context. Then variability related to TAC processing in the application of slope method is analyzed. Results compared with manual selection allow to identify the best automatic algorithm to compute BFa. The consistency of a Standardized Perfusion Index (SPV) was evaluated and a simplified calibration procedure was proposed. At the end the quantitative value of perfusion map was analyzed. ROI approach and map approach provide related values of BFa and this means that pixel by pixel algorithm give reliable quantitative results. Also in pixel by pixel approach slope method give better results. In conclusion the development of new automatic algorithms for a consistent computation of BFa and the analysis and definition of simplified technique to compute SPV parameter, represent an improvement in the field of liver perfusion CT analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.