152 resultados para trattare, tumori, calore
Resumo:
L’incremento dell’istallazione di collettori solari termici e panelli solari ibridi nell’ultimo decennio ha spinto il mercato settoriale alla ricerca di nuovi sistemi di accumulo termico da implementare a tali impianti, al fine di poter sfruttare l’energia derivante dal sole con una efficienza termica maggiore. I dispositivi oggigiorno in commercio, nonostante le tecnologie impiantistiche risultino essere state migliorate, non hanno subito un’evoluzione ed ancora oggi il principale materiale d’accumulo è l’acqua, ottenendo così dispositivi con efficienze molto ridotte, di dimensioni elevate e collocabili in zone interne abitabili. L’utilizzo di fluido a cambiamento di stato come mezzo di accumulo può essere una valida alternativa al fine di incrementare l’efficienza dal punto di vista energetico e la riduzione degli ingombri, data l’elevata energia interna posseduta dal materiale durante il cambiamento di fase. Nel seguente elaborato di tesi, si è posto come obbiettivo quello di effettuare uno studio sulla possibilità di accumulare energia termica mediante l’utilizzo di un fluido a cambiamento di fase a base organica, tramite un’analisi sperimentale ed energetica dei meccanismi di fusione attorno ad un ramo dello scambiatore di calore, al fine di valutare la conformazione migliore che permetta la sottrazione di energia termica latente durante la fase di solidificazione. Questo ha comportato, oltre alla scelta del PCM ottimale per l’accumulo, la progettazione e realizzazione del prototipo e l’attrezzatura sperimentale.
Resumo:
Nelle matrici ambientali sono spesso presenti xenoestrogeni, molecole sintetiche o di origine naturale ad attività estrogenica in grado di alterare il normale equilibrio ormonale di organismi esposti, incidendo negativamente su alcune funzioni vitali come la riproduzione ed il metabolismo. Diverse sostanze chimiche presenti in ambiente, tra cui alcune molecole ad attività estrogenica, sono anche potenziali composti genotossici, in grado, cioè, di interagire con il DNA ed esercitare effetti anche a lungo termine come l’insorgenza di tumori nei vertebrati, uomo compreso. L’obiettivo del presente lavoro di tesi è stato quello di mettere a punto ed utilizzare due saggi biologici, il saggio E-screen ed il test dei micronuclei, per valutare la presenza di xenoestrogeni e composti genotossici in campioni di acque prelevate prima e dopo i trattamenti di potabilizzazione, utilizzando cellule MCF-7 di adenocarcinoma mammario come modello sperimentale in vitro. Le indagini biologiche sono state condotte sulla base di una convenzione di ricerca con la Società acquedottistica Romagna Acque- Società delle fonti e hanno previsto tre campagne di monitoraggio. I campioni di acqua sperimentale, raccolti prima e dopo i trattamenti presso diversi impianti di potabilizzazione, sono stati preventivamente filtrati, estratti in fase solida, fatti evaporare sotto leggero flusso di azoto, ed infine, saggiati sulle cellule. Il test E-screen, di cui abbiamo dimostrato un elevato livello di sensibilità, ha permesso di escludere la presenza di composti ad attività estrogenica nei campioni esaminati. Allo stesso modo, i risultati del test dei micronuclei hanno dimostrato l’assenza di effetti genotossici, confermando la buona qualità delle acque analizzate. Nell’ambito delle attività di monitoraggio, le indagini biologiche risultano essenziali per la valutazione di una potenziale contaminazione ambientale, in quanto forniscono informazioni anche quando non sono state condotte analisi chimiche. Inoltre, anche quando le analisi chimiche siano state condotte, i test biologici informano della potenzialità tossica di una matrice causata eventualmente da sostanze non oggetto del saggio chimico. Infine, i test biologici permettono di identificare eventuali sinergie tra più contaminanti presenti nelle acque, affermandosi come test da condurre in maniera complementare ai saggi chimici. I test biologici come quelli impiegati nel lavoro di tesi sono molto sensibili ed informativi, ma necessitano della definizione di protocolli standardizzati per garantirne un’uniforme applicazione alle acque ad uso potabile, almeno a livello nazionale.
Resumo:
Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.
Resumo:
Questo lavoro nasce dalla mia curiosità di comprendere le vicende che hanno sconvolto Hong Kong da settembre 2014 fino ad oggi con l’obiettivo di cogliere le cause principali che hanno innescato le proteste degli abitanti dell’isola. Il mio elaborato è composto da due capitoli: il primo, riguardante la storia di Hong Kong, ne ripercorre tutte le fasi principali: dalla scoperta dell’isola da parte delle navi inglesi fino alla cosiddetta “Rivoluzione degli Ombrelli”, passando per il 1997, anno in cui Hong Kong ritorna alla Cina; il secondo capitolo è dedicato all’analisi terminologica condotta su un corpus di 177,671 token e 15,832 types creato il 5 Maggio 2015 utilizzando i software BootCat e Antconc. L’analisi terminologica ha come scopo quello di analizzare espressioni e termini riguardanti le proteste di Hong Kong, scoppiate il 28 Settembre 2014, per osservare in che modo il linguaggio politico e i simboli della protesta abbiano condizionato la percezione di questi avvenimenti da parte dell’opinione pubblica cinese ed internazionale. Infine, ho organizzato i termini più significativi in schede terminologiche che ho inserito nell’appendice. Gli obiettivi del mio elaborato sono quelli di presentare le recenti rivolte di Hong Kong che, a mio avviso, non hanno avuto una grande risonanza nel nostro paese, cercando di approfondirne gli aspetti più salienti. Inoltre ho scelto di trattare questo argomento perché analizzare le relazioni tra la Cina e una delle proprie “aree periferiche” permette di osservare la politica, la società e la cultura cinese da un punto di vista affascinante e inusuale.
Resumo:
Da una riflessione sul multilinguismo e sul diritto di immigrati e turisti, o più in generale residenti stranieri, di accedere ai servizi pubblici nella propria lingua, nasce l’idea di questo elaborato. Ci si è voluti concentrare sull’interpretazione telefonica (IT) in quanto mezzo utile per accedere a un interprete rapidamente, soprattutto in caso di emergenza. L’elaborato presenta inizialmente un excursus storico sull’interpretazione grazie al quale si giunge a trattare dell’interpretazione a distanza, che viene divisa in videoconference interpreting e interpretazione telefonica (IT): Di quest’ultima, tema dell’elaborato,si analizza l’implementazione e si espongono le controversie che la riguardano. A seguire ci si dedica alla ricerca sull’IT che viene svolta in una realtà aziendale basca di punta nel settore spagnolo: Dualia. Viene descritta l’azienda, la sua storia, i servizi che fornisce, e le modalità di lavoro degli interpreti. La seconda parte dell’elaborato tratta dell’esposizione e analisi dei risultati della ricerca. L’obiettivo dello studio è quello di ricavare la prospettiva di interpreti e clienti sull’IT e trarne spunti di miglioramento per il servizio. La ricerca è avvenuta per mezzo di due tipi di questionari indirizzati uno ai clienti dell’IT, e l’altro agli interpreti telefonici che lavorano con Dualia. Il questionario per i clienti ha riscontrato che essi utilizzano facilmente l’IT, che è un grande aiuto nel loro lavoro e che gli interpreti sono considerati professionali. Il questionario per gli interpreti ha creato un profilo dell’interprete telefonico, ha riscontrato una propensione degli interpreti e ha mostrato le problematiche principali dell’interprete telefonico.
Resumo:
L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.
Resumo:
Negli ultimi anni, la popolazione è stata esposta a vari tipi di campi elettromagnetici generati da strumentazioni elettroniche e dispositivi di telecomunicazione. In questa tesi, si valutano SAR ed effetti termici prodotti da tre antenne patch a radiofrequenza sia su Cheratinociti (cellule dell'epidermide) in vitro che sull'epidermide umana in vivo caratterizzata in un modello multistrato contenente tessuti biologici. Le antenne progettate hanno frequenze di risonanza di 1.8 e 2.4 GHz, tipiche delle bande utilizzate rispettivamente da LTE (Long Term Evolution, la più recente evoluzione degli standard di telefonia mobile cellulare) e dalle moderne tecnologie Wi-Fi, e di 60 GHz, propria delle cosiddette onde millimetriche. Vengono valutati quindi il SAR (Specific Absorption Rate, grandezza che fornisce una misura dell'assorbimento delle onde da parte dei tessuti biologici) e le variazioni di temperatura prodotte dall'applicazione del campo elettromagnetico: ciò viene realizzato attraverso l'equazione del calore stazionaria e, nel caso dell'epidermide in vivo, con la Bioheat Equation, che contempla anche la circolazione sanguigna ed il calore generato nei processi metabolici che avvengono nell'organismo.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
Il calore contenuto in profondità negli ammassi rocciosi può essere estratto attraverso un sistema geotermico che prevede l’inserimento di tubazioni in corrispondenza del rivestimento del tunnel, all'interno del quale circola un fluido termovettore che assorbe calore dalle pareti circostanti. Il caso di studio analizzato è la Galleria di Mules, un tunnel scavato in metodo tradizionale all'interno del Granito di Bressanone, che funge come unica finestra di accesso sul lato italiano alla Galleria di Base del Brennero (BBT). Essa si sviluppa in direzione ovest-est per una lunghezza pari circa a 1780 m. In fase di esercizio. Attraverso una caratterizzazione geologica e idrogeologica dell’area di interesse, prove di laboratorio su campioni e rilevazioni delle temperature all’interno della galleria, è stato possibile delineare un quadro geotermico dell’area di interesse. I dati raccolti hanno permesso di ricavare un modello 3D delle temperature dell’area e, attraverso un’apposita procedura di calcolo, quantificare il potenziale energetico estraibile dal tratto di galleria considerato. Sulla base dei risultati ottenuti, è stato realizzato uno schema dettagliato della disposizione del circuito sorgente, adattato sul progetto definitivo del rivestimento interno alla Galleria di Mules. In assenza di potenziali utenze termiche nelle vicinanze del portale di accesso, si è ipotizzato di destinare la risorsa geotermica ad una pavimentazione stradale dotata di sistema snow and ice melting. La pavimentazione permetterà il collegamento fra la strada SS12 e l’imbocco del tunnel. E’ stata effettuata una stima dei costi di investimento dell’intero sistema a pompa di calore e, sulla base del fabbisogno energetico dell’utenza considerata, sono stati valutati i costi di esercizio, confrontandoli con altre possibili soluzioni. Lo studio ha dimostrato la fattibilità tecnico-economica di soluzioni di questo tipo e si pone come primo passo per approfondimenti futuri.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
La presente attività di tesi è stata svolta presso la Divisione di Sicurezza Nucleare dell’ENEA di Bologna ed è stata finalizzata ad analizzare, mediante il codice MELCOR 2.1, le conseguenze di tre incidenti severi non mitigati di tipo LBLOCA in un generico reattore nucleare ad acqua leggera pressurizzata (PWR) da 900 MWe. In particolare sono stati confrontati gli scenari incidentali relativi a tre distinti eventi iniziatori nel circuito di refrigerazione primario: la rottura a ghigliottina della gamba fredda (CL) del loop 1, della gamba calda (HL) del loop 1 e della surge line di connessione con il pressurizzatore. Le analisi MELCOR hanno indagato la progressione incidentale in-vessel, con particolare riferimento alle fenomenologie termoidrauliche e di degradazione del core. MELCOR infatti è un codice integrato che simula le principali fenomenologie riguardanti sequenze incidentali di tipo severo in reattori ad acqua leggera. Durante la prima fase dei tre transitori incidentali risultano predominanti fenomenologie di carattere termoidraulico. In particolare MELCOR predice la rapida depressurizzazione e il conseguente svuotamento del sistema di refrigerazione primario. I tre transitori sono poi caratterizzati dallo scoprimento completo del core a causa dell’indisponibilità del sistema di refrigerazione di emergenza. Il conseguente riscaldamento del core per il calore di decadimento e per ossidazione delle strutture metalliche conduce inevitabilmente alla sua degradazione e quindi al fallimento della lower head del recipiente in pressione del reattore nei tre scenari incidentali in tempi diversi. Durante la prima fase incidentale, di carattere prevalentemente termoidraulico, sono state rilevate le principali differenze fenomenologiche causate dalle differenti posizioni e dimensioni delle rotture. Il transitorio causato dalla rottura della CL si è confermato come il più gravoso, con fallimento anticipato della lower head rispetto agli altri due transitori considerati.
Resumo:
Nella tesi sono descritte, a valle di una breve disamina normativa, le modalità di contabilizzazione del calore, con particolare riferimento alle tipologie di strumenti ed agli errori di misura ad essi correlati. Viene inoltre analizzata nel dettaglio la normativa tecnica UNI 10200, relativa ai criteri di ripartizione delle spese di climatizzazione invernale ed acqua calda sanitaria negli impianti termici centralizzati. Con la presentazione di un caso di studio viene affrontata l'applicazione della stessa.
Resumo:
Il presente elaborato è incentrato sulla modellizzazione del plasma di bordo nei dispositivi per la produzione di energia da fusione nucleare noti come tokamak. La tecnologia che nel corso di tutta la seconda metà del XX secolo fino ad oggi è stata sviluppata a questo fine deve necessariamente scontrarsi con alcuni limiti. Nei tokamak il confinamento del plasma è di tipo magnetico e vincola le particelle a muoversi di moto elicoidale all'interno del vessel, tuttavia il confinamento non risulta perfetto e parte dell'energia si scarica sulle pareti della camera, rischiando pertanto di fondere i materiali. Alcune strategie possono essere messe in atto per limitare questo problema, per esempio agendo sulla geometria del tokamak, oppure sulla fisica, inducendo nel plasma una data concentrazione di impurezze che ionizzino irraggiando parte dell'energia di plasma. Proprio tale meccanismo di perdita è stato simulato in un modello monodimensionale di plasma monofluido di bordo. I risultati del codice numerico relativo al modello dimostrano che per concentrazioni di impurezze crescenti è possibile diminuire in modo significativo flusso di calore e temperatura al divertore. Per di più risulta possibile controllare la posizione del fronte di irraggiamento per mezzo di parametri di controllo del plasma quali la pressione. Si osserva inoltre l'insorgere del cosiddetto fenomeno di biforcazione alle basse temperature di divertore, fenomeno in cui il plasma si comporta in modo instabile a causa di fenomeni fisici tipici delle basse energie ("detachment") e a seguito del quale può improvvisamente spegnersi (disruzione). Infine lo stesso modello è stato migliorato inserendo l'ipotesi di plasma bifluido. Anche per gli ioni viene osservato il fenomeno di biforcazione. I risultati numerici evidenziano le dinamiche dello scambio energetico fra le specie gettando le basi di una progettazione efficiente della chimica del plasma finalizzata al raffreddamento del divertore.
Resumo:
Lo scopo di questo elaborato è quello di proporre una traduzione parziale dall’inglese di un libretto teologico evangelico dell’autore Peter Masters, dal titolo How To Seek And Find The Lord. È un libretto molto conosciuto tra i cristiani evangelici di cui esistono già traduzioni in spagnolo, francese, portoghese e polacco; il mio obiettivo è proporne una in italiano. La scelta di questa tipologia testuale per il mio elaborato finale deriva dalla fede che professo, come si poteva immaginare. Essendo io di fede cristiana evangelica ho scelto di affrontare un tema con il quale sono costantemente a contatto, di cui mi interesso e che conosco a fondo, nonostante sia un argomento ostico. I testi teologici sono infatti delicati da trattare e hanno contenuti spirituali sui quali esistono diverse opinioni. Inoltre si pensa che ci siano diverse interpretazioni di un testo religioso come la Bibbia, ma il libretto che andrò a presentare mira proprio a chiarire che, in realtà, non è affatto così.
Resumo:
In questa tesi ho inizialmente esposto cenni teorici sulle reazioni di fusione nucleare e le motivazioni che hanno spinto la comunità scientifica verso la ricerca di questa nuova fonte energetica. Ho descritto il progetto ITER nei suoi obiettivi e nei principi di funzionamento di un reattore di tipo Tokamak e di tutti i componenti principali dell'intero impianto. In primo piano, mi sono focalizzato sul sistema di raffreddamento primario ad acqua del Tokamak (TCWS), con una prima panoramica sui suoi sottosistemi descrivendo i loro obiettivi, quali asportazione di calore e sicurezza dell'impianto. Successivamente ho analizzato nello specifico i particolari tecnici dei principali sottosistemi quali i vari circuiti di asportazione primaria del calore (PHTS Loops) dei diversi componenti del Tokamak, il Vacuum Vessel, il First Wall Blanket, il Divertor e il Neutral Beam Injector; ho esaminato i processi di controllo della qualità e del volume del fluido refrigerante nei circuiti (CVCS); ed infine le funzioni e le caratteristiche dei sistemi di drenaggio e di riempimento dei circuiti con i propri serbatoi ordinari e di sicurezza, e del sistema di asciugatura del fluido refrigerante con le sue diverse modalità operative.