204 resultados para trattare, tumori, calore
Resumo:
Negli ultimi anni, la popolazione è stata esposta a vari tipi di campi elettromagnetici generati da strumentazioni elettroniche e dispositivi di telecomunicazione. In questa tesi, si valutano SAR ed effetti termici prodotti da tre antenne patch a radiofrequenza sia su Cheratinociti (cellule dell'epidermide) in vitro che sull'epidermide umana in vivo caratterizzata in un modello multistrato contenente tessuti biologici. Le antenne progettate hanno frequenze di risonanza di 1.8 e 2.4 GHz, tipiche delle bande utilizzate rispettivamente da LTE (Long Term Evolution, la più recente evoluzione degli standard di telefonia mobile cellulare) e dalle moderne tecnologie Wi-Fi, e di 60 GHz, propria delle cosiddette onde millimetriche. Vengono valutati quindi il SAR (Specific Absorption Rate, grandezza che fornisce una misura dell'assorbimento delle onde da parte dei tessuti biologici) e le variazioni di temperatura prodotte dall'applicazione del campo elettromagnetico: ciò viene realizzato attraverso l'equazione del calore stazionaria e, nel caso dell'epidermide in vivo, con la Bioheat Equation, che contempla anche la circolazione sanguigna ed il calore generato nei processi metabolici che avvengono nell'organismo.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
Il calore contenuto in profondità negli ammassi rocciosi può essere estratto attraverso un sistema geotermico che prevede l’inserimento di tubazioni in corrispondenza del rivestimento del tunnel, all'interno del quale circola un fluido termovettore che assorbe calore dalle pareti circostanti. Il caso di studio analizzato è la Galleria di Mules, un tunnel scavato in metodo tradizionale all'interno del Granito di Bressanone, che funge come unica finestra di accesso sul lato italiano alla Galleria di Base del Brennero (BBT). Essa si sviluppa in direzione ovest-est per una lunghezza pari circa a 1780 m. In fase di esercizio. Attraverso una caratterizzazione geologica e idrogeologica dell’area di interesse, prove di laboratorio su campioni e rilevazioni delle temperature all’interno della galleria, è stato possibile delineare un quadro geotermico dell’area di interesse. I dati raccolti hanno permesso di ricavare un modello 3D delle temperature dell’area e, attraverso un’apposita procedura di calcolo, quantificare il potenziale energetico estraibile dal tratto di galleria considerato. Sulla base dei risultati ottenuti, è stato realizzato uno schema dettagliato della disposizione del circuito sorgente, adattato sul progetto definitivo del rivestimento interno alla Galleria di Mules. In assenza di potenziali utenze termiche nelle vicinanze del portale di accesso, si è ipotizzato di destinare la risorsa geotermica ad una pavimentazione stradale dotata di sistema snow and ice melting. La pavimentazione permetterà il collegamento fra la strada SS12 e l’imbocco del tunnel. E’ stata effettuata una stima dei costi di investimento dell’intero sistema a pompa di calore e, sulla base del fabbisogno energetico dell’utenza considerata, sono stati valutati i costi di esercizio, confrontandoli con altre possibili soluzioni. Lo studio ha dimostrato la fattibilità tecnico-economica di soluzioni di questo tipo e si pone come primo passo per approfondimenti futuri.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
La presente attività di tesi è stata svolta presso la Divisione di Sicurezza Nucleare dell’ENEA di Bologna ed è stata finalizzata ad analizzare, mediante il codice MELCOR 2.1, le conseguenze di tre incidenti severi non mitigati di tipo LBLOCA in un generico reattore nucleare ad acqua leggera pressurizzata (PWR) da 900 MWe. In particolare sono stati confrontati gli scenari incidentali relativi a tre distinti eventi iniziatori nel circuito di refrigerazione primario: la rottura a ghigliottina della gamba fredda (CL) del loop 1, della gamba calda (HL) del loop 1 e della surge line di connessione con il pressurizzatore. Le analisi MELCOR hanno indagato la progressione incidentale in-vessel, con particolare riferimento alle fenomenologie termoidrauliche e di degradazione del core. MELCOR infatti è un codice integrato che simula le principali fenomenologie riguardanti sequenze incidentali di tipo severo in reattori ad acqua leggera. Durante la prima fase dei tre transitori incidentali risultano predominanti fenomenologie di carattere termoidraulico. In particolare MELCOR predice la rapida depressurizzazione e il conseguente svuotamento del sistema di refrigerazione primario. I tre transitori sono poi caratterizzati dallo scoprimento completo del core a causa dell’indisponibilità del sistema di refrigerazione di emergenza. Il conseguente riscaldamento del core per il calore di decadimento e per ossidazione delle strutture metalliche conduce inevitabilmente alla sua degradazione e quindi al fallimento della lower head del recipiente in pressione del reattore nei tre scenari incidentali in tempi diversi. Durante la prima fase incidentale, di carattere prevalentemente termoidraulico, sono state rilevate le principali differenze fenomenologiche causate dalle differenti posizioni e dimensioni delle rotture. Il transitorio causato dalla rottura della CL si è confermato come il più gravoso, con fallimento anticipato della lower head rispetto agli altri due transitori considerati.
Resumo:
Nella tesi sono descritte, a valle di una breve disamina normativa, le modalità di contabilizzazione del calore, con particolare riferimento alle tipologie di strumenti ed agli errori di misura ad essi correlati. Viene inoltre analizzata nel dettaglio la normativa tecnica UNI 10200, relativa ai criteri di ripartizione delle spese di climatizzazione invernale ed acqua calda sanitaria negli impianti termici centralizzati. Con la presentazione di un caso di studio viene affrontata l'applicazione della stessa.
Resumo:
Il presente elaborato è incentrato sulla modellizzazione del plasma di bordo nei dispositivi per la produzione di energia da fusione nucleare noti come tokamak. La tecnologia che nel corso di tutta la seconda metà del XX secolo fino ad oggi è stata sviluppata a questo fine deve necessariamente scontrarsi con alcuni limiti. Nei tokamak il confinamento del plasma è di tipo magnetico e vincola le particelle a muoversi di moto elicoidale all'interno del vessel, tuttavia il confinamento non risulta perfetto e parte dell'energia si scarica sulle pareti della camera, rischiando pertanto di fondere i materiali. Alcune strategie possono essere messe in atto per limitare questo problema, per esempio agendo sulla geometria del tokamak, oppure sulla fisica, inducendo nel plasma una data concentrazione di impurezze che ionizzino irraggiando parte dell'energia di plasma. Proprio tale meccanismo di perdita è stato simulato in un modello monodimensionale di plasma monofluido di bordo. I risultati del codice numerico relativo al modello dimostrano che per concentrazioni di impurezze crescenti è possibile diminuire in modo significativo flusso di calore e temperatura al divertore. Per di più risulta possibile controllare la posizione del fronte di irraggiamento per mezzo di parametri di controllo del plasma quali la pressione. Si osserva inoltre l'insorgere del cosiddetto fenomeno di biforcazione alle basse temperature di divertore, fenomeno in cui il plasma si comporta in modo instabile a causa di fenomeni fisici tipici delle basse energie ("detachment") e a seguito del quale può improvvisamente spegnersi (disruzione). Infine lo stesso modello è stato migliorato inserendo l'ipotesi di plasma bifluido. Anche per gli ioni viene osservato il fenomeno di biforcazione. I risultati numerici evidenziano le dinamiche dello scambio energetico fra le specie gettando le basi di una progettazione efficiente della chimica del plasma finalizzata al raffreddamento del divertore.
Resumo:
Lo scopo di questo elaborato è quello di proporre una traduzione parziale dall’inglese di un libretto teologico evangelico dell’autore Peter Masters, dal titolo How To Seek And Find The Lord. È un libretto molto conosciuto tra i cristiani evangelici di cui esistono già traduzioni in spagnolo, francese, portoghese e polacco; il mio obiettivo è proporne una in italiano. La scelta di questa tipologia testuale per il mio elaborato finale deriva dalla fede che professo, come si poteva immaginare. Essendo io di fede cristiana evangelica ho scelto di affrontare un tema con il quale sono costantemente a contatto, di cui mi interesso e che conosco a fondo, nonostante sia un argomento ostico. I testi teologici sono infatti delicati da trattare e hanno contenuti spirituali sui quali esistono diverse opinioni. Inoltre si pensa che ci siano diverse interpretazioni di un testo religioso come la Bibbia, ma il libretto che andrò a presentare mira proprio a chiarire che, in realtà, non è affatto così.
Resumo:
In questa tesi ho inizialmente esposto cenni teorici sulle reazioni di fusione nucleare e le motivazioni che hanno spinto la comunità scientifica verso la ricerca di questa nuova fonte energetica. Ho descritto il progetto ITER nei suoi obiettivi e nei principi di funzionamento di un reattore di tipo Tokamak e di tutti i componenti principali dell'intero impianto. In primo piano, mi sono focalizzato sul sistema di raffreddamento primario ad acqua del Tokamak (TCWS), con una prima panoramica sui suoi sottosistemi descrivendo i loro obiettivi, quali asportazione di calore e sicurezza dell'impianto. Successivamente ho analizzato nello specifico i particolari tecnici dei principali sottosistemi quali i vari circuiti di asportazione primaria del calore (PHTS Loops) dei diversi componenti del Tokamak, il Vacuum Vessel, il First Wall Blanket, il Divertor e il Neutral Beam Injector; ho esaminato i processi di controllo della qualità e del volume del fluido refrigerante nei circuiti (CVCS); ed infine le funzioni e le caratteristiche dei sistemi di drenaggio e di riempimento dei circuiti con i propri serbatoi ordinari e di sicurezza, e del sistema di asciugatura del fluido refrigerante con le sue diverse modalità operative.
Resumo:
Lo scopo di questo studio è la comprensione della dinamica dello strato limite urbano per città dell’Emilia Romagna tramite simulazioni numeriche. In particolare, l’attenzione è posta sull’ effetto isola di calore, ovvero sulla differenza di temperatura dell’aria in prossimità del suolo fra zone rurali e urbane dovuta all’urbanizzazione. Le simulazioni sono state effettuate con il modello alla mesoscala "Weather Research and Forecasting" (WRF), accoppiato con le parametrizzazioni urbane "Building Effect Parametrization" (BEP) e "Building Energy Model" (BEM), che agiscono a vari livelli verticali urbani. Il periodo di studio riguarda sei giorni caldi e senza copertura nuvolosa durante un periodo di heat wave dell’anno 2015. La copertura urbana è stata definita con il "World Urban Databes and Access Portal Tools" (WUDAPT), un metodo che permette di classificare le aree urbane in dieci "urban climate zones" (UCZ), attraverso l’uso combinato di immagini satellitari e "training areas" manualmente definite con il software Google Earth. Sono state svolte diverse simulazioni a domini innestati, con risoluzione per il dominio più piccolo di 500 m, centrato sulla città di Bologna. Le differenze fra le simulazioni riguardano la presenza o l’assenza delle strutture urbane, il metodo di innesto e tipo di vegetazione rurale. Inoltre, è stato valutato l’effetto dovuto alla presenza di pannelli fotovoltaici sopra i tetti di ogni edificio e le variazioni che i pannelli esercitano sullo strato limite urbano. Per verificare la bontà del modello, i dati provenienti dalle simulazioni sono stati confrontati con misure provenienti da 41 stazioni all’interno dell’area di studio. Le variabili confrontate sono: temperatura, umidità relativa, velocità e direzione del vento. Le simulazioni sono in accordo con i dati osservativi e riescono a riprodurre l’effetto isola di calore: la differenza di temperatura fra città e zone rurali circostanti è nulla durante il giorno; al contrario, durante la notte l’isola di calore è presente, e in media raggiunge il massimo valore di 4°C alle 1:00. La presenza dei pannelli fotovoltaici abbassa la temperatura a 2 metri dell’aria al massimo di 0.8°C durante la notte, e l’altezza dello strato limite urbano dell’ordine 200mrispetto al caso senza pannelli. I risultati mostrano come l’uso di pannelli fotovoltaici all’interno del contesto urbano ha molteplici benefici: infatti, i pannelli fotovoltaici riescono a ridurre la temperatura durante un periodo di heat wave, e allo stesso tempo possono parzialmente sopperire all’alto consumo energetico, con una conseguente riduzione del consumo di combustibili fossili.
Resumo:
La prospettiva della teranostica è quella di effettuare contemporaneamente diagnosi e cura, individuando le singole particelle tumorali. Questo è possibile grazie a nanoparticelle magnetiche, entità multifunzionali rivestite da un polimero, accompagnate nel luogo di interesse mediante un campo magnetico esterno. Per quanto riguarda la diagnosi possono essere utilizzate come agenti nella risonanza magnetica nucleare per aumentare il contrasto dell’immagine e consentire una migliore rivelazione del tumore. Per quanto riguarda la terapia esse sono utilizzate per l’ipertermia magnetica, tecnica basata sul riscaldamento mediante l’applicazione di un debole campo magnetico alternato dotato di un’opportuna frequenza. In questo modo le cellule tumorali, essendo più sensibili al calore rispetto a quelle sane, vengono distrutte, una volta raggiunta una temperatura locale tra i 41 e i 46°C. Un’altra grande applicazione terapeutica è il rilascio controllato e mirato dei farmaci (drug target delivery). Infatti un opportuno rivestimento polimerico consente di coniugare alla particella dei medicinali chemioterapici che, una volta raggiunta la zona tumorale, possono essere rilasciati nel tempo, permettendo dunque la somministrazione di una minor dose e un’azione più mirata rispetto ai classici trattamenti. I materiali maggiormente utilizzati per la sintesi delle nanoparticelle sono gli ossidi di ferro (come la magnetite Fe3O4 e la maghemite γ − Fe2O3) e l’oro. Tuttavia, nonostante i possibili vantaggi, questi trattamenti presentano degli effetti collaterali. Trattandosi infatti di particelle ultrafini, dell’ordine dei nanometri, possono migrare all’interno del corpo umano raggiungendo organi bersaglio e comprometterne il loro funzionamento. La teranostica, però, è una disciplina molto studiata e in via di sviluppo; si spera che da qui a breve sia possibile un utilizzo concreto di questi nuovi metodi, riducendo al minimo la tossicità per il corpo umano.
Resumo:
Perché uno studente, con quoziente intellettivo nella media, che ha buoni voti in tutte le materie, colleziona insuccessi in matematica? Si può trattare di difficoltà di apprendimento passeggere su un dato argomento, può essere un atteggiamento negativo nei confronti della materia o può trattarsi di discalculia. L'insegnante di matematica deve essere preparato ad individuare le possibili cause dell'insuccesso scolastico degli studenti e ad attuare le strategie didattiche che migliorino il più possibile il suo percorso scolastico. Nel mio elaborato ho riportato una sintesi delle leggi che hanno condotto la scuola italiana ad orientarsi in una prospettiva sempre più inclusiva. In particolare ho riportato la legge 170 del 2010, la prima che definisce i disturbi dell'apprendimento, e la direttiva Bes del 2012, che amplia ancora di più l'area delle problematiche scolastiche. Partendo da una distinzione tra disturbo e difficoltà nell'apprendimento, ho trattato poi in particolare la discalculia, dal punto di vista didattico e riportando le sue definizioni nel corso del tempo. Tra le difficoltà ho citato invece la Matofobia o Math Anxiety. Una paura della matematica ereditata, un'eredità trasmessa però attraverso l'ambiente in cui si cresce e non dai geni. Infine ipotizzando delle lezioni in una classe di seconda superiore in cui sono presenti studenti con discalculia, ho realizzato un'unità didattica dal titolo "Le rette nel piano cartesiano". Per la sua realizzazione ho pensato all'utilizzo del software geogebra e del lavoro in gruppi, per promuovere l'apprendimento attraverso la scoperta e il ragionamento logico, piuttosto che la memorizzazione di formule e la loro mera applicazione. Ho concluso il mio elaborato riportando delle riflessioni su come i docenti si attivano in presenza di uno studente con certificazione di dsa e sul rapporto tra scuola e famiglie, riflessioni tratte da alcune interviste fatte ai referenti per i dsa in diverse scuole della Romagna.
Resumo:
L'elaborato si inserisce in un progetto sviluppato presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) di Meldola che riguarda la valutazione di parametri cardiologici che possano risultare indici predittivi di uno scompenso cardiaco in pazienti affetti da linfoma. Tutti i soggetti considerati nel progetto sono stati sottoposti a trattamenti chemioterapici facenti uso di antracicline e la cui funzionalità cardiaca è stata controllata periodicamente tramite ecografia bidimensionale e volumetrica, utilizzando il sistema VividE9 della GE Healthcare. L'obiettivo dell'analisi è quello di ricercare se oltre alla frazione di eiezione esistono parametri più predittivi di una eventuale cardiotossicità come gli strain, calcolati attraverso l'ausilio della tecnica ecografica.
Resumo:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Resumo:
In questo elaborato viene analizzata l’importanza di isolare termicamente in modo corretto le nostre abitazioni, per poterne trarre un vantaggio sia salutare che economico. E’ stata presa in esame la palazzina di Via Maria Zanotti situata nel comune di Imola (Bo). Si sono dapprima valutate le prestazioni energetiche dell’edificio, andando a calcolare la trasmittanza delle pareti e dei solai dell'edificio, che sono risultate inferiori rispetto a quelle prescritte oggi giorno nel Bollettino Ufficiale della Regione Emilia Romagna (BURERT) n.184 parte seconda. Affinché i valori della trasmittanza risultassero coerenti con quanto imposto dalla normativa si è avanzata l'ipotesi di andare ad inserire il sistema a cappotto. Si sono quindi analizzati diversi materiali isolanti fino a giungere alla scelta di quello più idoneo per la seguente struttura. Una volta scelto il materiale isolante è stata calcolata la trasmittanza delle pareti complessive dell'isolamento a cappotto, le quali sono risultate verificate nei confronti della normativa vigente. Si sono poi studiate le fasi necessarie per il montaggio del sistema a cappotto ed infine si è posta particolare attenzione ai dettagli costruttivi, evidenziando tutti i punti critici dell'edificio e le soluzioni di dettaglio necessarie per eliminare i ponti termici.