1000 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I lantibiotici sono molecole peptidiche prodotte da un gran numero di batteri Gram-positivi, posseggono attività antibatterica contro un ampio spettro di germi, e rappresentano una potenziale soluzione alla crescente problematica dei patogeni multi-resistenti. La loro attività consiste nel legame alla membrana del bersaglio, che viene quindi destabilizzata mediante l’induzione di pori che determinano la morte del patogeno. Tipicamente i lantibiotici sono formati da un “leader-peptide” e da un “core-peptide”. Il primo è necessario per il riconoscimento della molecola da parte di enzimi che effettuano modifiche post-traduzionali del secondo - che sarà la regione con attività battericida una volta scissa dal “leader-peptide”. Le modifiche post-traduzionali anticipate determinano il contenuto di amminoacidi lantionina (Lan) e metil-lantionina (MeLan), caratterizzati dalla presenza di ponti-tioetere che conferiscono maggior resistenza contro le proteasi, e permettono di aggirare la principale limitazione all’uso dei peptidi in ambito terapeutico. La nisina è il lantibiotico più studiato e caratterizzato, prodotto dal batterio L. lactis che è stato utilizzato per oltre venti anni nell’industria alimentare. La nisina è un peptide lungo 34 amminoacidi, che contiene anelli di lantionina e metil-lantionina, introdotti dall’azione degli enzimi nisB e nisC, mentre il taglio del “leader-peptide” è svolto dall’enzima nisP. Questo elaborato affronta l’ingegnerizzazione della sintesi e della modifica di lantibiotici nel batterio E.coli. In particolare si affronta l’implementazione dell’espressione eterologa in E.coli del lantibiotico cinnamicina, prodotto in natura dal batterio Streptomyces cinnamoneus. Questo particolare lantibiotico, lungo diciannove amminoacidi dopo il taglio del leader, subisce modifiche da parte dell’enzima CinM, responsabile dell’introduzione degli aminoacidi Lan e MeLan, dell’enzima CinX responsabile dell’idrossilazione dell’acido aspartico (Asp), e infine dell’enzima cinorf7 deputato all’introduzione del ponte di lisinoalanina (Lal). Una volta confermata l’attività della cinnamicina e di conseguenza quella dell’enzima CinM, si è deciso di tentare la modifica della nisina da parte di CinM. A tal proposito è stato necessario progettare un gene sintetico che codifica nisina con un leader chimerico, formato cioè dalla fusione del leader della cinnamicina e del leader della nisina. Il prodotto finale, dopo il taglio del leader da parte di nisP, è una nisina completamente modificata. Questo risultato ne permette però la modifica utilizzando un solo enzima invece di due, riducendo il carico metabolico sul batterio che la produce, e inoltre apre la strada all’utilizzo di CinM per la modifica di altri lantibiotici seguendo lo stesso approccio, nonché all’introduzione del ponte di lisinoalanina, in quanto l’enzima cinorf7 necessita della presenza di CinM per svolgere la sua funzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo della tesi è fornire nozioni di teoria della misura tramite cui è possibile l'analisi e la descrizione degli insiemi frattali. A tal fine vengono definite la Misura e la Dimensione di Hausdorff, strumenti matematici che permettono di "misurare" tali oggetti particolari, per i quali la classica Misura di Lebesgue non risulta sufficientemente precisa. Viene introdotto, inoltre, il carattere di autosimilarità, comune a molti di questi insiemi, e sono forniti alcuni tra i più noti esempi di frattali, come l'insieme di Cantor, l'insieme di Mandelbrot e il triangolo di Sierpinski. Infine, viene verificata l'ipotesi dell'esistenza di componenti di natura frattale in serie storiche di indici borsistici e di titoli finanziari (Ipotesi dei Mercati Frattali, Peters, 1990).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il grafene è un cristallo bidimensionale composto da uno strato monoatomico planare di atomi di carbonio ibridizzati sp2. In ogni modo, il perfezionamento delle tecniche di produzione e di trasferimento del materiale è a tutt’oggi una attività di ricerca alla frontiera, e in questo contesto si è inserito il mio lavoro di tesi. Svolto nella sede di Bologna dell’Istituto per la Microelettronica ed i Microsistemi del Consiglio Nazionale delle Ricerche (IMM-CNR), ha avuto un duplice obiettivo. Il primo è stato quello di studiare la procedura di trasferimento su un wafer di ossido di silicio (SiO2) del grafene cresciuto per deposizione chimica da fase vapore (chemical vapor deposition) su rame normalmente impiegata in laboratorio. Il secondo è stato invece quello di proporre e verificare possibili modifiche con lo scopo di provare a risolvere uno dei problemi che ci si è trovati ad affrontare, nello specifico l’elevato numero di danni strutturali e di rotture indotti nella membrana trasferita. Dopo un capitolo iniziale di introduzione alla teoria ed alle proprietà fisiche del grafene, nel secondo verranno illustrate le tecniche principali con le quali attualmente si produce il materiale, con un focus particolare sulla chemical vapor deposition, tecnica impiegata all’IMM, e da me seguita per la produzione dei campioni da studiare. Il terzo capitolo tratterà nel dettaglio il processo di trasferimento dal substrato di crescita a quello finale, realizzato attraverso uno strato sacrificale di PMMA. Dopo una descrizione approfondita dei singoli passaggi, verrà mostrato il confronto tra i risultati ottenuti su campioni di grafene traferiti su ossido di silicio, con la tecnica inizialmente adottata e quella modificata. Come verrà discusso, nonostante non tutti problemi siano stati risolti, le modifiche apportante al processo di trasferimento hanno permesso di raggiungere l’obiettivo iniziale, cioè di migliorare in modo apprezzabile la qualità della pellicola dal punto di vista dell’integrità strutturale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi riguarda la didattica della matematica e parla del modo di fare didattica negli istituti secondari di secondo grado attraverso l'analisi di un caso particolare: la didattica dei numeri complessi. La didattica verrà analizzata per prima cosa a livello generale attraverso l'esposizione dei punti principali della riforma Gelmini, e, successivamente, in particolare attraverso l'analisi della didattica dei numeri complessi nei licei scientifici. Di quest'ultima verranno presentati: gli strumenti con cui viene svolta, la modalità con cui vengono presentati i concetti, un nuovo metodo per migliorarla e, infine, il modo in cui i ragazzi la percepiscono. Questi elementi si traducono, rispettivamente, nell'analisi del libro `Matematica a colori', nell'esposizione di una lezione-tipo, nella proposta dell'utilizzo della storia della matematica e infine in un questionario posto agli alunni. Quanto emerso verrà confrontato con le indicazioni nazionali di alcuni stati esteri e il tutto verrà utilizzato per `leggere' i risultati del TIMMS ADVANCED 2008.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro è volto a far conoscere l'opera dello scrittore H. Krausser "Einsamkeit und Sex und Mitleid" e il genere Pulp. Ho voluto approfondire alcune caratteristiche di questo genere perché è ancora poco conosciuto, dato che questa corrente letteraria è nata soltanto negli anni Novanta. Nella prima parte dell'elaborato ho inserito una breve presentazione del genere per spiegare l'origine del termine pulp e descrivere le caratteristiche principali che lo definiscono. In modo particolare mi sono concentrato sulla sua diffusione in Italia attraverso la corrente dei cannibali, indicandone i principali esponenti. Successivamente ho presentato l'autore Helmut Krausser che, attraverso un accurato lavoro letterario, è stato in grado di mettere insieme un mosaico di personaggi sparsi per la metropoli di Berlino. Julia König è una donna ambiziosa ed esigente, Vincent è un gigolò rinomato, Ekki un ex professore ridotto alla miseria, Swentja una giovane ragazza contesa tra due giovani e incapace di badare a sua sorella. Questi sono solo alcuni dei personaggi presenti nell'opera. Questo libro risultava interessante sul piano traduttivo poiché gli spunti da analizzare erano molteplici e, a mio avviso, intriganti. Visto l'ampio numero di personaggi, l'opera di H. Krausser è incentrata sul dialogo. Si tratta di una tipologia testuale che all'apparenza potrebbe sembrare semplice e lineare, ma in realtà può rivelarsi insidiosa per la traduzione. Infatti, non è semplice restituire la stessa spontaneità del testo di partenza e trasmettere in maniera fedele il registro tipico dell'oralità. Ho ritenuto opportuno analizzare questo genere letterario per le peculiarità che lo contraddistinguono dagli altri. Con i suoi toni crudi, violenti e talvolta anche cinici il pulp offre immagini di realtà drammatiche che producono un forte impatto emotivo sul lettore grazie a uno stile diretto, privo dei filtri della moralità e del pudore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gran parte del patrimonio edilizio italiano è costituito da un'edilizia minore realizzata per lo più negli anni successivi al secondo dopoguerra. Una delle più significative esperienze di ricostruzione è rappresentata dai quartieri Ina-Casa, che oltre a rispondere all'elevata richiesta abitativa, hanno contribuito a dare una forma all'espansione disorganizzata delle città e si sono rivelati l'ultima vera occasione per gli architetti di essere protagonisti della storia nazionale. Tuttavia, ad oggi, manca la consapevolezza diffusa del grande valore storico, identitario e patrimoniale di queste porzioni di città e della necessità di un congruo intervento di valorizzazione e riqualificazione. Specialmente nelle piccole realtà, come Cesena, questo ha comportato una forte alterazione dei caratteri originari secondo scelte arbitrarie ed interventi disomogenei. A seguito dell'analisi approfondita della piccola unità di vicinato della Fiorita, si è deciso di adottare un approccio metodologico diversificato tra aspetti urbanistici e relativi al singolo alloggio. Da una parte è stato elaborato un progetto urbanistico che tenesse conto di tutte le specificità del luogo, in particolare della presenza di una popolazione residente molto attiva e determinata nella valorizzazione del proprio quartiere. Dall'altra è stato redatto un manuale di possibili interventi, pensati per rispondere alle attuali esigenze estetiche, prestazionali e funzionali dell'alloggio, corredato da un sistema incentivante a punteggio. Nell'insieme questa esperienza evidenzia le potenzialità di un progetto di rigenerazione urbana che può essere sperimentato anche in altri contesti della città.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’avvento delle tecniche di imaging volumetrico, quali la CT (Computed Tomography) e la MRI (Magnetic Resonance Investigation), ha portato ad un crescente interesse verso applicazioni di guida chirurgica che utilizzano processi di allineamento delle immagini diagnostiche provenienti da diverse modalità e di tecniche che ne permettono la visualizzazione in sala operatoria, in modo da fornire al chirurgo il maggior numero di informazioni cliniche possibili durante un intervento. Il crescente interesse verso questo tipo di applicazioni è dovuto anche allo sviluppo di dispositivi di imaging intra-operatorio quali archi a C-mobili radiologici, PC ad alte prestazioni e convertitori A/D 3D con precisione clinicamente accettabile. Questi ultimi due hanno conseguentemente portato a sviluppare ed implementare software dedicati alla pianificazione di un intervento chirurgico, permettendo quindi di elaborare digitalmente le immagini diagnostiche e ricostruire un modello che rappresenta l’effettiva anatomia del paziente. Questo processo nel suo complesso ha portato allo sviluppo di quelli che oggi vengono chiamati sistemi di navigazione chirurgica, abbreviati talvolta in IGSS (Imaging-Guided Surgery Systems), sistemi ovvero che permettono di utilizzare immagini pre-operatorie come guida durante la pratica chirurgica, caratterizzando quindi nuovi metodi di approccio alla chirurgia, le IGS (Image-Guided Surgery) appunto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro svolto nella zona di Vareš, in particolare nella zona del lago di Veovača ha investigato diverse matrici ambientali (sedimenti, suoli, acque) per valutare le loro caratteristiche e la loro qualità. Nella zona è stata presente in passato attività estrattiva e di lavorazione dei minerali estratti, da qui la necessità di questo studio esplorativo. Il lavoro svolto si divide in tre fasi: campionamento, svolto in quattro giorni passati in campagna; analisi dei campioni raccolti e interpretazione dei risultati. Sono state campionate acque e sedimenti in punti interni al lago, altri in corrispondenza delle sue sponde e punti lungo la diga. Sul materiale solido sono state svolte analisi di spettrometria di fluorescenza a raggi X, mentre sulle acque sono state applicate tecniche di spettrometria di assorbimento atomico (AAS), spettrometria di emissione al plasma induttivamente accoppiato (ICP-AES) e cromatografia ionica oltre che a misure di parametri chimico-fisici in campo. Sono stati poi valutati i risultati, attraverso il confronto con banche dati di riferimento ed elaborazioni statistiche e grafiche. Si tratta di uno studio preliminare effettuato su un piccolo numero di campioni e perciò solo indicativo e non in grado di fornire risposte definitive sulla condizione ambientale dell'area. Tuttavia queste prime informazioni consentono di delineare un quadro nel quale future indagini potranno approfondire aspetti e problemi critici per la qualità ambientale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le materie plastiche sono materiali polimerici che possono contenere altre sostanze finalizzate a migliorarne le proprietà o ridurre i costi (IUPAC). Accanto agli innumerevoli vantaggi apportati dall’utilizzo della plastica, negli anni sono emersi aspetti negativi relativi all’inquinamento ambientale causato dalla dispersione del materiale plastico nei rifiuti urbani e conseguentemente nelle discariche. La diffusione e l’utilizzo della bioplastica si pone come obiettivo minimizzare la dipendenza dal petrolio in previsione della diminuzione del numero di giacimenti e quindi della sua disponibilità. Lo scopo del presente lavoro di sperimentazione è lo studio del processo di dowstream di PHA prodotti in laboratorio partendo dalla verifica dei risultati riportati in letteratura e puntando poi ad un miglioramento di un processo convenzionale attraverso la ricerca di nuove alternative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perchè è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato svolto nell'ambito del gruppo Nucl-ex di Bologna dell'INFN. L'esperimento specifico si inquadra nello studio di collisioni di nuclei con numero di neutroni N uguale al numero di protoni Z (nuclei pari-pari). In particolare si vuol analizzare una reazione centrale, cioè a piccoli parametri d'impatto, nella quale i nuclei del proiettile e del bersaglio fondono assieme formando un sistema unico eccitato (nucleo composto) che successivamente decade. Nel caso della misura descritta sono stati utilizzati un fascio di 16O ed un bersaglio di 12C ed il sistema fuso che si forma è 28Si. Per rivelare le particelle provenienti dal decadimento è stato impiegato l'apparato G.AR.F.I.E.L.D. (General Array for Fragment Identification and Emitted Light particles in Dissipative collisions) accoppiato al rivelatore denominato Ring Counter (RCo). La misura è stata realizzata presso i Laboratori Nazionali dell'INFN di Legnaro (Pd) in collaborazione tra le Università e le sezioni INFN di Bologna, Firenze, Napoli e Padova. Il fascio è stato accelerato mediante l'acceleratore elettrostatico Tandem XTU, mentre il bersaglio era fisso nel sistema di riferimento del laboratorio. La misura di collisione è stata realizzata per tre diverse energie cinetiche del fascio: 90.5 MeV, 110 MeV e 130 MeV. Il lavoro è consistito principalmente nella partecipazione a diverse fasi della misura, tra cui preparazione, presa dati ed alcune calibrazioni energetiche dei rivelatori, fino ad ottenere risultati preliminari sulle distribuzioni di frequenza dei frammenti rivelati, sulle molteplicità e sulle distribuzioni angolari di particelle leggere. L'analisi preliminare effettuata ha mostrato che il valore medio di carica del residuo di evaporazione {Definito come il frammento che rimane nello stato fondamentale alla fine della catena di decadimento.} diminuisce all'aumentare dell'energia a disposizione. In modo consistente aumenta, all'aumentare dell'energia, la molteplicità media delle delle particelle leggere. Le distribuzioni angolari di particelle leggere mostrano andamenti molto simili fra le diverse energie, ma poco compatibili con il fatto che, all'aumentare dell'energia del fascio, diminuisce il cono di emissione di particelle di decadimento, in quanto aumenta la velocità del sistema fuso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le tecniche di imaging al seno per la rilevazione di tumori stanno interessando un notevole numero di gruppi di ricerca in campo biomedico soprattutto negli ultimi anni. In particolare si cercano metodologie innovative in quanto le attuali tecniche già sviluppate e utilizzate in campo clinico, mammografia a raggi X e risonanza magnetica (MRI), presentano alcuni limiti. Questa tesi si focalizzerà in particolare su una di queste tecniche emergenti: l’imaging a microonde (MWI). Questo metodo infatti, limita notevolmente i costi, evita disagi per la paziente come la compressione del seno, penetra in modo ottimale nei tessuti e non li ionizza. La MWI si basa sulle diverse proprietà dielettriche, permittività e conduttività, dei vari tessuti che costituiscono la mammella, in particolare tra tessuto sano e maligno. Lo scopo di questa tesi è quello di analizzare tali proprietà dielettriche, le diversità che i vari tessuti presentano e come tutto ciò venga sfruttato per ottenere l’imaging della mammella. In particolare questo lavoro si propone di riportare e analizzare i principali studi sui tessuti biologici della mammella compiuti nel corso degli anni riguardo queste proprietà dielettriche e i rispettivi risultati ottenuti. Si tratteranno inoltre i mezzi di accoppiamento: soluzioni in cui è immerso l’assetto antenne-oggetto che minimizzano la riflessione del segnale sulla pelle e assicurano una migliore qualità di immagine.