999 resultados para indirizzo :: 992 :: Curriculum C: Sistemi e reti
Resumo:
Il tumore al seno è il più comune tra le donne nel mondo. La radioterapia è comunemente usata dopo la chirurgia per distruggere eventuali cellule maligne rimaste nel volume del seno. Nei trattamenti di radioterapia bisogna cercare di irradiare il volume da curare limitando contemporaneamente la tossicità nei tessuti sani. In clinica i parametri che definiscono il piano di trattamento radioterapeutico sono selezionati manualmente utilizzando un software di simulazione per trattamenti. Questo processo, detto di trial and error, in cui i differenti parametri vengono modificati e il trattamento viene simulato nuovamente e valutato, può richiedere molte iterazioni rendendolo dispendioso in termini di tempo. Lo studio presentato in questa tesi si concentra sulla generazione automatica di piani di trattamento per irradiare l'intero volume del seno utilizzando due fasci approssimativamente opposti e tangenti al paziente. In particolare ci siamo concentrati sulla selezione delle direzioni dei fasci e la posizione dell'isocentro. A questo scopo, è stato investigata l'efficacia di un approccio combinatorio, nel quale sono stati generati un elevato numero di possibili piani di trattamento utilizzando differenti combinazioni delle direzioni dei due fasci. L'intensità del profilo dei fasci viene ottimizzata automaticamente da un algoritmo, chiamato iCycle, sviluppato nel ospedale Erasmus MC di Rotterdam. Inizialmente tra tutti i possibili piani di trattamento generati solo un sottogruppo viene selezionato, avente buone caratteristiche per quel che riguarda l'irraggiamento del volume del seno malato. Dopo di che i piani che mostrano caratteristiche ottimali per la salvaguardia degli organi a rischio (cuore, polmoni e seno controlaterale) vengono considerati. Questi piani di trattamento sono matematicamente equivalenti quindi per selezionare tra questi il piano migliore è stata utilizzata una somma pesata dove i pesi sono stati regolati per ottenere in media piani che abbiano caratteristiche simili ai piani di trattamento approvati in clinica. Questo metodo in confronto al processo manuale oltre a ridurre considerevol-mente il tempo di generazione di un piano di trattamento garantisce anche i piani selezionati abbiano caratteristiche ottimali nel preservare gli organi a rischio. Inizialmente è stato utilizzato l'isocentro scelto in clinica dal tecnico. Nella parte finale dello studio l'importanza dell'isocentro è stata valutata; ne è risultato che almeno per un sottogruppo di pazienti la posizione dell'isocentro può dare un importante contributo alla qualità del piano di trattamento e quindi potrebbe essere un ulteriore parametro da ottimizzare.
Resumo:
Scopo principale della tesi è quello di presentare alcuni aspetti quantistici di un siste- ma fisico intermedio fra la buca infinita di potenziale e l’oscillatore armonico: una buca di potenziale con le pareti elastiche. Per questo tipo di potenziale si determinano le autofunzioni dell’energia attraverso l’u- tilizzo di equazioni differenziali di Kummer, Whittaker o Weber. Si determina inoltre lo spettro energetico di tale sistema sotto forma di un’equazione trascendente, e ne si analizza il comportamento sotto determinati limiti, dapprima in approssimazione zero e successivamente in prima approssimazione. Segue una breve trattazione sul propagatore quantistico e sulla sua forma in approssi- mazione semiclassica fornita dalla formula di Pauli - van Vleck - Morette, completa di alcuni esempi di calcolo esplicito relativo a semplici potenziali che presentano analogie con il potenziale in oggetto, e di confronti fra le forme esatte di tali propagatori e le loro approssimazioni semiclassiche. È calcolato infine anche il propagatore quantistico per la buca di potenziale con pareti elastiche, nella sua forma semiclassica
Resumo:
The cosmological constant Λ seems to be a not satisfactory explanation of the late-time accelerated expansion of the Universe, for which a number of experimental evidences exist; therefore, it has become necessary in the last years to consider alternative models of dark energy, meant as cause of the accelerated expansion. In the study of dark energy models, it is important to understand which quantities can be determined starting from observational data, without assuming any hypothesis on the cosmological model; such quantities have been determined in Amendola, Kunz et al., 2012. In the same paper it has been further shown that it is possible to estabilish a relation between the model-independent parameters and the anisotropic stress η, which can be also expressed as a combination of the functions appearing in the most general Lagrangian for the scalar-tensor theories, the Horndeski Lagrangian. In the present thesis, the Fisher matrix formalism is used to perform a forecast on the constraints that will be possible to make on the anisotropic stress η in the future, starting from the estimated uncertainties for the galaxy clustering and weak lensing measurements which will be performed by the European Space Agency Euclid mission, to be launched in 2020. Further, constraints coming from supernovae-Ia observations are considered. The forecast is performed for two cases in which (a) η is considered as depending from redshift only and (b) η is constant and equal to one, as in the ΛCDM model.
Resumo:
In questa tesi presentiamo una descrizione autoconsistente della dualità Colore/Cinematica nelle teorie di gauge e al processo di Double Copy. Particolare attenzione viene data all'approccio alla dualità con il formalismo di cono-luce, in quanto semplifica notevolmente sia il calcolo sia l'interpretazione fisica: vengono indagati i settori duale e self-duale per poi passare al modello di Chalmers e Siegel per l'estensione alla teoria generale. Proponiamo quindi uno Scalar Matrix Model, che può essere un buon modello per generare ampiezze ottenibili da una Double Copy `inversa', e ne studiamo un'eventuale dualità a la Colore/Cinematica. Vengono illustrati alcuni casi particolari di rottura spontanea di simmetria. In appendice riportiamo un notebook di Mathematica per il calcolo di ampiezze tree level di puro gauge, utile per i calcoli necessari allo studio della dualità.
Resumo:
Il lavoro è dedicato all'analisi fisica e alla modellizzazione dello strato limite atmosferico in condizioni stabili. L'obiettivo principale è quello di migliorare i modelli di parametrizzazione della turbulenza attualmente utilizzati dai modelli meteorologici a grande scala. Questi modelli di parametrizzazione della turbolenza consistono nell' esprimere gli stress di Reynolds come funzioni dei campi medi (componenti orizzontali della velocità e temperatura potenziale) usando delle chiusure. La maggior parte delle chiusure sono state sviluppate per i casi quasi-neutrali, e la difficoltà è trattare l'effetto della stabilità in modo rigoroso. Studieremo in dettaglio due differenti modelli di chiusura della turbolenza per lo strato limite stabile basati su assunzioni diverse: uno schema TKE-l (Mellor-Yamada,1982), che è usato nel modello di previsione BOLAM (Bologna Limited Area Model), e uno schema sviluppato recentemente da Mauritsen et al. (2007). Le assunzioni delle chiusure dei due schemi sono analizzate con dati sperimentali provenienti dalla torre di Cabauw in Olanda e dal sito CIBA in Spagna. Questi schemi di parametrizzazione della turbolenza sono quindi inseriti all'interno di un modello colonnare dello strato limite atmosferico, per testare le loro predizioni senza influenze esterne. Il confronto tra i differenti schemi è effettuato su un caso ben documentato in letteratura, il "GABLS1". Per confermare la validità delle predizioni, un dataset tridimensionale è creato simulando lo stesso caso GABLS1 con una Large Eddy Simulation. ARPS (Advanced Regional Prediction System) è stato usato per questo scopo. La stratificazione stabile vincola il passo di griglia, poichè la LES deve essere ad una risoluzione abbastanza elevata affinchè le tipiche scale verticali di moto siano correttamente risolte. Il confronto di questo dataset tridimensionale con le predizioni degli schemi turbolenti permettono di proporre un insieme di nuove chiusure atte a migliorare il modello di turbolenza di BOLAM. Il lavoro è stato compiuto all' ISAC-CNR di Bologna e al LEGI di Grenoble.
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.
Resumo:
Una 3-varietà si dice virtualmente fibrata se ammette un rivestimento finito che è un fibrato con base una circonferenza e fibra una superficie. In seguito al lavoro di geometrizzazione di Thurston e Perelman, la generica 3-varietà risulta essere iperbolica; un recente risultato di Agol afferma che una tale varietà è sempre virtualmente fibrata. L’ingrediente principale della prova consiste nell’introduzione, dovuta a Wise, dei complessi cubici nello studio delle 3-varietà iperboliche. Questa tesi si concentra sulle proprietà algebriche e geometriche di queste strutture combinatorie e sul ruolo che esse hanno giocato nella dimostrazione del Teorema di Fibrazione Virtuale.
Resumo:
Questo lavoro si presenta come un’indagine pluridisciplinare fra metrica,linguistica,letteratura e didattica, in cui la rima n’è l’oggetto e il filo conduttore. Attraverso questa ricerca si tenta di mostrare la capacità della rima di costituire un ponte fra espressione e contenuto, di allargare così il bagaglio non solo linguistico del fruitore, ma anche quello conoscitivo. Partendo dall’ambito linguistico e metrico, si analizza in prima istanza, l’apporto pratico che la rima ha avuto nell’evoluzione delle lingue volgari indoeuropee, per poi diventare il mezzo più semplice e istintivo per strutturare il verso poetico. Si passa così da un contesto folklorico ad uno colto, percorrendo tutti i secoli della nostra storia letteraria. Nella seconda parte la materia metrica cede il posto a quella didattico – pedagogica, e il passaggio è facilitato dalla poesia novecentesca che rimette in discussione il ruolo della rima, e la vede come il mezzo perfetto d’associazione fra parole, non solo di suono, ma anche di senso. A questo risponde la teoria del “binomio fantastico” di cui si avvale Gianni Rodari per creare le sue filastrocche, ed educare divertendo i suoi alunni. La rima con la sua omofonia finale, col suo accostamento casuale, concentra l’attenzione del bambino su di se e lo fa entrare a contatto col mondo delle parole, con la potenza della lingua.
Resumo:
In computer systems, specifically in multithread, parallel and distributed systems, a deadlock is both a very subtle problem - because difficult to pre- vent during the system coding - and a very dangerous one: a deadlocked system is easily completely stuck, with consequences ranging from simple annoyances to life-threatening circumstances, being also in between the not negligible scenario of economical losses. Then, how to avoid this problem? A lot of possible solutions has been studied, proposed and implemented. In this thesis we focus on detection of deadlocks with a static program analysis technique, i.e. an analysis per- formed without actually executing the program. To begin, we briefly present the static Deadlock Analysis Model devel- oped for coreABS−− in chapter 1, then we proceed by detailing the Class- based coreABS−− language in chapter 2. Then, in Chapter 3 we lay the foundation for further discussions by ana- lyzing the differences between coreABS−− and ASP, an untyped Object-based calculi, so as to show how it can be possible to extend the Deadlock Analysis to Object-based languages in general. In this regard, we explicit some hypotheses in chapter 4 first by present- ing a possible, unproven type system for ASP, modeled after the Deadlock Analysis Model developed for coreABS−−. Then, we conclude our discussion by presenting a simpler hypothesis, which may allow to circumvent the difficulties that arises from the definition of the ”ad-hoc” type system discussed in the aforegoing chapter.