991 resultados para indirizzo :: 789 :: Curriculum C: Fisica della materia


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il vento di barriera (VB) è un fenomeno meteorologico a mesoscala che interessa il flusso nei bassi strati atmosferici ed è dovuto all'interazione con l'orografia. Se il numero di Froude upstream è sufficientemente piccolo si genera una deviazione orizzontale del flusso incidente. Si può raggiungere uno stato quasi-stazionario, nel quale un intenso vento soffia parallelo all'orografia nei bassi strati. Nel presente lavoro si è innanzitutto sviluppata una climatologia degli eventi di VB nella regione italiana su un periodo biennale. Gli eventi sono stati classificati per la velocità del flusso incidente e la velocità e direzione del VB a 950 hPa, e per il numero di Froude upstream. Si è poi studiata la distribuzione degli eventi rispetto al numero di Froude. La climatologia è risultata in buon accordo con la teoria idealizzata dei flussi sopra l'orografia. Tre casi di studio sono stati successivamente simulati utilizzando i modelli BOLAM e MOLOCH dell'istituto CNR-ISAC di Bologna. Per ciascun evento sono stati calcolati il numero di Froude upstream e i parametri principali, quali velocità, estensione, temperatura ecc. Per uno dei casi, riguardante le Alpi orientali, le simulazioni sono state confrontate con dati osservati di vento, pressione, temperatura e precipitazione. Sono poi stati condotti dei sensitivity tests con orografia diminuita su ognuno degli eventi. È stata così verificata l'importanza dell'effetto orografico e l'intensità del fenomeno del VB è stata associata al numero di Froude. Un indice, denominato Barrier Wind Index (BWI) è stato ideato a tale scopo. Le simulazioni hanno mostrato un buon accordo con la teoria, indicandone i limiti di applicabilità all'atmosfera reale. In particolare, il Barrier Wind Index tende ad aumentare linearmente al diminuire del numero di Froude. Le simulazioni hanno evidenziato l'elevata influenza del VB sulla circolazione atmosferica a mesoscala, sulla distribuzione e intensità della precipitazione e sull'avvezione di temperatura e umidità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The LHCb experiment at the LHC, by exploiting the high production cross section for $c\overline{c}$ quark pairs, offers the possibility to investigate $\mathcal{CP}$ violation in the charm sector with a very high precision.\\ In this thesis a measurement of time-integrated \(\mathcal{CP}\) violation using $D^0\rightarrow~K^+K^-$ and $D^0\rightarrow \pi^+\pi^-$ decays at LHCb is presented. The measured quantity is the difference ($\Delta$) of \(\mathcal{CP}\) asymmetry ($\mathcal{A}_{\mathcal{CP}}$) between the decay rates of $D^0$ and $\overline{D}^0$ mesons into $K^+K^–$ and $\pi^+\pi^-$ pairs.\\ The analysis is performed on 2011 data, collected at \(\sqrt{s}=7\) TeV and corresponding to an integrated luminosity of 1 fb\(^{-1}\), and 2012 data, collected at \(\sqrt{s}=8\) TeV and corresponding to an integrated luminosity of 2 fb\(^{-1}\).\\ A complete study of systematic uncertainties is beyond the aim of this thesis. However the most important systematic of the previous analysis has been studied. We find that this systematic uncertainty was due to a statistical fluctuation and then we demonstrate that it is no longer necessary to take into account.\\ By combining the 2011 and 2012 results, the final statistical precision is 0.08\%. When this analysis will be completed and published, this will be the most precise single measurement in the search for $\mathcal{CP}$ violation in the charm sector.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo stretch film è una diffusa applicazione per imballaggio dei film in polietilene (PE), utilizzato per proteggere diversi prodotti di vari dimensioni e pesi. Una caratteristica fondamentale del film è la sua proprietà adesiva in virtù della quale il film può essere facilmente chiuso su se stesso. Tipicamente vengono scelti gradi lineari a bassa densità (LLDPE) con valori relativamente bassi di densità a causa delle loro buone prestazioni. Il mercato basa la scelta del materiale adesivo per tentativi piuttosto che in base alla conoscenza delle caratteristiche strutturali ottimali per l’applicazione. Come per i pressure sensitive adhesives, le proprietà adesive di film stretch in PE possono essere misurati mediante "peel testing". Esistono molti metodi standard internazionali ma i risultati di tali prove sono fortemente dipendenti dalla geometria di prova, sulla possibile deformazione plastica che si verificano nel peel arm(s), e la velocità e temperatura. Lo scopo del presente lavoro è quello di misurare l'energia di adesione Gc di film stretch di PE, su se stessi e su substrati diversi, sfruttando l'interpretazione della meccanica della frattura per tener conto dell'elevata flessibilità e deformabilità di tali film. Quindi, la dipendenza velocità/temperatura di Gc sarà studiata con riferimento diretto al comportamento viscoelastico lineare dei materiali utilizzati negli strati adesivi, per esplorare le relazioni struttura-proprietà che possono mettere in luce i meccanismi molecolari coinvolti nei processi di adesione e distacco. Nella presente caso, l’adesivo non è direttamente disponibile come materiale separato che può essere messo tra due superfici di prova e misurato per la determinazione delle sue proprietà. Il presupposto principale è che una parte, o fase, della complessa struttura semi-cristallina del PE possa funzionare come adesivo, e un importante risultato di questo studio può essere una migliore identificazione e caratterizzazione di questo "fase adesiva".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ruolo della fisica della matrice extracellulare nello sviluppo del tumore

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi descrive una sperimentazione condotta su quattro classi di scuola secondaria di secondo grado: la motivazione degli alunni è analizzata con riferimento a un laboratorio di Teoria dei Giochi. Nel primo capitolo è data la definizione di motivazione in matematica in relazione alle diverse teorie esistenti, elaborate da psicologi e ricercatori in Didattica della matematica; nel secondo capitolo si tratta di Teoria dei Giochi e si analizzano dal punto di vista matematico alcuni argomenti cui si fa riferimento nel laboratorio; nel terzo capitolo è descritta la sperimentazione e nel quarto le relative conclusioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella presente tesi sono riassunte le diverse posizioni epistemologiche riguardo alla relazione tra didattica e storia della matematica, insieme alle possibili funzioni di quest'ultima nell'attività scolastica. In particolare ci si è soffermati sull'opportunità di introdurre gli studenti ad un rapporto diretto con le fonti storiche. A tale scopo è stata condotta una sperimentazione in una classe di seconda Liceo, a cui sono stati proposti tre brani di diversi autori e secoli da esaminare in gruppo. Sono stati dettagliatamente descritti e successivamente analizzati i comportamenti messi in atto dagli studenti alla lettura delle fonti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si concentra sul numero zero e ne studia e analizza le situazioni di difficoltà per gli studenti nel caso della divisione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto dell'elaborato riguarda l’insegnamento attuale dell’analisi matematica nella scuola secondaria superiore. Si sono esaminate le difficoltà incontrate dagli studenti ed elaborate riflessioni di carattere didattico per operare un insegnamento efficace. Nel primo capitolo sono state messe a punto alcune riflessioni sui fini dell’educazione. Il secondo capitolo si è concentrato sulle difficoltà legate all'insegnamento dell’analisi matematica, esaminando diverse situazioni didattiche verificatesi nel corso del tirocinio svolto nei mesi di Ottobre e Novembre 2013 presso l'Istituto Tecnico Tecnologico di Cesena. Il terzo capitolo opera un confronto fra i diversi approcci all'insegnamento della matematica in generale e dell'analisi in particolare che si presentano nelle diverse scuole secondarie, in particolare nei Licei e negli Istituti Tecnici. Nel quarto capitolo ci si è occupati del livello scolastico successivo, analizzando le differenze che intercorrono tra la scuola secondaria superiore e l’università per quanto riguarda gli stadi dello sviluppo mentale degli studenti, le materie, i metodi di studio e gli obiettivi di apprendimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi illustra approfonditamente il modello Flipped Classroom esponendo i nuovi ruoli rivestiti da insegnante e studente durante la prima inversione didattica, oltre che le numerose strategie attuabili nel corso del secondo momento pratico in aula, e le trasformazioni apportate dal metodo nell'ambito della valutazione scolastica. Infine, è presente un resoconto dettagliato della sperimentazione del modello Flipped Classroom che ho attuato personalmente presso una scuola secondaria di secondo grado, riportando inoltre le opinioni degli studenti delle due classi che ne hanno preso parte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La previsione dei temporali rappresenta una delle operazioni più impegnative e complesse per chi svolge il mestiere di meteorologo, soprattutto se effettuata con molte ore di anticipo rispetto all'evento; ciò è riconducibile alla molteplicità di parametri da cui questi fenomeni dipendono ed all'incertezza che si riscontra nella simulazione degli indici di instabilità. In questo elaborato viene presentata ed approfondita una tecnica di elaborazione dei dati provenienti da radiosondaggi previsti, con lo scopo di migliorare la previsione dei temporali relativa al giorno successivo. Nel 1987 Colquhoun elaborò un albero decisionale per la previsione di temporali in Australia, basato sul superamento di soglie degli indici di instabilità. Qui di seguito, si propone di testare la validità dello stesso schema decisionale alla previsione di temporali in Pianura Padana ed in particolare in Emilia Romagna, procedendo ad un confronto tra gli eventi previsti ed i fenomeni osservati; la previsione si basa sull'output dell'albero decisionale utilizzando gli indici di instabilità previsti dai LAM COSMO-I7 e COSMO-I2 nel periodo +24/+48 ore, mentre l'osservazione dei temporali viene ricavata tramite consultazione quotidiana di METAR,SYNOP,SYREP, e mappe di fulminazioni relative al quadriennio 2010-2013. L'indice assunto per valutare l'affidabilità delle previsioni fornite è il Threat Score che presenta due limiti fondamentali: la dipendenza dal numero di eventi e l'incapacità di differenziare i falsi allarmi dai mancati allarmi. Ciò nonostante, questo indice rappresenta il miglior modo per ricavare una informazione complessiva e definire se la previsione fornita corrisponde ad una buona previsione. Lo stesso test viene effettuato sull'albero decisionale in uso presso la sala operativa di ARPA-SIM e dal confronto con l'albero di Colquhoun si deducono i limiti legati alla modellistica numerica che fornisce i dati in input. Infine il test sui parametri termodinamici previsti dai modelli COSMO-I2 e COSMO-I7 dimostra gli errori commessi sulla previsione a +24 e +36 ore dalle simulazioni. Questo lavoro si pone all'interno di un progetto più ampio di verifica della modellistica numerica sviluppata dal consorzio COSMO, al quale l'Italia aderisce attraverso la collaborazione di ARPA Emilia Romagna, ARPA Piemonte ed Aeronautica Militare. In particolare sono sottoposte a test le performances dei due modelli LAM sviluppati completamente in Italia ed utilizzati anche dal Dipartimento della protezione civile nazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Global Positioning System (GPS) e l’Interferometric Synthetic Aperture Radar (InSAR) sono due tecniche osservative di grande importanza che utilizzano segnali nel campo delle microonde. Questa tesi intende contribuire a sviluppare una base di confronto tra i risultati derivati da queste due tecniche osservative. Una parte del lavoro riguarda uno studio delle deformazioni del suolo, in particolare, la stima dei movimenti verticali e di quelli che riguardano la componente Est della posizione delle stazioni. Un secondo ambito di ricerca è invece focalizzato alla determinazione del ritardo introdotto, nella propagazione dei segnali GPS e SAR, dal loro passaggio in atmosfera. In particolare, si è studiato l’effetto della componente umida della troposfera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo dell'opera è implementare in maniera efficiente ed affidabile un metodo di tipo Newton per la ricostruzione di immagini con termine regolativo in norma L1. In particolare due metodi, battezzati "OWL-QN per inversione" e "OWL-QN precondizionato", sono presentati e provati con numerose sperimentazioni. I metodi sono generati considerando le peculiarità del problema e le proprietà della trasformata discreta di Fourier. I risultati degli esperimenti numerici effettuati mostrano la bontà del contributo proposto, dimostrando la loro superiorità rispetto al metodo OWL-QN presente in letteratura, seppure adattato alle immagini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una teoria degli insiemi alternativa alla più nota e diffusa teoria di Zermelo-Fraenkel con l'Assioma di Scelta, ZFC, è quella proposta da W. V. O. Quine nel 1937, poi riveduta e corretta da R. Jensen nel 1969 e rinominata NFU (New foundations with Urelementen). Anche questa teoria è basata sui concetti primitivi di insieme e appartenenza, tuttavia differisce notevolmente da quella usuale perché si ammettono solo formule stratificate, cioè formule in cui è rispettata una gerarchizzazione elemento-insieme che considera priva di significato certe scritture. L'unico inconveniente di NFU è dovuto alle conseguenze della stratificazione. I pregi invece sono notevoli: ad esempio un uso molto naturale delle relazioni come l'inclusione, o la possibilità di considerare insiemi anche collezioni di oggetti troppo "numerose" (come l'insieme universale) senza il rischio di cadere in contraddizione. NFU inoltre risulta essere più potente di ZFC, in quanto, grazie al Teorema di Solovay, è possibile ritrovare in essa un modello con cardinali inaccessibili di ZFC ed è ammessa la costruzione di altri modelli con cardinali inaccessibili della teoria classica.