1000 resultados para indirizzo :: 741 :: Curriculum A: Scienze informatiche


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sono studiati nel dettaglio, sia dal punto di vista matematico che con un certo inquadramento storico, i capitoli quinto e sesto del volume ''Le operazioni distributive e le loro applicazioni all'analisi'' di Salvatore Pincherle. La tesi si inserisce in un progetto più ampio di studio ed è già stata preceduta da un'altra tesi magistrale dedicata ai primi capitoli del libro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La VMAT (Volumetric Modulated Arc Therapy) è una delle più recenti tecniche radioterapiche, in cui, oltre alla modulazione geometrica della fluenza del campo di radiazione come avviene nell’IMRT (Intensity Modulated Radiotherapy), sono variati durante il trattamento anche la velocità del gantry e il rateo di dose. La radiazione è erogata senza interruzioni lungo uno o più archi continui della testata dell’acceleratore, così da ridurre i tempi di trattamento in modo sostanziale rispetto all’IMRT. Nelle tecniche ad intensità modulata, ed in particolare nella VMAT, il lettino porta paziente modifica la distribuzione di dose durante gli irraggiamenti posteriori, riducendo quella al target e aumentando quella superficiale. Il presente lavoro di tesi, che ha proprio l’obiettivo di valutare questi aspetti dosimetrici in un’ottica pre-clinica, è stato svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola–Malpighi, Azienda Ospedaliero-Universitaria di Bologna. Le misure sono state effettuate presso le U.O. Radioterapia-Morganti e Radioterapia-Frezza f.f. della medesima Azienda Sanitaria, al fine di caratterizzare dal punto di vista dosimetrico il lettino di trattamento iBEAM evo dell’acceleratore lineare Synergy Elekta. L’attenuazione misurata in caso di incidenza perpendicolare del fascio sul lettino, in buon accordo con gli articoli di riferimento, è stata: (2.81±0.06)% per fotoni di energia di 6 MV, (1.81±0.10)% a 10 MV e (1.38±0.05)% a 15 MV. L’attenuazione massima misurata con fotoni di energia di 6 MV si è avvicinata al 4% negli irraggiamenti obliqui. Infine, è stato analizzato il confronto con statistica gamma fra distribuzione di dose pianificata e misurata prima e dopo aver modellizzato le caratteristiche del lettino nel software per l’elaborazione del piano di trattamento. Solo dopo tale operazione, i due casi VMAT analizzati (tumore dell’orofaringe e prostatico) superano i criteri più restrittivi e affidabili utilizzati nella pratica clinica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Teoria di Densità Funzionale (DFT) e la sua versione dipendente dal tempo (TDDFT) sono strumenti largamente usati per simulare e calcolare le proprietà statiche e dinamiche di sistemi con elettroni interagenti. La precisione del metodo si basa su una serie di approssimazioni degli effetti di exchange correlation fra gli elettroni, descritti da un funzionale della sola densità di carica. Nella presente tesi viene testata l'affidabilità del funzionale Mixed Localization Potential (MLP), una media pesata fra Single Orbital Approximation (SOA) e un potenziale di riferimento, ad esempio Local Density Approximation (LDA). I risultati mostrano capacità simulative superiori a LDA per i sistemi statici (curando anche un limite di LDA noto in letteratura come fractional dissociation) e dei progressi per sistemi dinamici quando si sviluppano correnti di carica. Il livello di localizzazione del sistema, inteso come la capacità di un elettrone di tenere lontani da sé altri elettroni, è descritto dalla funzione Electron Localization Function (ELF). Viene studiato il suo ruolo come guida nella costruzione e ottimizzazione del funzionale MLP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La TiO2 è uno dei materiali più studiati degli ultimi decenni. I motivi sono da ricercarsi nelle sue numerose applicazioni, possibili in molti campi come dispositivi fotovoltaici, depurazione da agenti inquinanti o filtraggio di raggi UV. Per le celle elettrochimiche in particolare, il biossido di titanio offre molti vantaggi, ma non è privo di ostacoli. Il limite principale è lo scarso assorbimento dello spettro visibile, dovuto all’energy gap elevato (circa 3.2 eV). La ricerca da diversi anni si concentra sul tentativo di aumentare l’assorbimento di luce solare: promettenti sono i risultati raggiunti grazie alla forma nanoparticellare della TiO2, che presenta proprietà diverse dal materiale bulk. Una delle strategie più studiate riguarda il drogaggio tramite impurità, che dovrebbero aumentare le prestazioni di assorbimento del materiale. Gli elementi ritenuti migliori a questo scopo sono il vanadio e l’azoto, che possono essere usati sia singolarmente che in co-doping. In questo lavoro abbiamo realizzato la crescita di nanoparticelle di V-TiO2, tramite Inert Gas Condensation. La morfologia e la struttura atomica sono state analizzate attraverso microscopia a trasmissione, analizzandone la mappe tramite image processing. Successivamente abbiamo studiato le proprietà di assorbimento ottico dei campioni, nello spettro visibile e nel vicino ultravioletto, attraverso il metodo della riflettanza diffusa, determinando poi il bandgap tramite Tauc Plot. L’esperimento centrale di questo lavoro di tesi è stato condotto sulla beamline ID26 dell’European Synchrotron Radiation Facility, a Grenoble. Lì, abbiamo effettuato misure XANES, allo scopo di studiare gli stati fotoeccitati del materiale. L’eccitazione avveniva mediante laser con lunghezza d’onda di 532 nm. Tramite gli spettri, abbiamo analizzato la struttura locale e lo stato di ossidazione del vanadio. Le variazioni indotta dal laser hanno permesso di capire il trasferimento di carica e determinare la vita media.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tra le patologie ossee attualmente riconosciute, l’osteoporosi ricopre il ruolo di protagonista data le sua diffusione globale e la multifattorialità delle cause che ne provocano la comparsa. Essa è caratterizzata da una diminuzione quantitativa della massa ossea e da alterazioni qualitative della micro-architettura del tessuto osseo con conseguente aumento della fragilità di quest’ultimo e relativo rischio di frattura. In campo medico-scientifico l’imaging con raggi X, in particolare quello tomografico, da decenni offre un ottimo supporto per la caratterizzazione ossea; nello specifico la microtomografia, definita attualmente come “gold-standard” data la sua elevata risoluzione spaziale, fornisce preziose indicazioni sulla struttura trabecolare e corticale del tessuto. Tuttavia la micro-CT è applicabile solo in-vitro, per cui l’obiettivo di questo lavoro di tesi è quello di verificare se e in che modo una diversa metodica di imaging, quale la cone-beam CT (applicabile invece in-vivo), possa fornire analoghi risultati, pur essendo caratterizzata da risoluzioni spaziali più basse. L’elaborazione delle immagini tomografiche, finalizzata all’analisi dei più importanti parametri morfostrutturali del tessuto osseo, prevede la segmentazione delle stesse con la definizione di una soglia ad hoc. I risultati ottenuti nel corso della tesi, svolta presso il Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli di Bologna, mostrano una buona correlazione tra le due metodiche quando si analizzano campioni definiti “ideali”, poiché caratterizzati da piccole porzioni di tessuto osseo di un solo tipo (trabecolare o corticale), incluso in PMMA, e si utilizza una soglia fissa per la segmentazione delle immagini. Diversamente, in casi “reali” (vertebre umane scansionate in aria) la stessa correlazione non è definita e in particolare è da escludere l’utilizzo di una soglia fissa per la segmentazione delle immagini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi è analizzata nel dettaglio una proposta didattica sulla Fisica Quantistica elaborata dal gruppo di ricerca in Didattica della Fisica dell’Università di Bologna, in collaborazione con il gruppo di ricerca in Fisica Teorica e con ricercatori del CNR di Bologna. La proposta è stata sperimentata in diverse classi V di Liceo scientifico e dalle sperimentazioni sono emersi casi significativi di studenti che non sono riusciti ad accettare la teoria quantistica come descrizione convincente ad affidabile della realtà fisica (casi di non accettazione), nonostante sembrassero aver capito la maggior parte degli argomenti e essersi ‘appropriati’ del percorso per come gli era stato proposto. Da questa evidenza sono state formulate due domande di ricerca: (1) qual è la natura di questa non accettazione? Rispecchia una presa di posizione epistemologica o è espressione di una mancanza di comprensione profonda? (2) Nel secondo caso, è possibile individuare precisi meccanismi cognitivi che possono ostacolare o facilitare l’accettazione della fisica quantistica? L’analisi di interviste individuali degli studenti ha permesso di mettere in luce tre principali esigenze cognitive (cognitive needs) che sembrano essere coinvolte nell’accettazione e nell’apprendimento della fisica quantistica: le esigenze di visualizzabilità, comparabilità e di ‘realtà’. I ‘cognitive needs’ sono stati quindi utilizzati come strumenti di analisi delle diverse proposte didattiche in letteratura e del percorso di Bologna, al fine di metterne in luce le criticità. Sono state infine avanzate alcune proposte per un suo miglioramento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante i trattamenti radioterapici dei pazienti oncologici testa-collo, le ghiandole parotidee (PGs) possono essere indebitamente irradiate a seguito di modificazioni volumetriche-spaziali inter/intra-frazione causate da fattori quali il dimagrimento, l’esposizione a radiazioni ionizzanti ed il morphing anatomico degli organi coinvolti nelle aree d’irraggiamento. Il presente lavoro svolto presso la struttura di Fisica Medica e di Radioterapia Oncologica dell’A.O.U di Modena, quale parte del progetto di ricerca del Ministero della Salute (MoH2010, GR-2010-2318757) “ Dose warping methods for IGRT and Adaptive RT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments ”, sviluppa un modello biomeccanico in grado di rappresentare il processo di deformazione delle PGs, considerandone la geometria, le proprietà elastiche e l'evoluzione durante il ciclo terapeutico. Il modello di deformazione d’organo è stato realizzato attraverso l’utilizzo di un software agli elementi finiti (FEM). Molteplici superfici mesh, rappresentanti la geometria e l’evoluzione delle parotidi durante le sedute di trattamento, sono state create a partire dai contorni dell’organo definiti dal medico radioterapista sull’immagine tomografica di pianificazione e generati automaticamente sulle immagini di setup e re-positioning giornaliere mediante algoritmi di registrazione rigida/deformabile. I constraints anatomici e il campo di forze del modello sono stati definiti sulla base di ipotesi semplificative considerando l’alterazione strutturale (perdita di cellule acinari) e le barriere anatomiche dovute a strutture circostanti. L’analisi delle mesh ha consentito di studiare la dinamica della deformazione e di individuare le regioni maggiormente soggette a cambiamento. Le previsioni di morphing prodotte dal modello proposto potrebbero essere integrate in un treatment planning system per metodiche di Adaptive Radiation Therapy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro, ho studiato e trovato le soluzioni esatte di un modello matematico applicato ai recettori cellulari della famiglia delle integrine. Nel modello le integrine sono considerate come un sistema a due livelli, attivo e non attivo. Quando le integrine si trovano nello stato inattivo possono diffondere nella membrana, mentre quando si trovano nello stato attivo risultano cristallizzate nella membrana, incapaci di diffondere. La variazione di concentrazione nella superficie cellulare di una sostanza chiamata attivatore dà luogo all’attivazione delle integrine. Inoltre, questi eterodimeri possono legare una molecola inibitrice con funzioni di controllo e regolazione, che chiameremo v, la quale, legandosi al recettore, fa aumentare la produzione della sostanza attizzatrice, che chiameremo u. In questo modo si innesca un meccanismo di retroazione positiva. L’inibitore v regola il meccanismo di produzione di u, ed assume, pertanto, il ruolo di modulatore. Infatti, grazie a questo sistema di fine regolazione il meccanismo di feedback positivo è in grado di autolimitarsi. Si costruisce poi un modello di equazioni differenziali partendo dalle semplici reazioni chimiche coinvolte. Una volta che il sistema di equazioni è impostato, si possono desumere le soluzioni per le concentrazioni dell’inibitore e dell’attivatore per un caso particolare dei parametri. Infine, si può eseguire un test per vedere cosa predice il modello in termini di integrine. Per farlo, ho utilizzato un’attivazione del tipo funzione gradino e l’ho inserita nel sistema, valutando la dinamica dei recettori. Si ottiene in questo modo un risultato in accordo con le previsioni: le integrine legate si trovano soprattutto ai limiti della zona attivata, mentre le integrine libere vengono a mancare nella zona attivata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recentemente sono stati valutati come fisicamente consistenti diversi modelli non-hermitiani sia in meccanica quantistica che in teoria dei campi. La classe dei modelli pseudo-hermitiani, infatti, si adatta ad essere usata per la descrizione di sistemi fisici dal momento che, attraverso un opportuno operatore metrico, risulta possibile ristabilire una struttura hermitiana ed unitaria. I sistemi PT-simmetrici, poi, sono una categoria particolarmente studiata in letteratura. Gli esempi riportati sembrano suggerire che anche le cosiddette teorie conformi non-unitarie appartengano alla categoria dei modelli PT-simmetrici, e possano pertanto adattarsi alla descrizione di fenomeni fisici. In particolare, si tenta qui la costruzione di determinate lagrangiane Ginzburg-Landau per alcuni modelli minimali non-unitari, sulla base delle identificazioni esistenti per quanto riguarda i modelli minimali unitari. Infine, si suggerisce di estendere il dominio del noto teorema c alla classe delle teorie di campo PT-simmetriche, e si propongono alcune linee per una possibile dimostrazione dell'ipotizzato teorema c_{eff}.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi sono state valutate le prestazioni energetiche di un edificio esistente ed i possibili interventi migliorativi da porre in opera per migliorare dette prestazioni in riferimento all'involucro edilizio, agli impianti e alla produzione di energia da fonti rinnovabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta aspetti relativi all'ottimizzazione strutturale. Algoritmi di ottimizzazione scritti in linguaggio di programmazione Python, sia basati sul metodo del simplesso che di tipo gentico, sono stati integrati in ambiente Salome-Meca/CAE ed applicati ad esempi di interesse strutturale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this research is to analyze the transport system and its subcomponents in order to highlight which are the design tools for physical and/or organizational projects related to transport supply systems. A characteristic of the transport systems is that the change of their structures can recoil on several entities, groups of entities, which constitute the community. The construction of a new infrastructure can modify both the transport service characteristic for all the user of the entire network; for example, the construction of a transportation infrastructure can change not only the transport service characteristics for the users of the entire network in which it is part of, but also it produces economical, social, and environmental effects. Therefore, the interventions or the improvements choices must be performed using a rational decision making approach. This approach requires that these choices are taken through the quantitative evaluation of the different effects caused by the different intervention plans. This approach becomes even more necessary when the decisions are taken in behalf of the community. Then, in order to understand how to develop a planning process in Transportation I will firstly analyze the transport system and the mathematical models used to describe it: these models provide us significant indicators which can be used to evaluate the effects of possible interventions. In conclusion, I will move on the topics related to the transport planning, analyzing the planning process, and the variables that have to be considered to perform a feasibility analysis or to compare different alternatives. In conclusion I will perform a preliminary analysis of a new transit system which is planned to be developed in New York City.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the recent decade, the request for structural health monitoring expertise increased exponentially in the United States. The aging issues that most of the transportation structures are experiencing can put in serious jeopardy the economic system of a region as well as of a country. At the same time, the monitoring of structures is a central topic of discussion in Europe, where the preservation of historical buildings has been addressed over the last four centuries. More recently, various concerns arose about security performance of civil structures after tragic events such the 9/11 or the 2011 Japan earthquake: engineers looks for a design able to resist exceptional loadings due to earthquakes, hurricanes and terrorist attacks. After events of such a kind, the assessment of the remaining life of the structure is at least as important as the initial performance design. Consequently, it appears very clear that the introduction of reliable and accessible damage assessment techniques is crucial for the localization of issues and for a correct and immediate rehabilitation. The System Identification is a branch of the more general Control Theory. In Civil Engineering, this field addresses the techniques needed to find mechanical characteristics as the stiffness or the mass starting from the signals captured by sensors. The objective of the Dynamic Structural Identification (DSI) is to define, starting from experimental measurements, the modal fundamental parameters of a generic structure in order to characterize, via a mathematical model, the dynamic behavior. The knowledge of these parameters is helpful in the Model Updating procedure, that permits to define corrected theoretical models through experimental validation. The main aim of this technique is to minimize the differences between the theoretical model results and in situ measurements of dynamic data. Therefore, the new model becomes a very effective control practice when it comes to rehabilitation of structures or damage assessment. The instrumentation of a whole structure is an unfeasible procedure sometimes because of the high cost involved or, sometimes, because it’s not possible to physically reach each point of the structure. Therefore, numerous scholars have been trying to address this problem. In general two are the main involved methods. Since the limited number of sensors, in a first case, it’s possible to gather time histories only for some locations, then to move the instruments to another location and replay the procedure. Otherwise, if the number of sensors is enough and the structure does not present a complicate geometry, it’s usually sufficient to detect only the principal first modes. This two problems are well presented in the works of Balsamo [1] for the application to a simple system and Jun [2] for the analysis of system with a limited number of sensors. Once the system identification has been carried, it is possible to access the actual system characteristics. A frequent practice is to create an updated FEM model and assess whether the structure fulfills or not the requested functions. Once again the objective of this work is to present a general methodology to analyze big structure using a limited number of instrumentation and at the same time, obtaining the most information about an identified structure without recalling methodologies of difficult interpretation. A general framework of the state space identification procedure via OKID/ERA algorithm is developed and implemented in Matlab. Then, some simple examples are proposed to highlight the principal characteristics and advantage of this methodology. A new algebraic manipulation for a prolific use of substructuring results is developed and implemented.