972 resultados para Fagnano, Giulio Carlo, conte di, marchese de Toschi, 1682-1766.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Despite the scientific achievement of the last decades in the astrophysical and cosmological fields, the majority of the Universe energy content is still unknown. A potential solution to the “missing mass problem” is the existence of dark matter in the form of WIMPs. Due to the very small cross section for WIMP-nuleon interactions, the number of expected events is very limited (about 1 ev/tonne/year), thus requiring detectors with large target mass and low background level. The aim of the XENON1T experiment, the first tonne-scale LXe based detector, is to be sensitive to WIMP-nucleon cross section as low as 10^-47 cm^2. To investigate the possibility of such a detector to reach its goal, Monte Carlo simulations are mandatory to estimate the background. To this aim, the GEANT4 toolkit has been used to implement the detector geometry and to simulate the decays from the various background sources: electromagnetic and nuclear. From the analysis of the simulations, the level of background has been found totally acceptable for the experiment purposes: about 1 background event in a 2 tonne-years exposure. Indeed, using the Maximum Gap method, the XENON1T sensitivity has been evaluated and the minimum for the WIMP-nucleon cross sections has been found at 1.87 x 10^-47 cm^2, at 90% CL, for a WIMP mass of 45 GeV/c^2. The results have been independently cross checked by using the Likelihood Ratio method that confirmed such results with an agreement within less than a factor two. Such a result is completely acceptable considering the intrinsic differences between the two statistical methods. Thus, in the PhD thesis it has been proven that the XENON1T detector will be able to reach the designed sensitivity, thus lowering the limits on the WIMP-nucleon cross section by about 2 orders of magnitude with respect to the current experiments.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'intervento di connessione cavo-polmonare totale (TCPC) nei pazienti portatori di cuore univentricolare, a causa della particolare condizione emodinamica, determina un risentimento a carico di numerosi parenchimi. Scopo della ricerca è di valutare l'entità di questo danno ad un follow-up medio-lungo. Sono stati arruolati 115 pazienti, sottoposti ad intervento presso i centri di Cardiochirurgia Pediatrica di Bologna (52 pz) e Torino (63 pz). Il follow-up medio è stato di 125±2 mesi. I pazienti sono stati sottoposti ad indagine emodinamica (88 pz), test cardiopolmonare (75 pz) e Fibroscan ed ecografia epatica (47 pz). La pressione polmonare media è stata di 11.5±2.6mmHg, ed in 12 pazienti i valori di pressione polmonare erano superiori a 15mmHg. La pressione atriale media era di 6.7±2.3mmHg ed il calcolo delle resistenze vascolari polmonari indicizzate (RVP) era in media di 2±0.99 UW/m2. In 29 pazienti le RVP erano superiori a 2 UW/m2. La VO2 max in media era pari a 28±31 ml/Kg/min, 58±15 % del valore teorico. La frequenza cardiaca massima all'apice dello sforzo era di 151±22 bpm, pari al 74±17% del valore teorico. Il Fibroscan ha fornito un valore medio di 17.01 kPa (8-34.3kPa). Cinque pazienti erano in classe F2, 9 pazienti in classe F3 e 33 pazienti risultavano in classe F4. Nei pazienti con follow-up maggiore di 10 anni il valore di stiffness epatica (19.6±5.2kPa) è risultato significativamente maggiore a quello dei pazienti con follow-up minore di 10 anni (15.1±5.8kPa, p<0.01). La frequenza cardiaca massima raggiunta durante lo sforzo del test cardiopolmonare è risultata significativamente correlata alla morfologia del ventricolo unico, risultando del 67.8±14.4% del valore teorico nei pazienti portatori di ventricolo destro contro il 79.6±8.7% dei portatori di ventricolo sinistro (p=0.006). L'intervento di TCPC determina un risentimento a carico di numerosi parenchimi proporzionale alla lunghezza del follow-up, e necessita pertanto un costante monitoraggio clinico-strumentale multidisciplinare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The first part of this work deals with the inverse problem solution in the X-ray spectroscopy field. An original strategy to solve the inverse problem by using the maximum entropy principle is illustrated. It is built the code UMESTRAT, to apply the described strategy in a semiautomatic way. The application of UMESTRAT is shown with a computational example. The second part of this work deals with the improvement of the X-ray Boltzmann model, by studying two radiative interactions neglected in the current photon models. Firstly it is studied the characteristic line emission due to Compton ionization. It is developed a strategy that allows the evaluation of this contribution for the shells K, L and M of all elements with Z from 11 to 92. It is evaluated the single shell Compton/photoelectric ratio as a function of the primary photon energy. It is derived the energy values at which the Compton interaction becomes the prevailing process to produce ionization for the considered shells. Finally it is introduced a new kernel for the XRF from Compton ionization. In a second place it is characterized the bremsstrahlung radiative contribution due the secondary electrons. The bremsstrahlung radiation is characterized in terms of space, angle and energy, for all elements whit Z=1-92 in the energy range 1–150 keV by using the Monte Carlo code PENELOPE. It is demonstrated that bremsstrahlung radiative contribution can be well approximated with an isotropic point photon source. It is created a data library comprising the energetic distributions of bremsstrahlung. It is developed a new bremsstrahlung kernel which allows the introduction of this contribution in the modified Boltzmann equation. An example of application to the simulation of a synchrotron experiment is shown.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La corretta modellizzazione della zona del riflettore dei sistemi GEN III+ è un passaggio fondamentale per un’accurata predizione dei parametri di cella il cui valore influenza direttamente la distribuzione di potenza su tutto il nocciolo. Tale esigenza si è resa ancora più stringente dopo la constatazione che il fenomeno del “tilt power” risulta essere più amplificato nei noccioli nucleari equipaggiati con un riflettore pesante. Per tali ragioni, nel presente lavoro di tesi si è dedicata particolare attenzione alle metodiche di modellizzazione ed alla generazione delle sezioni d’urto efficaci omogenee ed agli assembly discontinuity factors (ADF) nella zona di riflessione. Il codice deterministico utilizzato per il calcolo è SCALE 6.1.3. La notevole differenza nelle proprietà neutroniche associata ad un’elevata eterogeneità geometrica tra un nocciolo ed un riflettore hanno suggerito di effettuare un’analisi preliminare sul sistema riflettente GEN II proposto nel benchmark NEA-NSC-DOC (2013) per testare la capacità di SCALE 6.1.3 di effettuare un corretto calcolo di cella adottando una modellizzazione monodimensionale assembly/riflettore. I risultati ottenuti sono confrontati con quelli presentati nel benchmark e e con quelli valutati attraverso il codice Monte Carlo SERPENT 2.0 confermando la capacità di calcolo di SCALE 6.1.3. L’analisi sulla modellizzazione dei sistemi riflettenti GEN III+ è stata effettuata ricavando il valore dei parametri di cella per configurazioni omogenee ed una serie di configurazioni geometriche esatte che comprendono tutte le modellizzazioni del sistema riflettente lungo la direzione angolare del riflettore. Si è inoltre effettuata un’analisi di sensitività su parametri operativi e sui parametri di codice. Si è infine effettuato un calcolo in color-set per indagare l’influenza degli effetti 2-D sui parametri di cella. I risultati prodotti rappresentano un contributo migliorativo nella conoscenza dei parametri di cella di riflettore e potranno essere utilizzati per una più precisa valutazione del fenomeno del tilt nei sistemi GEN III+.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’aderenza tra barre fibrorinforzate e calcestruzzo è una chiave fondamentale per comprendere al meglio l’azione composita di strutture rinforzate o armate in FRP. Deve essere mobilitata una certa aderenza tra la barra e calcestruzzo per trasferire gli sforzi da un corpo all’altro. Poiché il materiale composito è anisotropo, in direzione longitudinale le proprietà meccaniche sono governate da quelle delle fibre, mentre in direzione trasversale dalla resina. La matrice presenta in genere resistenze più basse di quella a compressione del calcestruzzo, cosicché il meccanismo di aderenza risulta diverso da quello sviluppato dalle tradizionali barre in acciaio. In questa tesi viene sviluppata appunto un’indagine sperimentale sul fenomeno dell’aderenza di barre in acciaio e barre in CFRP (fibra di carbonio) nel calcestruzzo, cercando di capire come cambia il fenomeno al variare dei parametri da cui dipende principalmente l’aderenza, come ad esempio la resistenza caratteristica a compressione del calcestruzzo, il diametro e la deformazione superficiale della barra e la posizione di questa nel provino di calcestruzzo. Sono state quindi realizzate delle prove di pull-out, ovvero delle prove di estrazione di barre da provini di calcestruzzo, per determinare le tensioni tangenziali d’aderenza in funzione dello scorrimento locale della barra (local bond-slip). Infine sono stati calibrati, sui risultati delle prove sperimentali, i tre modelli analitici più noti in letteratura che descrivono il fenomeno dell’aderenza delle barre in FRP nel calcestruzzo, ovvero quello di Malvar (1994), il CMR Model (1995) e il Modified BPE Model (1996).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi analizza il mutamento in atto nelle fonti del diritto del lavoro, attraverso uno studio dei casi di rinvio dalla legge al contratto collettivo. Nella Parte I della tesi è affrontato il tema dei rapporti tra legge e contratto collettivo. In una prospettiva statica, i rapporti tra legge e contratto collettivo sono caratterizzati dall’operare dei principii di gerarchia e del favor: la legge prevede il trattamento minimo di tutela e il contratto collettivo può modificare tale trattamento in senso più favorevole al lavoratore. In una prospettiva dinamica, i rapporti tra legge e contratto collettivo sono più complessi: nell’ordinamento italiano, infatti, la disciplina del rapporto e del mercato del lavoro è caratterizzata da una valorizzazione degli apporti dell’autonomia collettiva. In particolare, il contratto collettivo è destinatario di una serie di rinvii, che lo autorizzano a completare la disciplina legale e a modificarla anche in senso meno favorevole al lavoratore, al fine di creare un mercato del lavoro maggiormente dinamico. Nella Parte II della tesi l’analisi si concentra sull’art. 8 della l. n. 148/2011. Tale disposizione è stata introdotta durante la crisi economico-finanziaria che ha colpito l’Italia tra il 2011 e il 2012, a seguito di trattative tra il Governo italiano e le istituzioni dell’UE, al fine di attribuire alle imprese uno strumento per incrementare la loro competitività e produttività. L’art. 8 autorizza il contratto collettivo a derogare in peius alla legge con riferimento a un arco tematico di materie e istituti che comprende l’intero profilo della disciplina del rapporto di lavoro, con alcune eccezioni. L’art. 8 rappresenta il punto di arrivo di una lunga evoluzione legislativa e consente di mettere in discussione la ricostruzione tradizionale dei rapporti tra legge e contratto collettivo basata sui principii di gerarchia e di favore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi è incentrata sullo studio del flusso di neutroni e della funzione di risoluzione del progetto n_TOF al CERN di Ginevra. Dopo aver ricordato le motivazioni scientifiche e tecnologiche che stanno alla base di questo progetto di collaborazione internazionale, si trattano sommariamente alcune delle più importanti applicazioni della fisica neutronica e si descrive la facility di Ginevra. Nella parte finale del lavoro si presenta una misura di precisione ottenuta dal flusso di neutroni utilizzato nell'esperimento n_TOF nel 2012, la cui conoscenza è di fondamentale importanza per la misura di sezioni d'urto di reazioni indotte da neutroni. L'esperimento n_TOF ha proprio lo scopo di misurare sezioni d'urto di reazioni indotte da neutroni, in particolare reazioni di fissione e cattura neutronica. Ad n_TOF si utilizza un fascio di protoni, accelerato a 20 GeV dal ProtoSincrotrone del CERN, per crearne due di neutroni, uno verticale e uno orizzontale, tramite spallazione nucleare indotta su un bersaglio di Piombo. Dalle analisi dei dati si deduce come questo studio possa essere maggiormente ottimizzato migliorando la funzione di risoluzione energetica dei neutroni, attraverso simulazioni Monte Carlo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro viene trattato il problema del dimensionamento di una pinna da windsurf con l’ottica di massimizzarne le prestazioni idrodinamiche. Il sistema windsurf è stato analizzato e su questo studio è stato sviluppato un modello utile a ricavare condizioni dimensionanti per la pinna. Facendo uso del metodo Monte Carlo è stato elaborato un modello di ottimizzazione dei parametri geometrici e aerodinamici della pinna, e su tale configurazione di pinna è stato eseguito un calcolo dei principali carichi strutturali. I modelli sono stati testati per due date condizione operativa del windsurf e i risultati confrontati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella presente tesi vengono presentati gli strumenti necessari ad un dispositivo mobile per spostarsi attraverso una molteplicità di reti wi-fi senza perdere l'identità della connessione in essere.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell'ambito della Fisica Medica, le simulazioni Monte Carlo sono uno strumento sempre più diffuso grazie alla potenza di calcolo dei moderni calcolatori, sia nell'ambito diagnostico sia in terapia. Attualmente sono disponibili numerosi pacchetti di simulazione Monte Carlo di carattere "general purpose", tra cui Geant4. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico "S.Orsola-Malpighi", è basato sulla realizzazione, utilizzando Geant4, di un modello Monte Carlo del target del ciclotrone GE-PETtrace per la produzione di C-11. Nel modello sono stati simulati i principali elementi caratterizzanti il target ed il fascio di protoni accelerato dal ciclotrone. Per la validazione del modello sono stati valutati diversi parametri fisici, tra i quali il range medio dei protoni nell'azoto ad alta pressione e la posizione del picco di Bragg, confrontando i risultati con quelli forniti da SRIM. La resa a saturazione relativa alla produzione di C-11 è stata confrontata sia con i valori forniti dal database della IAEA sia con i dati sperimentali a nostra disposizione. Il modello è stato anche utilizzato per la stima di alcuni parametri di interesse, legati, in particolare, al deterioramento dell'efficienza del target nel corso del tempo. L'inclinazione del target, rispetto alla direzione del fascio di protoni accelerati, è influenzata dal peso del corpo del target stesso e dalla posizione in cui questo é fissato al ciclotrone. Per questo sono stati misurati sia il calo della resa della produzione di C-11, sia la percentuale di energia depositata dal fascio sulla superficie interna del target durante l'irraggiamento, al variare dell'angolo di inclinazione del target. Il modello che abbiamo sviluppato rappresenta, dunque, un importante strumento per la valutazione dei processi che avvengono durante l'irraggiamento, per la stima delle performance del target nel corso del tempo e per lo sviluppo di nuovi modelli di target.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno dei cardini nel programma di ricerca attuale del Large Hadron Collider (LHC) al CERN è l’approfondimento della conoscenza relativa al bosone di Higgs e agli accoppiamenti di questa particella, di recente scoperta, con le altre del Modello Standard. Il prossimo Run di LHC sarà caratterizzato da collisioni di fasci di protoni con un'energia di 6.5 TeV ciascuno e renderà possibile l’acquisizione di grandi campioni di dati nei quali si prevede un aumento della statistica per tipologie di eventi che fino a questo momento è stato problematico studiare. Tra questi la produzione per Higgs-strahlung del bosone di Higgs associato al bosone vettore Z, che, essendo caratterizzata da una bassa sezione d’urto, è sempre stata considerata un processo molto difficile da investigare. Questa tesi fornisce uno studio preliminare della fattibilità di recuperare in modo efficiente questo canale, con l’obiettivo di individuare alcuni tagli che permettano di ripulire il grande fondo adronico prodotto nelle collisioni protone-protone a LHC. La presente analisi è stata effettuata su campioni di dati ottenuti tramite una generazione Monte Carlo e una simulazione parametrica del rivelatore ATLAS. Sebbene la statistica dei campioni MC sia ancora limitata e la simulazione della risposta del detector non sia dettagliata, le tecniche e i tagli utilizzati in questo lavoro di tesi potranno dare utili indicazioni per futuri studi più dettagliati e per l'investigazione di questo processo una volta che i dati del prossimo Run di LHC a √s=13 TeV saranno disponibili.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi di laurea magistrale si è elaborata nell'ambito del Dipartimento di Tecnologie Ambientali dell'Università di Cadice (Spagna). Tratta lo studio dell'influenza di un co-substrato sulla biodegradabilità anaerobica, in condizioni mesofiliche, dei fanghi di depurazione delle acque residuali. Il co-substrato utilizzato per il miglioramento dei trattamenti dei fanghi è il glicerolo, un sottoprodotto di lavorazione del biodiesel. Le prove realizzate mirano a ottimizzare l'eliminazione della materia organica e la produzione di biogas (idrogeno e metano). Come imminente prospettiva futura, avremo l'avviamento nelle migliori condizioni di processo dell'impianto pilota di depurazione fanghi ubicato presso la stazione di trattamento delle acque reflue urbane di Cadice - San fernando.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.