963 resultados para Cochran regressione lineare stima inferenza statistica
Resumo:
L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.
Resumo:
Untersucht werden in der vorliegenden Arbeit Versionen des Satzes von Michlin f¨r Pseudodiffe- u rentialoperatoren mit nicht-regul¨ren banachraumwertigen Symbolen und deren Anwendungen a auf die Erzeugung analytischer Halbgruppen von solchen Operatoren auf vektorwertigen Sobo- levr¨umen Wp (Rn
Resumo:
Diese Arbeit beschäftigt sich mit den Unterschieden zwischen linearen und verzweigten Oligomeren/Polymeren mit praktisch gleichem chemischem Bau. Untersucht wurden eine Reihe von ungeladenen Polymeren in Hinsicht auf deren Wechselwirkungsparameter mit Lö-sungsmitteln sowie peripher geladene Dendrimere im Hinblick auf deren Staudingerindices in Wasser. Bei den ungeladenen Oligomeren/Polymeren handelt es sich um Oligoisoprene, Polygly-cerine und Oligo-Dimetylsiloxane. Vor den thermodynamischen Messungen war es notwen-dig, die verzweigten Produkte durch diskontinuierliche Spinn-Fraktionierung von linearen Bestandteilen zu befreien. In diesem Zusammenhang wurden die Phasendiagramme der Aus-gangsproben und der fraktionierten Proben bestimmt und mit denen der entsprechenden linea-ren Polymeren verglichen. Die Ergebnisse zeigen deutliche Einflüsse der Molekularchitektur, wobei Mischungen aus linearen und verzweigten Polymeren plus niedermolekularen Flüssig-keiten infolge der Unverträglichkeit der hochmolekularen Komponenten ungewöhnliches Verhalten zeigen. Die Flory-Huggins Wechselwirkungsparameter von linearen und verzweigten Polyme-ren wurden mit Hilfe von Dampfdruckmessungen (Headspace-Gaschromatographie) und dampfdruckosmometrischen Messungen bei unterschiedlichen Temperaturen bestimmt. Es zeigt sich, daß die -Werte in komplexer Weise von der Konzentration abhängen und mit einem Ansatz nach Wolf (Gleichung 26 und 31) quantitativ modellierbar sind. Allgemein gilt die folgende Ungleichung: bra > lin. Die Untersuchungen bezüglich der Staudingerindeces von Polyelektrolyten wurden an vier Generationen von peripher geladenen Dendrimeren durchgeführt. Die Ergebnisse zeigen, dass die [ ] Werte mit zunehmender Generation deutlich sinken. Bei der 1. Generation ver-hält sich das Dendrimer noch sehr ähnlich wie lineare Polyelektrolyte. Mit steigender Zahl der Generationen nimmt der Staudingerindex trotz zunehmendem Molekulargewicht deutlich ab, da der Polyelektrolyteffekt (Aufweitung der Knäuel durch elektrostatische Wechselwirkung) an Bedeutung verliert. Der Grund dafür liegt in einer Zunahme des Abstands der Ladungen zur Hauptkette und der Tatsache, dass der Zahl der Ladungen pro Molekül bei konstantem n entsprechend einer quadratischen Reihe zu (2, 4, 8, 16) zunimmt. Wie aus Messungen an der ETH Zürich bekannt ist, verhalten sich ungeladene Dendrimere in organischen Lösungsmit-teln wie die Lösungen von linearem Polystyrol.
Resumo:
Stickstoffmonoxid (NO) ist als reaktives Spurengas eine wichtige Komponente atmosphärenchemischer Prozesse und hat somit einen bedeutenden Einfluss auf die Zusammensetzung der Atmosphäre. Eine Hauptquelle des Spurengases stellen bodenmikrobiologische Prozesse dar, deren regionaler und globaler Anteil weiterhin mit größeren Unsicherheiten geschätzt wird. Ursache für die schwere Abschätzbarkeit der NO-Freisetzung aus Böden ist die hohe räumliche Variabilität der steuernden Faktoren. Als einer der wichtigsten Faktoren, die die Freisetzung von NO aus Böden regeln, gilt der Bodenwassergehalt. Ziel der vorliegenden Arbeit ist es, den Zusammenhang zwischen NO-Freisetzung, Bodenwassergehalt, den Bodeneigenschaften und den Standortbedingungen zu untersuchen und diesen möglichst zu quantifizieren. Dazu sind Bodenproben unterschiedlicher Landnutzungen in einem kleineren Wassereinzugsgebiet im Rheingau im Labor, unter kontrollierten Bedingungen, untersucht. Der charakteristische Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung, die sogenannte Bodenfeuchtekurve, kann demnach weitestgehend auf die gemessenen Bodenmerkmale der untersuchten Proben zurückgeführt werden. Anhand der Bodenmerkmale kann die Bodenfeuchtekurve zufriedenstellend vorhergesagt werden. Dabei zeigt vor allem der Humusgehalt der Böden einen dominierenden Einfluss. Er ist die Variable, die die Unterschiede der Böden beim Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung am besten und hinreichend erklären kann. Zur Konstruktion der Bodenfeuchtekurve müssen die optimale Bodenfeuchte und die dabei herrschende Freisetzung, sowie die obere Bodenfeuchte, bei der keine NO-Freisetzung mehr stattfindet, bekannt sein. Diese charakteristischen Punkte lassen sich durch lineare Regressionsmodelle gut aus den Bodeneigenschaften ableiten. Auf räumlicher Ebene werden die Bodeneigenschaften durch die standörtlichen Bedingungen geprägt, die wiederum Ausdruck der landschaftlichen Ausstattung sind. In der Kulturlandschaft kann der Mensch aufgrund seiner Landnutzungsansprüche als der dominierende Faktor angesehen werden. Die Landnutzung orientiert sich an den landschaftlichen Bedingungen und bestimmt in hohem Maße wichtige Bodeneigenschaften, die zu den erklärenden Merkmalen bei der Beziehung zwischen Bodenwassergehalt und NO-Freisetzung gehören. Die in erster Linie wirtschaftlich orientierten Kartenwerke Bodenschätzung, Weinbergsbodenkartierung und forstliche Standortkartierung sind dementsprechend geeignete Grundlagen, um eine Regionalisierung der Landschaft in - bezüglich der NO-Freisetzung - weitgehend homogene Flächen durchführen zu können. Eine hierauf beruhende Regionalisierung ist dazu geeignet, die räumliche Variabilität der NO-Freisetzung in räumlich sinnvoller Auflösung besser abschätzen zu können.
Resumo:
Questa tesi è una panoramica di alcuni concetti base su cui si fonda la dinamica delle galassie. Nel primo capitolo vengono messi in evidenza i concetti più generali dal punto di vista morfologico- strutturale attraverso la classificazione di Hubble. Nel secondo capitolo si mette in evidenza come un sistema possa essere definito non collisionale (attraverso la stima del tempo di rilassamento ai due corpi) e le conseguenze che ne derivano come, per esempio, l' anisotropia dello stesso sistema che conferisce alla galassia la sua classica forma “schiacciata”. Vengono poi descritti la collisional Boltzmann equation (CBE) e il teorema del viriale in forma tensoriale . Integrando la CBE nello spazio delle velocità otteniamo tre equazioni note come equazioni di Jeans: queste hanno una struttura del tutto identica a quelle della fluidodinamica ma con alcune eccezioni significative che non permettono di descrivere completamente la dinamica delle galassie attraverso la fluidodinamica. Il terzo capitolo è un excursus generale sulle galassie ellittiche: dalla loro struttura alla loro dinamica. Dall' applicazione del teorema del viriale ad un sistema ellittico si può notare come la forma “schiacciata” delle galassie sia una conseguenza dell' anisotropia del sistema e sia dovuta solo in minima parte alla rotazione. Successivamente viene presentato un modello galattico (quello di Jeans), che ci permette di calcolare una distribuzione di massa del sistema attraverso un' equazione che purtroppo non ha soluzione unica e quindi ci rende impossibile calcolare il rapporto massa- luminosità. Infine viene descritto il fundamental plane che è una relazione empirica tale per cui ad ogni galassia viene associato un determinato valore di raggio effettivo, dispersione di velocità e luminosità. Nel quarto ed ultimo capitolo viene trattata la dinamica delle parti più esterne di una galassia: disco e bracci. La dinamica del disco è descritta attraverso la curva di rotazione che, come vedremo, ha delle caratteristiche abbastanza diverse da una curva di rotazione di tipo kepleriano (quella che ad esempio descrive l' andamento della velocità in funzione della distanza nel nostro sistema solare). Infine viene descritta la dinamica dei bracci e la teoria delle onde di densità di Lin e Shu, due astronomi americani, che riesce a descrivere compiutamente la nascita e l' evoluzione dei bracci a spirale.
Resumo:
In questo lavoro di tesi si è studiato il clustering degli ammassi di galassie e la determinazione della posizione del picco BAO per ottenere vincoli sui parametri cosmologici. A tale scopo si è implementato un codice per la stima dell'errore tramite i metodi di jackknife e bootstrap. La misura del picco BAO confrontata con i modelli cosmologici, grazie all'errore stimato molto piccolo, è risultato in accordo con il modelli LambdaCDM, e permette di ottenere vincoli su alcuni parametri dei modelli cosmologici.
Resumo:
Il lavoro di tesi parte da un presupposto di osservazione empirica. Dopo aver rilevato la ricorrenza da parte di registi teatrali del panorama internazionale all’adattamento di testi non drammatici, ma narrativi per la scena, si è deciso di indagare come la natura narrativa dei testi di partenza si adatti, permanga o muti nel passaggio dal medium narrativo a quello spettacolare. La tesi si suddivide in tre parti. Nella parte intitolata “Della metodologia” (un capitolo), viene illustrato il metodo adottato per affrontare l’analisi degli spettacoli teatrali. Facendo riferimento alla disciplina semiotica teatrale, si è definito l’oggetto empirico di studio come testo spettacolare/performance text. La seconda parte della tesi, “Della comparazione dei modelli comunicativi”, (due capitoli), procede nella definizione: 1) dell’elemento teorico da indagare nei testi spettacolari, ovvero, la “narratività”; 2) dei modelli comunicativi della narrazione e dello spettacolo teatrale e delle loro intersezioni o differenze. Nella terza parte della tesi, “Della critica”, (due capitoli), vengono analizzate alcune delle opere del regista Jurij Ljubimov (Russia), Eimuntas Nekrošius (Lituania), Alvis Hermanis (Lettonia). La scelta è ricaduta sulle opere di questi registi in base a una considerazione: 1) culturale: si è deliberatamente circoscritta la sfera di indagine alla produzione teatrale russa e post-sovietica; 2) estetica: è stato osservato che la linea registica inaugurata da Jurij Ljubimov va permeando l’attività registica di registi più giovani come Nekrošius e Hermanis; 3) statistica: Ljubimov, Nekrošius, Hermanis hanno scelto di mettere in scena testi non drammatici con una elevata frequenza. La tesi è corredata da un’ampia appendice iconografica. Per l’analisi dei testi spettacolari si è fatto riferimento alla visione degli spettacoli in presa diretta in Italia e all’estero.
Resumo:
Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati film sottili (circa 10 nm) di silicio amorfo idrogenato (a-Si:H), studiando in particolare leghe a basso contenuto di ossigeno e carbonio. Tali layer andranno ad essere implementati come strati di passivazione per wafer di Si monocristallino in celle solari ad eterogiunzione HIT (heterojunctions with intrinsic thin layer), con le quali recentemente è stato raggiunto il record di efficienza pari a 24.7% . La deposizione è avvenuta mediante PECVD (plasma enhanced chemical vapour deposition). Tecniche di spettroscopia ottica, come FT-IR (Fourier transform infrared spectroscopy) e SE (spettroscopic ellipsometry) sono state utilizzate per analizzare le configurazioni di legami eteronucleari (Si-H, Si-O, Si-C) e le proprietà strutturali dei film sottili: un nuovo metodo è stato implementato per calcolare i contenuti atomici di H, O e C da misure ottiche. In tal modo è stato possibile osservare come una bassa incorporazione (< 10%) di ossigeno e carbonio sia sufficiente ad aumentare la porosità ed il grado di disordine a lungo raggio del materiale: relativamente a quest’ultimo aspetto, è stata sviluppata una nuova tecnica per determinare dagli spettri ellisometrici l’energia di Urbach, che esprime la coda esponenziale interna al gap in semiconduttori amorfi e fornisce una stima degli stati elettronici in presenza di disordine reticolare. Nella seconda parte della tesi sono stati sviluppati esperimenti di annealing isocrono, in modo da studiare i processi di cristallizzazione e di effusione dell’idrogeno, correlandoli con la degradazione delle proprietà optoelettroniche. L’analisi dei differenti risultati ottenuti studiando queste particolari leghe (a-SiOx e a-SiCy) ha permesso di concludere che solo con una bassa percentuale di ossigeno o carbonio, i.e. < 3.5 %, è possibile migliorare la risposta termica dello specifico layer, ritardando i fenomeni di degradazione di circa 50°C.
Resumo:
This study focuses on the use of metabonomics applications in measuring fish freshness in various biological species and in evaluating how they are stored. This metabonomic approach is innovative and is based upon molecular profiling through nuclear magnetic resonance (NMR). On one hand, the aim is to ascertain if a type of fish has maintained, within certain limits, its sensory and nutritional characteristics after being caught; and on the second, the research observes the alterations in the product’s composition. The spectroscopic data obtained through experimental nuclear magnetic resonance, 1H-NMR, of the molecular profiles of the fish extracts are compared with those obtained on the same samples through analytical and conventional methods now in practice. These second methods are used to obtain chemical indices of freshness through biochemical and microbial degradation of the proteic nitrogen compounds and not (trimethylamine, N-(CH3)3, nucleotides, amino acids, etc.). At a later time, a principal components analysis (PCA) and a linear discriminant analysis (PLS-DA) are performed through a metabonomic approach to condense the temporal evolution of freshness into a single parameter. In particular, the first principal component (PC1) under both storage conditions (4 °C and 0 °C) represents the component together with the molecular composition of the samples (through 1H-NMR spectrum) evolving during storage with a very high variance. The results of this study give scientific evidence supporting the objective elements evaluating the freshness of fish products showing those which can be labeled “fresh fish.”
Resumo:
Perfusion CT imaging of the liver has potential to improve evaluation of tumour angiogenesis. Quantitative parameters can be obtained applying mathematical models to Time Attenuation Curve (TAC). However, there are still some difficulties for an accurate quantification of perfusion parameters due, for example, to algorithms employed, to mathematical model, to patient’s weight and cardiac output and to the acquisition system. In this thesis, new parameters and alternative methodologies about liver perfusion CT are presented in order to investigate the cause of variability of this technique. Firstly analysis were made to assess the variability related to the mathematical model used to compute arterial Blood Flow (BFa) values. Results were obtained implementing algorithms based on “ maximum slope method” and “Dual input one compartment model” . Statistical analysis on simulated data demonstrated that the two methods are not interchangeable. Anyway slope method is always applicable in clinical context. Then variability related to TAC processing in the application of slope method is analyzed. Results compared with manual selection allow to identify the best automatic algorithm to compute BFa. The consistency of a Standardized Perfusion Index (SPV) was evaluated and a simplified calibration procedure was proposed. At the end the quantitative value of perfusion map was analyzed. ROI approach and map approach provide related values of BFa and this means that pixel by pixel algorithm give reliable quantitative results. Also in pixel by pixel approach slope method give better results. In conclusion the development of new automatic algorithms for a consistent computation of BFa and the analysis and definition of simplified technique to compute SPV parameter, represent an improvement in the field of liver perfusion CT analysis.
Resumo:
Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.
Resumo:
Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.
Resumo:
Lo studio in esame si pone l'obiettivo di fornire dati sintetici ma rappresentativi del comportamento statico e sismico dell'Istituto di Matematica di Bologna (1965). Nella prima parte vengono descritte le fasi di conoscenza della geometria degli elementi e delle caratteristiche meccaniche dei materiali componenti la struttura in calcestruzzo armato. Nella seconda parte vengono descritte le verifiche condotte (SLE, SLU) e proposti i risultati sotto forma di istogrammi. Viene posta particolare attenzione alle verifiche sismiche allo SLV per le quali l' edificio mostra un comportamento critico.
Resumo:
The only nuclear model independent method for the determination of nuclear charge radii of short-lived radioactive isotopes is the measurement of the isotope shift. For light elements (Z < 10) extremely high accuracy in experiment and theory is required and was only reached for He and Li so far. The nuclear charge radii of the lightest elements are of great interest because they have isotopes which exhibit so-called halo nuclei. Those nuclei are characterized by a a very exotic nuclear structure: They have a compact core and an area of less dense nuclear matter that extends far from this core. Examples for halo nuclei are 6^He, 8^He, 11^Li and 11^Be that is investigated in this thesis. Furthermore these isotopes are of interest because up to now only for such systems with a few nucleons the nuclear structure can be calculated ab-initio. In the Institut für Kernchemie at the Johannes Gutenberg-Universität Mainz two approaches with different accuracy were developed. The goal of these approaches was the measurement of the isotope shifts between (7,10,11)^Be^+ and 9^Be^+ in the D1 line. The first approach is laser spectroscopy on laser cooled Be^+ ions that are trapped in a linear Paul trap. The accessible accuracy should be in the order of some 100 kHz. In this thesis two types of linear Paul traps were developed for this purpose. Moreover, the peripheral experimental setup was simulated and constructed. It allows the efficient deceleration of fast ions with an initial energy of 60 keV down to some eV and an effcient transport into the ion trap. For one of the Paul traps the ion trapping could already be demonstrated, while the optical detection of captured 9^Be^+ ions could not be completed, because the development work was delayed by the second approach. The second approach uses the technique of collinear laser spectroscopy that was already applied in the last 30 years for measuring isotope shifts of plenty of heavier isotopes. For light elements (Z < 10), it was so far not possible to reach the accuracy that is required to extract information about nuclear charge radii. The combination of collinear laser spectroscopy with the most modern methods of frequency metrology finally permitted the first-time determination of the nuclear charge radii of (7,10)^Be and the one neutron halo nucleus 11^Be at the COLLAPS experiment at ISOLDE/ CERN. In the course of the work reported in this thesis it was possible to measure the absolute transition frequencies and the isotope shifts in the D1 line for the Be isotopes mentioned above with an accuracy of better than 2 MHz. Combination with the most recent calculations of the mass effect allowed the extraction of the nuclear charge radii of (7,10,11)^Be with an relative accuracy better than 1%. The nuclear charge radius decreases from 7^Be continuously to 10^Be and increases again for 11^Be. This result is compared with predictions of ab-initio nuclear models which reproduce the observed trend. Particularly the "Greens Function Monte Carlo" and the "Fermionic Molecular Dynamic" model show very good agreement.