993 resultados para Temporal resolution
Resumo:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques.
Resumo:
Chronic liver failure leads to hyperammonemia, a central component in the pathogenesis of hepatic encephalopathy (HE); however, a correlation between blood ammonia levels and HE severity remains controversial. It is believed oxidative stress plays a role in modulating the effects of hyperammonemia. This study aimed to determine the relationship between chronic hyperammonemia, oxidative stress, and brain edema (BE) in two rat models of HE: portacaval anastomosis (PCA) and bile-duct ligation (BDL). Ammonia and reactive oxygen species (ROS) levels, BE, oxidant and antioxidant enzyme activities, as well as lipid peroxidation were assessed both systemically and centrally in these two different animal models. Then, the effects of allopurinol (xanthine oxidase inhibitor, 100mg/kg for 10days) on ROS and BE and the temporal resolution of ammonia, ROS, and BE were evaluated only in BDL rats. Similar arterial and cerebrospinal fluid ammonia levels were found in PCA and BDL rats, both significantly higher compared to their respective sham-operated controls (p<0.05). BE was detected in BDL rats (p<0.05) but not in PCA rats. Evidence of oxidative stress was found systemically but not centrally in BDL rats: increased levels of ROS, increased activity of xanthine oxidase (oxidant enzyme), enhanced oxidative modifications on lipids, as well as decreased antioxidant defense. In PCA rats, a preserved oxidant/antioxidant balance was demonstrated. Treatment with allopurinol in BDL rats attenuated both ROS and BE, suggesting systemic oxidative stress is implicated in the pathogenesis of BE. Analysis of ROS and ammonia temporal resolution in the plasma of BDL rats suggests systemic oxidative stress might be an important "first hit", which, followed by increases in ammonia, leads to BE in chronic liver failure. In conclusion, chronic hyperammonemia and oxidative stress in combination lead to the onset of BE in rats with chronic liver failure.
Resumo:
L’état d’attention sans réflexion, aussi appelé « mindfulness », a démontré des effets positifs en clinique pour les désordres émotionnels associés à diverses conditions. Le nombre d’études portant sur la caractérisation des substrats neuronaux de cet état attentionnel croît, mais il importe d’investiguer davantage à ce chapitre pour éventuellement améliorer les interventions cliniques. La présente étude compte aider à déterminer, par la magnétoencéphalographie, quelles régions cérébrales sont en corrélation avec le mindfulness chez des experts, i.e. des méditants Zen. Ces derniers cultivent un état dans lequel ils s’abstiennent de rechercher ou de rejeter les phénomènes sensoriels, ce qui en fait d’excellents candidats à la présente étude. Dans un contexte de stimulations visuelles émotionnelles, il fut demandé aux méditants tantôt d’observer les images dans un état de mindfulness (condition expérimentale), tantôt dans un état dit normal (condition contrôle) où aucun effort particulier d’attention n’était requis. Les résultats d’analyse suggèrent que les participants expérimentèrent une intensité émotionnelle moins importante en mindfulness : les cotes subjectives ainsi qu’une réponse magnétique cérébrale reliée aux émotions nommée Potentiel Positif Tardif magnétique (PPTm) suggèrent cela. Cependant, le résultat le plus statistiquement probant dépasse la nature affective des stimuli. Il s’agit d’une diminution temporellement soutenue de l’activité de fréquence gamma au niveau des zones visuelles associatives du lobe temporal droit, sans égard à la nature des images. Également, une suppression de l’activité gamma d’une zone du cortex préfrontal latéral gauche fut observée. Ceci pourrait indiquer une diminution de la conceptualisation des stimuli reliée au langage et aux processus réflectifs du soi.
Resumo:
L'épilepsie constitue le désordre neurologique le plus fréquent après les maladies cérébrovasculaires. Bien que le contrôle des crises se fasse généralement au moyen d'anticonvulsivants, environ 30 % des patients y sont réfractaires. Pour ceux-ci, la chirurgie de l'épilepsie s'avère une option intéressante, surtout si l’imagerie par résonance magnétique (IRM) cérébrale révèle une lésion épileptogène bien délimitée. Malheureusement, près du quart des épilepsies partielles réfractaires sont dites « non lésionnelles ». Chez ces patients avec une IRM négative, la délimitation de la zone épileptogène doit alors reposer sur la mise en commun des données cliniques, électrophysiologiques (EEG de surface ou intracrânien) et fonctionnelles (tomographie à émission monophotonique ou de positrons). La faible résolution spatiale et/ou temporelle de ces outils de localisation se traduit par un taux de succès chirurgical décevant. Dans le cadre de cette thèse, nous avons exploré le potentiel de trois nouvelles techniques pouvant améliorer la localisation du foyer épileptique chez les patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie d’épilepsie : l’IRM à haut champ, la spectroscopie proche infrarouge (SPIR) et la magnétoencéphalographie (MEG). Dans une première étude, nous avons évalué si l’IRM de haut champ à 3 Tesla (T), présentant théoriquement un rapport signal sur bruit plus élevé que l’IRM conventionnelle à 1,5 T, pouvait permettre la détection des lésions épileptogènes subtiles qui auraient été manquées par cette dernière. Malheureusement, l’IRM 3 T n’a permis de détecter qu’un faible nombre de lésions épileptogènes supplémentaires (5,6 %) d’où la nécessité d’explorer d’autres techniques. Dans les seconde et troisième études, nous avons examiné le potentiel de la SPIR pour localiser le foyer épileptique en analysant le comportement hémodynamique au cours de crises temporales et frontales. Ces études ont montré que les crises sont associées à une augmentation significative de l’hémoglobine oxygénée (HbO) et l’hémoglobine totale au niveau de la région épileptique. Bien qu’une activation contralatérale en image miroir puisse être observée sur la majorité des crises, la latéralisation du foyer était possible dans la plupart des cas. Une augmentation surprenante de l’hémoglobine désoxygénée a parfois pu être observée suggérant qu’une hypoxie puisse survenir même lors de courtes crises focales. Dans la quatrième et dernière étude, nous avons évalué l’apport de la MEG dans l’évaluation des patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie. Il s’est avéré que les localisations de sources des pointes épileptiques interictales par la MEG ont eu un impact majeur sur le plan de traitement chez plus des deux tiers des sujets ainsi que sur le devenir postchirurgical au niveau du contrôle des crises.
Resumo:
Jusqu'à récemment, les patients souffrant d'épilepsie réfractaire aux traitements médicamenteux étaient destinés à un avenir incertain. Le recours à la chirurgie comme traitement alternatif offre l'espoir de mener un jour une vie normale. Pour déterminer si un patient peut bénéficier d’une intervention chirurgicale, une évaluation complète est cruciale. Les méthodes d’évaluation préchirurgicale ont connu des progrès importants au cours des dernières décennies avec le perfectionnement des techniques d’imagerie cérébrale. Parmi ces techniques, la spectroscopie proche infrarouge (SPIR), aussi connue sous le nom d’imagerie optique, présente de nombreux avantages (coût, mobilité du participant, résolution spatiale et temporelle, etc.). L’objectif principal de cette étude est de développer un protocole d'évaluation préchirurgicale de la mémoire. Une tâche de mémoire verbale incluant l’encodage, le rappel immédiat et le rappel différé de listes de mots a été administrée à dix adultes sains lors d’un enregistrement en imagerie optique. Les résultats obtenus suggèrent l’activation bilatérale des aires préfrontales antérieures et dorsolatérales ainsi que des aires temporales antérieures et moyennes. Les aires préfrontales et temporales antérieures semblent modulées par les différents processus mnésiques et la position du rappel dans le temps. La première fois qu’une liste est rappelée, l’activité hémodynamique est plus élevée que lors des rappels subséquents, et ce, davantage dans l’hémisphère gauche que dans l’hémisphère droit. Cette étude constitue la première étape dans le processus de validation du protocole à des fins cliniques auprès de patients épileptiques.
Resumo:
Les diagnostics cliniques des maladies cardio-vasculaires sont principalement effectués à l’aide d’échographies Doppler-couleur malgré ses restrictions : mesures de vélocité dépendantes de l’angle ainsi qu’une fréquence d’images plus faible à cause de focalisation traditionnelle. Deux études, utilisant des approches différentes, adressent ces restrictions en utilisant l’imagerie à onde-plane, post-traitée avec des méthodes de délai et sommation et d’autocorrélation. L’objectif de la présente étude est de ré-implémenté ces méthodes pour analyser certains paramètres qui affecte la précision des estimations de la vélocité du flux sanguin en utilisant le Doppler vectoriel 2D. À l’aide d’expériences in vitro sur des flux paraboliques stationnaires effectuées avec un système Verasonics, l’impact de quatre paramètres sur la précision de la cartographie a été évalué : le nombre d’inclinaisons par orientation, la longueur d’ensemble pour les images à orientation unique, le nombre de cycles par pulsation, ainsi que l’angle de l’orientation pour différents flux. Les valeurs optimales sont de 7 inclinaisons par orientation, une orientation de ±15° avec 6 cycles par pulsation. La précision de la reconstruction est comparable à l’échographie Doppler conventionnelle, tout en ayant une fréquence d’image 10 à 20 fois supérieure, permettant une meilleure caractérisation des transitions rapides qui requiert une résolution temporelle élevée.
Resumo:
Connue pour augmenter les temps de réponse et les erreurs, l’alternance des tâches est considérée par les industriels comme un point de friction humain depuis plusieurs décennies. Pourtant malgré l’important nombre d’études sur l’alternance des tâches, peu s'intéressent à l'électrophysiologie humaine et au déploiement de l’attention visuospatiale. Le travail qui suit décrit notre incursion destinée à approfondir les connaissances autant sur les paradigmes d’alternance de tâche que les composantes électrophysiologiques typiquement reliées au déploiement de l’attention visuospatiale telles la N2pc ou la Ppc récemment décrite par Corriveau et al. (2012). Afin d’examiner les modulations des composantes électrophysiologiques sus nommées en fonction des coûts d’alternance, un paradigme d’alternance des tâches regroupant des blocs mixtes (avec alternance) et des blocs purs (sans alternance) a été utilisé. Les résultats démontrent un impact du coût d’alternance sur la latence de la N2pc, ce qui reflète comme attendu d’un processus de contrôle cognitif descendant sur la sélection attentionnelle visospatiale. De manière plus surprenante, des modulations de Ppc ont été observées, tandis que cette composante était jusqu’alors comprise comme une composante principalement reliée à une activité ascendante de bas niveau de traitement. Cette modulation de Ppc suggère l'existence d’un autre mécanisme de modulation attentionnelle antérieur à la N2pc.
Resumo:
Grâce à son accessibilité, sa polyvalence et sa sécurité, l'échocardiographie est devenue la technique d'imagerie la plus utilisée pour évaluer la fonction cardiaque. Au vu du succès de l'échographie ultrarapide par ondes planes des techniques similaires pour augmenter la résolution temporelle en échocardiographie ont été mise en oeuvre. L’augmentation de la résolution temporelle de l’échographie cardiaque au-delà des valeurs actuellement atteignables (~ 60 à 80 images par secondes), pourrait être utilisé pour améliorer d’autres caractéristiques de l'échocardiographie, comme par exemple élargir la plage de vitesses détectables en imagerie Doppler couleur limitées par la valeur de Nyquist. Nous avons étudié l'échocardiographie ultrarapide en utilisant des fronts d’ondes ultrasonores divergentes. La résolution temporelle atteinte par la méthode d'ondes divergentes a permis d’améliorer les capacités des modes d’échocardiographie en mode B et en Doppler couleur. La résolution temporelle de la méthode mode B a été augmentée jusqu'à 633 images par secondes, tout en gardant une qualité d'image comparable à celle de la méthode d’échocardiographie conventionnelle. La vitesse de Nyquist de la méthode Doppler couleur a été multipliée jusqu'à 6 fois au delà de la limite conventionnelle en utilisant une technique inspirée de l’imagerie radar; l’implémentation de cette méthode n’aurait pas été possible sans l’utilisation de fronts d’ondes divergentes. Les performances avantageuses de la méthode d'échocardiographie ultrarapide sont supportées par plusieurs résultats in vitro et in vivo inclus dans ce manuscrit.
Resumo:
In the present study the availability of satellite altimeter sea level data with good spatial and temporal resolution is explored to describe and understand circulation of the tropical Indian Ocean. The derived geostrophic circulations showed large variability in all scales. The seasonal cycle described using monthly climatology generated using 12 years SSH data from 1993 to 2004 revealed several new aspects of tropical Indian Ocean circulation. The interannual variability presented in this study using monthly means of SSH data for 12 years have shown large year-to-year variability. The EOF analysis has shown the influence of several periodic signals in the annual and interannual scales where the relative strengths of the signals also varied from year to year. Since one of the reasons for this kind of variability in circulation is the presence of planetary waves. This study discussed the influence of such waves on circulation by presenting two cases one in the Arabian Sea and other in the Bay of Bengal.
Resumo:
Global Positioning System (GPS), with its high integrity, continuous availability and reliability, revolutionized the navigation system based on radio ranging. With four or more GPS satellites in view, a GPS receiver can find its location anywhere over the globe with accuracy of few meters. High accuracy - within centimeters, or even millimeters is achievable by correcting the GPS signal with external augmentation system. The use of satellite for critical application like navigation has become a reality through the development of these augmentation systems (like W AAS, SDCM, and EGNOS, etc.) with a primary objective of providing essential integrity information needed for navigation service in their respective regions. Apart from these, many countries have initiated developing space-based regional augmentation systems like GAGAN and IRNSS of India, MSAS and QZSS of Japan, COMPASS of China, etc. In future, these regional systems will operate simultaneously and emerge as a Global Navigation Satellite System or GNSS to support a broad range of activities in the global navigation sector.Among different types of error sources in the GPS precise positioning, the propagation delay due to the atmospheric refraction is a limiting factor on the achievable accuracy using this system. The WADGPS, aimed for accurate positioning over a large area though broadcasts different errors involved in GPS ranging including ionosphere and troposphere errors, due to the large temporal and spatial variations in different atmospheric parameters especially in lower atmosphere (troposphere), the use of these broadcasted tropospheric corrections are not sufficiently accurate. This necessitated the estimation of tropospheric error based on realistic values of tropospheric refractivity. Presently available methodologies for the estimation of tropospheric delay are mostly based on the atmospheric data and GPS measurements from the mid-latitude regions, where the atmospheric conditions are significantly different from that over the tropics. No such attempts were made over the tropics. In a practical approach when the measured atmospheric parameters are not available analytical models evolved using data from mid-latitudes for this purpose alone can be used. The major drawback of these existing models is that it neglects the seasonal variation of the atmospheric parameters at stations near the equator. At tropics the model underestimates the delay in quite a few occasions. In this context, the present study is afirst and major step towards the development of models for tropospheric delay over the Indian region which is a prime requisite for future space based navigation program (GAGAN and IRNSS). Apart from the models based on the measured surface parameters, a region specific model which does not require any measured atmospheric parameter as input, but depends on latitude and day of the year was developed for the tropical region with emphasis on Indian sector.Large variability of atmospheric water vapor content in short spatial and/or temporal scales makes its measurement rather involved and expensive. A local network of GPS receivers is an effective tool for water vapor remote sensing over the land. This recently developed technique proves to be an effective tool for measuring PW. The potential of using GPS to estimate water vapor in the atmosphere at all-weather condition and with high temporal resolution is attempted. This will be useful for retrieving columnar water vapor from ground based GPS data. A good network of GPS could be a major source of water vapor information for Numerical Weather Prediction models and could act as surrogate to the data gap in microwave remote sensing for water vapor over land.
Resumo:
Atmospheric surface boundary layer parameters vary anomalously in response to the occurrence of annular solar eclipse on 15th January 2010 over Cochin. It was the longest annular solar eclipse occurred over South India with high intensity. As it occurred during the noon hours, it is considered to be much more significant because of its effects in all the regions of atmosphere including ionosphere. Since the insolation is the main driving factor responsible for the anomalous changes occurred in the surface layer due to annular solar eclipse, occurred on 15th January 2010, that played very important role in understanding dynamics of the atmosphere during the eclipse period because of its coincidence with the noon time. The Sonic anemometer is able to give data of zonal, meridional and vertical wind as well as the air temperature at a temporal resolution of 1 s. Different surface boundary layer parameters and turbulent fluxes were computed by the application of eddy correlation technique using the high resolution station data. The surface boundary layer parameters that are computed using the sonic anemometer data during the period are momentum flux, sensible heat flux, turbulent kinetic energy, frictional velocity (u*), variance of temperature, variances of u, v and w wind. In order to compare the results, a control run has been done using the data of previous day as well as next day. It is noted that over the specified time period of annular solar eclipse, all the above stated surface boundary layer parameters vary anomalously when compared with the control run. From the observations we could note that momentum flux was 0.1 Nm 2 instead of the mean value 0.2 Nm-2 when there was eclipse. Sensible heat flux anomalously decreases to 50 Nm 2 instead of the mean value 200 Nm 2 at the time of solar eclipse. The turbulent kinetic energy decreases to 0.2 m2s 2 from the mean value 1 m2s 2. The frictional velocity value decreases to 0.05 ms 1 instead of the mean value 0.2 ms 1. The present study aimed at understanding the dynamics of surface layer in response to the annular solar eclipse over a tropical coastal station, occurred during the noon hours. Key words: annular solar eclipse, surface boundary layer, sonic anemometer
Resumo:
Multimodal imaging agents that combine magnetic and fluorescent imaging capabilities are desirable for the high spatial and temporal resolution. In the present work, we report the synthesis of multifunctional fluorescent ferrofluids using iron oxide as the magnetic core and rhodamine B as fluorochrome shell. The core–shell structure was designed in such a way that fluorescence quenching due to the inner magnetic core was minimized by an intermediate layer of silica. The intermediate passive layer of silica was realized by a novel method which involves the esterification reaction between the epoxy group of prehydrolysed 3-Glyidoxypropyltrimethoxysilane and the surfactant over iron oxide. The as-synthesized ferrofluids have a high saturation magnetization in the range of 62–65 emu/g and were found to emit light of wavelength 640 nm ( excitation = 446 nm). Time resolved life time decay analysis showed a bi-exponential decay pattern with an increase in the decay life time in the presence of intermediate silica layer. Cytotoxicity studies confirmed the cell viability of these materials. The in vitro MRI imaging illustrated a high contrast when these multimodal nano probes were employed and the R2 relaxivity of these ∗Author to whom correspondence should be addressed. Email: smissmis@gmail.com sample was found to be 334 mM−1s−1 which reveals its high potential as a T2 contrast enhancing agent
Resumo:
Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.
Resumo:
Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.
Resumo:
We suggest that climate variability in Europe for the “pre-industrial” period 1500–1900 is fundamentally a consequence of internal fluctuations of the climate system. This is because a model simulation, using fixed pre-industrial forcing, in several important aspects is consistent with recent observational reconstructions at high temporal resolution. This includes extreme warm and cold seasonal events as well as different measures of the decadal to multi-decadal variance. Significant trends of 50-year duration can be seen in the model simulation. While the global temperature is highly correlated with ENSO (El Nino- Southern Oscillation), European seasonal temperature is only weakly correlated with the global temperature broadly consistent with data from ERA-40 reanalyses. Seasonal temperature anomalies of the European land area are largely controlled by the position of the North Atlantic storm tracks. We believe the result is highly relevant for the interpretation of past observational records suggesting that the effect of external forcing appears to be of secondary importance. That variations in the solar irradiation could have been a credible cause of climate variations during the last centuries, as suggested in some previous studies, is presumably due to the fact that the models used in these studies may have underestimated the internal variability of the climate. The general interpretation from this study is that the past climate is just one of many possible realizations and thus in many respects not reproducible in its time evolution with a general circulation model but only reproducible in a statistical sense.