954 resultados para Electromagnetic fields
Resumo:
Complex Microwave Structures Wake Field Computatation PETRA III Generalized Multipole Technique Antenna Antennen Wakefelder Berechnung
Resumo:
feature extraction, feature tracking, vector field visualization
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2009
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2013
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2013
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2015
Resumo:
Otto-von-Guericke-Universität Magdeburg, Fakultät für Naturwissenschaften, Univ., Dissertation, 2015
Resumo:
Actualment, la resposta de la majoria d’instrumentació operacional i dels dosímetres personals utilitzats en radioprotecció per a la dosimetria neutrònica és altament dependent de l’energia dels espectres neutrònics a analitzar, especialment amb camps neutrònics amb una important component intermitja. En conseqüència, la interpretació de les lectures d’aquests aparells es complicada si no es té un coneixement previ de la distribució espectral de la fluència neutrònica en els punts d’interès. El Grup de Física de les Radiacions de la Universitat Autònoma de Barcelona (GFR-UAB) ha desenvolupat en els últims anys un espectròmetre de neutrons basat en un Sistema d’Esferes Bonner (BSS) amb un contador proporcional d’3He com a detector actiu. Els principals avantatges dels espectròmetres de neutrons per BSS són: la seva resposta isotròpica, la possibilitat de discriminar la component neutrònica de la gamma en camps mixtos, i la seva alta sensibilitat neutrònica als nivells de dosi analitzats. Amb aquestes característiques, els espectròmetres neutrònics per BSS compleixen amb els estándards de les últimes recomanacions de la ICRP i poden ser utilitzats també en el camp de la dosimetria neutrònica per a la mesura de dosis en el rang d’energia que va dels tèrmics fins als 20 MeV, en nou ordres de magnitud. En el marc de la col•laboració entre el GFR - UAB i el Laboratorio Nazionale di Frascati – Istituto Nazionale di Fisica Nucleare (LNF-INFN), ha tingut lloc una experiència comparativa d’espectrometria per BSS amb els feixos quasi monoenergètics de 2.5 MeV i 14 MeV del Fast Neutron Generator de l’ENEA. En l’exercici s’ha determinat l’espectre neutrònic a diferents distàncies del blanc de l’accelerador, aprofitant el codi FRUIT recentment desenvolupat pel grup LNF. Els resultats obtinguts mostren una bona coherència entre els dos espectròmetres i les dades mesurades i simulades.
Resumo:
The study was performed in the installations of OCAS, a Steel Research Centre of ArcelorMittal. Taking M32 steel (3.25%Si+0.9%Al) as the basis chemical composition and three different thicknesses (0.35, 0.5 and 0.65mm), different annealing conditions (temperature and time) have been applied in the laboratory simulator at St. Chély, France. The aim was to link annealing parameters, grain size and energy loss. It was determined the optimum annealing parameters to reach the lowest power losses for three different grades of non-oriented fully processed electrical steel. In addition, M250-50 samples having different magnetic behaviour (high and low losses) but the same grain size and texture, have been analyzed in terms of TEM observations of their precipitates, in the University of Marseille. The results reveal that a high amount of medium and big precipitates (&10 nm) worsen the magnetic properties of the material. The small precipitates (&10nm) do not have a strong influence on the magnetic properties. The presence of precipitates can have a great influence on the power losses and further work is clearly necessary.
Resumo:
Over the last decade, there has been a significant increase in the number of high-magnetic-field MRI magnets. However, the exact effect of a high magnetic field strength (B0 ) on diffusion-weighted MR signals is not yet fully understood. The goal of this study was to investigate the influence of different high magnetic field strengths (9.4 T and 14.1 T) and diffusion times (9, 11, 13, 15, 17 and 24 ms) on the diffusion-weighted signal in rat brain white matter. At a short diffusion time (9 ms), fractional anisotropy values were found to be lower at 14.1 T than at 9.4 T, but this difference disappeared at longer diffusion times. A simple two-pool model was used to explain these findings. The model describes the white matter as a first hindered compartment (often associated with the extra-axonal space), characterized by a faster orthogonal diffusion and a lower fractional anisotropy, and a second restricted compartment (often associated with the intra-axonal space), characterized by a slower orthogonal diffusion (i.e. orthogonal to the axon direction) and a higher fractional anisotropy. Apparent T2 relaxation time measurements of the hindered and restricted pools were performed. The shortening of the pseudo-T2 value from the restricted compartment with B0 is likely to be more pronounced than the apparent T2 changes in the hindered compartment. This study suggests that the observed differences in diffusion tensor imaging parameters between the two magnetic field strengths at short diffusion time may be related to differences in the apparent T2 values between the pools. Copyright © 2013 John Wiley & Sons, Ltd.
Resumo:
"Vegeu el resum a l'inici del document del fitxer adjunt."
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
A parts based model is a parametrization of an object class using a collection of landmarks following the object structure. The matching of parts based models is one of the problems where pairwise Conditional Random Fields have been successfully applied. The main reason of their effectiveness is tractable inference and learning due to the simplicity of involved graphs, usually trees. However, these models do not consider possible patterns of statistics among sets of landmarks, and thus they sufffer from using too myopic information. To overcome this limitation, we propoese a novel structure based on a hierarchical Conditional Random Fields, which we explain in the first part of this memory. We build a hierarchy of combinations of landmarks, where matching is performed taking into account the whole hierarchy. To preserve tractable inference we effectively sample the label set. We test our method on facial feature selection and human pose estimation on two challenging datasets: Buffy and MultiPIE. In the second part of this memory, we present a novel approach to multiple kernel combination that relies on stacked classification. This method can be used to evaluate the landmarks of the parts-based model approach. Our method is based on combining responses of a set of independent classifiers for each individual kernel. Unlike earlier approaches that linearly combine kernel responses, our approach uses them as inputs to another set of classifiers. We will show that we outperform state-of-the-art methods on most of the standard benchmark datasets.
Resumo:
The control of optical fields on the nanometre scale is becoming an increasingly important tool in many fields, ranging from channelling light delivery in photovoltaics and light emitting diodes to increasing the sensitivity of chemical sensors to single molecule levels. The ability to design and manipulate light fields with specific frequency and space characteristics is explored in this project. We present an alternative realisation of Extraordinary Optical Transmission (EOT) that requires only a single aperture and a coupled waveguide. We show how this waveguide-resonant EOT improves the transmissivity of single apertures. An important technique in imaging is Near-Field Scanning Optical Microscopy (NSOM); we show how waveguide-resonant EOT and the novel probe design assist in improving the efficiency of NSOM probes by two orders of magnitude, and allow the imaging of single molecules with an optical resolution of as good as 50 nm. We show how optical antennas are fabricated into the apex of sharp tips and can be used in a near-field configuration.