968 resultados para two-centre atomic orbital close coupling method
Resumo:
By coupling the Boundary Element Method (BEM) and the Finite Element Method (FEM) an algorithm that combines the advantages of both numerical processes is developed. The main aim of the work concerns the time domain analysis of general three-dimensional wave propagation problems in elastic media. In addition, mathematical and numerical aspects of the related BE-, FE- and BE/FE-formulations are discussed. The coupling algorithm allows investigations of elastodynamic problems with a BE- and a FE-subdomain. In order to observe the performance of the coupling algorithm two problems are solved and their results compared to other numerical solutions.
Resumo:
This paper presents an HP-Adaptive Procedure with Hierarchical formulation for the Boundary Element Method in 2-D Elasticity problems. Firstly, H, P and HP formulations are defined. Then, the hierarchical concept, which allows a substantial reduction in the dimension of equation system, is introduced. The error estimator used is based on the residual computation over each node inside an element. Finally, the HP strategy is defined and applied to two examples.
Resumo:
Numerical simulation of plasma sources is very important. Such models allows to vary different plasma parameters with high degree of accuracy. Moreover, they allow to conduct measurements not disturbing system balance.Recently, the scientific and practical interest increased in so-called two-chamber plasma sources. In one of them (small or discharge chamber) an external power source is embedded. In that chamber plasma forms. In another (large or diffusion chamber) plasma exists due to the transport of particles and energy through the boundary between chambers.In this particular work two-chamber plasma sources with argon and oxygen as active mediums were onstructed. This models give interesting results in electric field profiles and, as a consequence, in density profiles of charged particles.
Resumo:
Using the Physical Vapor Transport method, single crystals of Cd2Re207 have been grown, and crystals of dimensions up to 8x6x2 mm have been achieved. X-ray diffraction from a single crystal of Cd2Re207 has showed the crystal growth in the (111) plane. Powder X-ray diffraction measurements were performed on ^^O and ^^O samples, however no difference was observed. Assigning the space group Fd3m to Cd2Re207 at room temperature and using structure factor analysis, the powder X-ray diffraction pattern of the sample was explained through systematic reflection absences. The temperatiure dependence of the resistivity measurement of ^^O has revealed two structural phase transitions at 120 and 200 K, and the superconducting transition at 1.0 K. Using Factor Group Analysis on three different structiures of Cd2Re207, the number of IR and Raman active phonon modes close to the Brillouin zone centre have been determined and the results have been compared to the temperature-dependence of the Raman shifts of ^^O and ^*0 samples. After scaling (via removing Bose-Einstein and Rayleigh scattering factors from the scattered light) all spectra, each spectrum was fitted with a number of Lorentzian peaks. The temperature-dependence of the FWHM and Raman shift of mode Eg, shows the effects of the two structurjil phase transitions above Tc. The absolute reflectance of Cd2Re207 - '^O single crystals in the far-infrared spectral region (7-700 cm~^) has been measured in the superconducting state (0.5 K), right above the superconducting state (1.5 K), and in the normal state (4.2 K). Thermal reflectance of the sample at 0.5 K and 1.5 K indicates a strong absorption feature close to 10 cm~^ in the superconducting state with a reference temperature of 4.2 K. By means of Kramers-Kronig analysis, the absolute reflectance was used to calculate the optical conductivity and dielectric function. The real part of optical conductivity shows five distinct active phonon modes at 44, 200, 300, 375, and 575 cm~' at all temperatures including a Drude-like behavior at low frequencies. The imaginary part of the calculated dielectric function indicates a mode softening of the mode 44 cm~' below Tc.
Resumo:
Arsenic, bismuth, germanium, antimony and tin were simultaneously determined by continuous hydride generation and inductively coupled plasma-atomic emission spectrometry . I Hydrides were introduced into four different types of gas-liquid separators. Two of the gas-liquid separators were available in-house. A third was developed for this project and a fourth was based on a design used by CET AC. The best signal intensity was achieved by the type II frit-based gas-liquid separator, but the modified Cetac design gave promise for the future, due to low relative standard deviation. A method was developed for the determination of arsenic, bismuth, antimony and tin in low-alloy steels. Four standard reference materials from NIST were dissolved in 10 mL aqua regia without heat. Good agreement was obtained between experimental values and certified values for arsenic, bismuth, antimony and tin. The method was developed to provide the analyst with the opportunity to determine the analytes by using simple aqueous standards to prepare calibration lines. Within the limits of the samples analyzed, the method developed is independent of matrix.
Resumo:
Bien que les champignons soient régulièrement utilisés comme modèle d'étude des systèmes eucaryotes, leurs relations phylogénétiques soulèvent encore des questions controversées. Parmi celles-ci, la classification des zygomycètes reste inconsistante. Ils sont potentiellement paraphylétiques, i.e. regroupent de lignées fongiques non directement affiliées. La position phylogénétique du genre Schizosaccharomyces est aussi controversée: appartient-il aux Taphrinomycotina (précédemment connus comme archiascomycetes) comme prédit par l'analyse de gènes nucléaires, ou est-il plutôt relié aux Saccharomycotina (levures bourgeonnantes) tel que le suggère la phylogénie mitochondriale? Une autre question concerne la position phylogénétique des nucléariides, un groupe d'eucaryotes amiboïdes que l'on suppose étroitement relié aux champignons. Des analyses multi-gènes réalisées antérieurement n'ont pu conclure, étant donné le choix d'un nombre réduit de taxons et l'utilisation de six gènes nucléaires seulement. Nous avons abordé ces questions par le biais d'inférences phylogénétiques et tests statistiques appliqués à des assemblages de données phylogénomiques nucléaires et mitochondriales. D'après nos résultats, les zygomycètes sont paraphylétiques (Chapitre 2) bien que le signal phylogénétique issu du jeu de données mitochondriales disponibles est insuffisant pour résoudre l'ordre de cet embranchement avec une confiance statistique significative. Dans le Chapitre 3, nous montrons à l'aide d'un jeu de données nucléaires important (plus de cent protéines) et avec supports statistiques concluants, que le genre Schizosaccharomyces appartient aux Taphrinomycotina. De plus, nous démontrons que le regroupement conflictuel des Schizosaccharomyces avec les Saccharomycotina, venant des données mitochondriales, est le résultat d'un type d'erreur phylogénétique connu: l'attraction des longues branches (ALB), un artéfact menant au regroupement d'espèces dont le taux d'évolution rapide n'est pas représentatif de leur véritable position dans l'arbre phylogénétique. Dans le Chapitre 4, en utilisant encore un important jeu de données nucléaires, nous démontrons avec support statistique significatif que les nucleariides constituent le groupe lié de plus près aux champignons. Nous confirmons aussi la paraphylie des zygomycètes traditionnels tel que suggéré précédemment, avec support statistique significatif, bien que ne pouvant placer tous les membres du groupe avec confiance. Nos résultats remettent en cause des aspects d'une récente reclassification taxonomique des zygomycètes et de leurs voisins, les chytridiomycètes. Contrer ou minimiser les artéfacts phylogénétiques telle l'attraction des longues branches (ALB) constitue une question récurrente majeure. Dans ce sens, nous avons développé une nouvelle méthode (Chapitre 5) qui identifie et élimine dans une séquence les sites présentant une grande variation du taux d'évolution (sites fortement hétérotaches - sites HH); ces sites sont connus comme contribuant significativement au phénomène d'ALB. Notre méthode est basée sur un test de rapport de vraisemblance (likelihood ratio test, LRT). Deux jeux de données publiés précédemment sont utilisés pour démontrer que le retrait graduel des sites HH chez les espèces à évolution accélérée (sensibles à l'ALB) augmente significativement le support pour la topologie « vraie » attendue, et ce, de façon plus efficace comparée à d'autres méthodes publiées de retrait de sites de séquences. Néanmoins, et de façon générale, la manipulation de données préalable à l'analyse est loin d’être idéale. Les développements futurs devront viser l'intégration de l'identification et la pondération des sites HH au processus d'inférence phylogénétique lui-même.
Resumo:
Dans ce mémoire, nous étudions le problème centre-foyer sur un système polynomial. Nous développons ainsi deux mécanismes permettant de conclure qu’un point singulier monodromique dans ce système non-linéaire polynomial est un centre. Le premier mécanisme est la méthode de Darboux. Cette méthode utilise des courbes algébriques invariantes dans la construction d’une intégrale première. La deuxième méthode analyse la réversibilité algébrique ou analytique du système. Un système possédant une singularité monodromique et étant algébriquement ou analytiquement réversible à ce point sera nécessairement un centre. Comme application, dans le dernier chapitre, nous considérons le modèle de Gauss généralisé avec récolte de proies.
Resumo:
Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.
Resumo:
European Union Series
Resumo:
Queueing system in which arriving customers who find all servers and waiting positions (if any) occupied many retry for service after a period of time are retrial queues or queues with repeated attempts. This study deals with two objectives one is to introduce orbital search in retrial queueing models which allows to minimize the idle time of the server. If the holding costs and cost of using the search of customers will be introduced, the results we obtained can be used for the optimal tuning of the parameters of the search mechanism. The second one is to provide insight of the link between the corresponding retrial queue and the classical queue. At the end we observe that when the search probability Pj = 1 for all j, the model reduces to the classical queue and when Pj = 0 for all j, the model becomes the retrial queue. It discusses the performance evaluation of single-server retrial queue. It was determined by using Poisson process. Then it discuss the structure of the busy period and its analysis interms of Laplace transforms and also provides a direct method of evaluation for the first and second moments of the busy period. Then it discusses the M/ PH/1 retrial queue with disaster to the unit in service and orbital search, and a multi-server retrial queueing model (MAP/M/c) with search of customers from the orbit. MAP is convenient tool to model both renewal and non-renewal arrivals. Finally the present model deals with back and forth movement between classical queue and retrial queue. In this model when orbit size increases, retrial rate also correspondingly increases thereby reducing the idle time of the server between services
Resumo:
Despite its recognized value in detecting and characterizing breast disease, X-ray mammography has important limitations that motivate the quest for alternatives to augment the diagnostic tools that are currently available to the radiologist. The rationale for pursuing electromagnetic methods are based on the significant dielectric contrast between normal and cancerous breast tissues, when exposed to microwaves. The present study analyzes two-dimensional microwave tomographic imaging on normal and malignant breast tissue samples extracted by mastectomy, to assess the suitability of the technique for early detection ofbreast cancer. The tissue samples are immersed in matching coupling medium and are illuminated by 3 GHz signal. 2-D tomographic images ofthe breast tissue samples are reconstructed from the collected scattered data using distorted Born iterative method. Variations of dielectric permittivity in breast samples are distinguishable from the obtained permittivity profiles, which is a clear indication of the presence of malignancy. Hence microwave tomographic imaging is proposed as an alternate imaging modality for early detection ofbreast cancer.
Resumo:
In the present thesis we have formulated the Dalgarno-Lewis procedure for two-and three-photon processes and an elegant alternate expressions are derived. Starting from a brief review on various multiphoton processes we have discussed the difficulties coming in the perturbative treatment of multiphoton processes. A small discussion on various available methods for studying multiphoton processes are presented in chapter 2. These theoretical treatments mainly concentrate on the evaluation of the higher order matrix elements coming in the perturbation theory. In chapter 3 we have described the use of Dalgarno-Lewis procedure and its implimentation on second order matrix elements. The analytical expressions for twophoton transition amplitude, two-photon ionization cross section, dipole dynamic polarizability and Kramers-Heiseberg are obtained in a unified manner. Fourth chapter is an extension of the implicit summation technique presented in chapter 3. We have clearly mentioned the advantage of our method, especially the analytical continuation of the relevant expressions suited for various values of radiation frequency which is also used for efficient numerical analysis. A possible extension of the work is to study various multiphoton processcs from the stark shifted first excited states of hydrogen atom. We can also extend this procedure for studying multiphoton processes in alkali atoms as well as Rydberg atoms. Also, instead of going for analytical expressions, one can try a complete numerical evaluation of the higher order matrix elements using this procedure.
Resumo:
Natural systems are inherently non linear. Recurrent behaviours are typical of natural systems. Recurrence is a fundamental property of non linear dynamical systems which can be exploited to characterize the system behaviour effectively. Cross recurrence based analysis of sensor signals from non linear dynamical system is presented in this thesis. The mutual dependency among relatively independent components of a system is referred as coupling. The analysis is done for a mechanically coupled system specifically designed for conducting experiment. Further, cross recurrence method is extended to the actual machining process in a lathe to characterize the chatter during turning. The result is verified by permutation entropy method. Conventional linear methods or models are incapable of capturing the critical and strange behaviours associated with the dynamical process. Hence any effective feature extraction methodologies should invariably gather information thorough nonlinear time series analysis. The sensor signals from the dynamical system normally contain noise and non stationarity. In an effort to get over these two issues to the maximum possible extent, this work adopts the cross recurrence quantification analysis (CRQA) methodology since it is found to be robust against noise and stationarity in the signals. The study reveals that the CRQA is capable of characterizing even weak coupling among system signals. It also divulges the dependence of certain CRQA variables like percent determinism, percent recurrence and entropy to chatter unambiguously. The surrogate data test shows that the results obtained by CRQA are the true properties of the temporal evolution of the dynamics and contain a degree of deterministic structure. The results are verified using permutation entropy (PE) to detect the onset of chatter from the time series. The present study ascertains that this CRP based methodology is capable of recognizing the transition from regular cutting to the chatter cutting irrespective of the machining parameters or work piece material. The results establish this methodology to be feasible for detection of chatter in metal cutting operation in a lathe.
Resumo:
The thesis embodies the results of a study on the variations in the parameters of productivity of two test species, a chlorophycean alga and a diatom. The chlorophycean alga Scenedesmus abundans was isolated from a fresh water pond whereas the diatom Nitzschia clausii was from the Cochin backwaters. Their growth parameters and their variations due to the effect of addition of some heavy metals have been studied. The growth parameters include biomass, production, respiration, photosynthetic pigments and end products of photosynthesis. The cell numbers were estimated by using a haemocytometer and production and respiration by oxygen light and dark technique. Spectrophotometric analysis for pigments, anthrone method for carbohydrate and heated biuret method for protein were the different methods employed in the present investigation. The present study is confined to nickel, cobalt, trivalent and hexavalent chromium. Different metals are discharged from various industries in and around Cochin. The effects of these metals individually and in combination are studied. Experiments to determine the effects of interaction of metals in combination enabled the assessment of the antagonistic and synergistic effect of metals on test species. The concentration or accumulation of metals on algae was determined by Atomic Absorption Spectrophotometry. The thesis has been divided into seven chapters. The introductory chapter explains the relevance of the present investigation. Chapter two presents the review of literature based on the work in relation to toxicity. Third chapter gives a detailed description of the material and specialized methods followed for the study. The effects of various metals selected for study - nickel, cobalt, trivalent and hexavalent chromium on the qualitative and quantitative aspects of productivity forms the subject of matter of the fourth chapter. The fifth chapter gives the impact of metals in combination on two species of algae. A general discussion and summary are included in the sixth and seventh chapters
Resumo:
Die Summation ueber des vollstaendige Spektrum des Atoms, die in der Stoehrungstheorie zweiter Ordnung vorkommt, wurde mit Hilfe der Greenschen Funktion Methode berechnet. Die Methode der Greenschen Funktion verlangt die Berechnung der unterschiedlichen Greenschen Funktionen: eine Coulomb-Greensche-Funktion im Fall von wasserstoffaehnlichen Ionen und eine Zentral-feld-Greensche-Funktion im Fall des Vielelektronen-Atoms. Die entwickelte Greensche Funktion erlaubte uns die folgenden atomaren Systeme in die Zweiphotonenionisierung der folgenden atomaren Systeme zu untersuchen: - wasserstoffaehnliche Ionen, um relativistische und Multipol-Effekte aufzudecken, - die aeussere Schale des Lithium; Helium und Helium-aehnliches Neon im Grundzustand, um taugliche Modelle des atomaren Feldes zu erhalten, - K- und L-Schalen des Argon, um die Vielelektronen-Effekte abzuschaetzen. Zusammenfassend, die relativistische Effekte ergeben sich in einer allgemeinen Reduzierung der Zweiphotonen Wirkungsquerschnitte. Zum Beispiel, betraegt das Verhaeltnis zwischen den nichtrelativistischen und relativistischen Wirkungsquerschnitten einen Faktor zwei fuer wasserstoffaehnliches Uran. Ausser dieser relativistischen Kontraktion, ist auch die relativistische Aufspaltung der Zwischenzustaende fuer mittelschwere Ionen sichtbar. Im Gegensatz zu den relativistischen Effekten, beeinflussen die Multipol-Effekte die totalen Wirkungsquerschnitte sehr wenig, so dass die Langwellennaeherung mit der exakten Naeherung fuer schwere Ionen sogar innerhalb von 5 Prozent uebereinstimmt. Die winkelaufgeloesten Wirkungsquerschnitte werden durch die relativistischen Effekte auf eine beeindruckende Weise beeinflusst: die Form der differentiellen Wirkungsquerschnitte aendert sich (qualitativ) abhaengig von der Photonenenergie. Ausserdem kann die Beruecksichtigung der hoeheren Multipole die elektronische Ausbeute um einen Faktor drei aendern. Die Vielelektronen-Effekte in der Zweiphotonenionisierung wurden am Beispiel der K- und L-Schalen des Argon analysiert. Hiermit wurden die totalen Wirkungsquerschnitte in einer Ein-aktives-Elektron-Naeherung (single-active-electron approximation) berechnet. Es hat sich herausgestellt, dass die Elektron--Elektron-Wechselwirkung sehr wichtig fuer die L-Schale und vernachlaessigbar fuer die K-Schale ist. Das bedeutet, dass man die totalen Wirkungsquerschnitte mit wasserstoffaehnlichen Modellen im Fall der K-Schale beschreiben kann, aber fuer die L-Schale fortgeschrittene Modelle erforderlich sind. Die Ergebnisse fuer Vielelektronen-Atome wurden mittels einer Dirac-Zentral-feld-Greenschen Funktion erlangt. Ein numerischer Algorithmus wurde urspruenglich von McGuire (1981) fuer der Schroedinger-Zentral-feld-Greensche Funktion eingefuehrt. Der Algorithmus wurde in dieser Arbeit zum ersten Mal fuer die Dirac-Gleichung angewandt. Unser Algorithmus benutzt die Kummer- und Tricomi-Funktionen, die mit Hilfe eines zuverlaessigen, aber noch immer langsamen Programmes berechnet wurden. Die Langsamkeit des Programms begrenzt den Bereich der Aufgaben, die effizient geloest werden koennen. Die Zentral-feld-Greensche Funktion konnte bei den folgenden Problemen benutzt werden: - Berechnung der Zweiphotonen-Zerfallsraten, - Berechnung der Zweiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung die Multiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung einer atomaren Vielelektronen-Green-Funktion. Von diesen Aufgaben koennen nur die ersten beiden in angemessener Zeit geloest werden. Fuer die letzten beiden Aufgaben ist unsere Implementierung zu langsam und muss weiter verbessert werden.