954 resultados para eye movements, anisometropia, ocular dominance, visual information processing, reading performance
Resumo:
Bien que l’on ait longtemps considéré que les substrats cérébraux de la mémoire sémantique (MS) demeuraient intacts au cours du vieillissement normal (VN), en raison d’une préservation de la performance des personnes âgées à des épreuves sémantiques, plusieurs études récentes suggèrent que des modifications cérébrales sous-tendant le traitement sémantique opèrent au cours du vieillissement. Celles-ci toucheraient principalement les régions responsables des aspects exécutifs du traitement sémantique, impliqués dans les processus de recherche, de sélection et de manipulation stratégique de l’information sémantique. Cependant, les mécanismes spécifiques régissant la réorganisation cérébrale du traitement sémantique au cours du VN demeurent méconnus, notamment en raison de divergences méthodologiques entre les études. De plus, des données de la littérature suggèrent que des modifications cérébrales associées au vieillissement pourraient également avoir lieu en relation avec les aspects perceptifs visuels du traitement des mots. Puisque le processus de lecture des mots représente un processus interactif et dynamique entre les fonctions perceptuelles de bas niveau et les fonctions de plus haut niveau tel que la MS, il pourrait exister des modifications liées à l’âge au plan des interactions cérébrales entre les aspects perceptifs et sémantiques du traitement des mots. Dans son ensemble, l’objectif de la présente thèse était de caractériser les modifications cérébrales ainsi que le décours temporel du signal cérébral qui sont associés au traitement sémantique ainsi qu’au traitement perceptif des mots en lien avec le VN, ainsi que les relations et les modulations entre les processus sémantiques et perceptifs au cours du VN, en utilisant la magnétoencéphalographie (MEG) comme technique d’investigation. Dans un premier temps (chapitre 2), les patrons d’activation cérébrale d’un groupe de participants jeunes et d’un groupe de participants âgés sains ont été comparés alors qu’ils effectuaient une tâche de jugement sémantique sur des mots en MEG, en se concentrant sur le signal autour de la N400, une composante associée au traitement sémantique. Les résultats démontrent que des modifications cérébrales liées à l’âge touchent principalement les structures impliquées dans les aspects exécutifs du traitement sémantique. Une activation plus importante du cortex préfrontal inférieur (IPC) a été observée chez les participants jeunes que chez les participants âgés, alors que ces derniers activaient davantage les régions temporo-pariétales que les jeunes adultes. Par ailleurs, le lobe temporal antérieur (ATL) gauche, considéré comme une région centrale et amodale du traitement sémantique, était également davantage activé par les participants âgés que par les jeunes adultes. Dans un deuxième temps (chapitre 3), les patrons d’activation cérébrale d’un groupe de participants jeunes et d’un groupe de participants âgés sains ont été comparés en se concentrant sur le signal associé au traitement perceptif visuel, soit dans les 200 premières millisecondes du traitement des mots. Les résultats montrent que des modifications cérébrales liées à l’âge touchent le gyrus fusiforme mais aussi le réseau sémantique, avec une plus grande activation pour le groupe de participants âgés, malgré une absence de différence d’activation dans le cortex visuel extrastrié entre les deux groupes. Les implications théoriques des résultats de ces deux études sont ensuite discutées, et les limites et perspectives futures sont finalement adressées (chapitre 4).
Resumo:
Dans le cortex visuel des mammifères, une cellule à panier (BC) qui représente un sous-type majoritaire d’interneurones GABAergiques, innerve une centaine de neurones par une multitude de synapses localisées sur le soma et sur les dendrites proximales de chacune de ses cibles. De plus, ces cellules sont importantes pour la génération des rythmes gammas, qui régulent de nombreuses fonctions cognitives, et pour la régulation de la plasticité corticale. Bien que la fonction des BC au sein des réseaux corticaux est à l'étude, les mécanismes qui contrôlent le développement de leur arborisation complexe ainsi que de leurs nombreux contacts synaptiques n’ont pas été entièrement déterminés. En utilisant les récepteurs allatostatines couplés aux protéines G de la drosophile (AlstR), nous démontrons in vitro que la réduction de l'excitation ainsi que la réduction de la libération des neurotransmetteurs par les BCs corticales individuelles des souris, diminuent le nombre de cellules innervées sans modifier le patron d'innervation périsomatique, durant et après la phase de prolifération des synapses périsomatiques. Inversement, lors de la suppression complète de la libération des neurotransmetteurs par les BCs individuelles avec l’utilisation de la chaîne légère de la toxine tétanus, nous observons des effets contraires selon le stade de développement. Les BCs exprimant TeNT-Lc pendant la phase de prolifération sont caractérisées par des arborisations axonales plus denses et un nombre accru de petits boutons homogènes autour des somas innervés. Toutefois, les cellules transfectées avec TeNT-Lc après la phase de la prolifération forment une innervation périsomatique avec moins de branchements terminaux d’axones et un nombre réduit de boutons avec une taille irrégulière autour des somas innervés. Nos résultats révèlent le rôle spécifique des niveaux de l’activité neuronale et de la neurotransmission dans l'établissement du territoire synaptique des cellules GABAergiques corticaux. Le facteur neurotrophique dérivé du cerveau (BDNF) est un modulateur puissant de la maturation activité-dépendante des synapses GABAergiques. Grâce à l'activation et à la signalisation de son récepteur tyrosine kinase B (TrkB), la liaison de mBDNF module fortement la prolifération des synapses périsomatiques GABAergiques formés par les BCs. Par contre, le rôle du récepteur neurotrophique de faible affinité, p75NTR, dans le développement du territoire synaptique des cellules reste encore inconnu. Dans ce projet, nous démontrons que la suppression de p75NTR au niveau des BCs individuelles in vitro provenant de souris p75NTRlox induit la formation d'une innervation périsomatique exubérante. BDNF est synthétisé sous une forme précurseur, proBDNF, qui est par la suite clivée par des enzymes, y compris la plasmine activée par tPA, pour produire une forme mature de BDNF (m)BDNF. mBDNF et proBDNF se lient avec une forte affinité à TrkB et p75NTR, respectivement. Nos résultats démontrent qu’un traitement des cultures organotypiques avec la forme résistante au clivage de proBDNF (mut-proBDNF) réduit fortement le territoire synaptique des BCs. Les cultures traitées avec le peptide PPACK, qui inactive tPA, ou avec tPA altèrent et favorisent respectivement la maturation de l’innervation synaptique des BCs. Nous démontrons aussi que l’innervation exubérante formée par les BCs p75NTR-/- n’est pas affectée par un traitement avec mut-proBDNF. L’ensemble de ces résultats suggère que l'activation de p75NTR via proBDNF régule négativement le territoire synaptique des BCs corticaux. Nous avons ensuite examiné si mut-proBDNF affecte l’innervation périsomatique formée par les BCs in vivo, chez la souris adulte. Nous avons constaté que les boutons GABAergiques périsomatiques sont significativement diminués dans le cortex infusé avec mut-proBDNF par rapport à l’hémisphère non-infusé ou traité avec de la saline. En outre, la plasticité de la dominance oculaire (OD) est rétablie par ce traitement chez la souris adulte. Enfin, en utilisant des souris qui ne possèdent pas le récepteur p75NTR dans leurs BCs spécifiquement, nous avons démontré que l'activation de p75NTR via proBDNF est nécessaire pour induire la plasticité de la OD chez les souris adultes. L’ensemble de ces résultats démontre un rôle critique de l'activation de p75NTR dans la régulation et le maintien de la connectivité des circuits GABAergiques, qui commencent lors du développement postnatal précoce jusqu’à l'âge adulte. De plus, nous suggérons que l'activation contrôlée de p75NTR pourrait être un outil utile pour restaurer la plasticité dans le cortex adulte.
Resumo:
L’amblyopie est un trouble développemental de la vision binoculaire. Elle est typiquement caractérisée par des atteintes de l’acuité visuelle et de la stéréoscopie. Toutefois, de plus en plus d’études indiquent la présence d’atteintes plus étendues telles que les difficultés d’attention visuelle ou de lecture. L’amblyopie est généralement expliquée par une suppression interoculaire au niveau cortical, considérée comme chronique ou permanente à l’extérieur de la période développementale. Or, un nombre croissant d’études suggèrent que des interactions binoculaires normales seraient présentes chez les amblyopes adultes. Dans une première étude, nous avons tenté d’identifier un marqueur électrophysiologique de la vision binoculaire. Nous avons enregistré des potentiels évoqués visuels chez des observateurs normaux à qui l’on a induit une dysfonction binoculaire. Les interactions binoculaires étaient caractérisées à l’aide de patrons (facilitation, moyennage et suppression) en comparant les réponses monoculaires et binoculaires. De plus, ces interactions étaient quantifiées à partir d’index d’intégration continus en soustrayant la somme des réponses monoculaires de la réponse binoculaire. Les résultats indiquaient que les patrons d’interaction n’étaient pas optimaux pour estimer les performances stéréoscopiques. Ces dernières étaient, en revanche, mieux expliquées par notre index d’intégration binoculaire. Ainsi, cette étude suggère que l’électrophysiologie est un bon prédicteur de la vision binoculaire. Dans une deuxième étude, nous avons examiné les corrélats neuronaux et comportementaux de la suppression interoculaire chez des amblyopes adultes et des observateurs normaux. Des potentiels évoqués visuels stationnaires ont été enregistrés en utilisant un paradigme de suppression par flash. La suppression était modulée par un changement de contraste du stimulus flash (10, 20, 30, ou 100%), ou le suppresseur, qui était présenté soit dans l’œil dominant ou non-dominant (ou amblyope). Sur le plan comportemental, la suppression interoculaire était observée indépendamment de l’œil stimulé par le flash chez les contrôles. Au contraire, chez les amblyopes, la suppression était asymétrique (c’est-à-dire supérieure lorsqu’elle provenait de l’œil dominant), ce qui suggérait une suppression chronique. De manière intéressante, l’œil amblyope a supprimé l’œil dominant à haut niveau de contraste. Sur le plan électrophysiologique, l’effet de suppression interoculaire observé à la région occipitale était équivalent dans chaque groupe. Toutefois, les réponses électrophysiologiques à la région frontale chez les amblyopes n’étaient pas modulées comme celles des contrôles; la suppression de l’œil amblyope était manifeste même à bas contraste. Nous résultats supportent ainsi l’existence d’interaction binoculaire fonctionnelle chez les amblyopes adultes ainsi que l’implication d’un réseau cortical étendu dans la suppression interoculaire. En somme, l’amblyopie est une condition complexe dont les atteintes corticales et les déficits fonctionnels semblent globaux. L’amblyopie ne doit plus être considérée comme limitée à une dysfonction de l’aire visuelle primaire. La suppression interoculaire semble un point central de cette problématique, mais encore beaucoup d’études seront nécessaires afin de déterminer l’ensemble des mécanismes impliqués dans celle-ci.
Resumo:
One of the fastest expanding areas of computer exploitation is in embedded systems, whose prime function is not that of computing, but which nevertheless require information processing in order to carry out their prime function. Advances in hardware technology have made multi microprocessor systems a viable alternative to uniprocessor systems in many embedded application areas. This thesis reports the results of investigations carried out on multi microprocessors oriented towards embedded applications, with a view to enhancing throughput and reliability. An ideal controller for multiprocessor operation is developed which would smoothen sharing of routines and enable more powerful and efficient code I data interchange. Results of performance evaluation are appended.A typical application scenario is presented, which calls for classifying tasks based on characteristic features that were identified. The different classes are introduced along with a partitioned storage scheme. Theoretical analysis is also given. A review of schemes available for reducing disc access time is carried out and a new scheme presented. This is found to speed up data base transactions in embedded systems. The significance of software maintenance and adaptation in such applications is highlighted. A novel scheme of prov1d1ng a maintenance folio to system firmware is presented, alongwith experimental results. Processing reliability can be enhanced if facility exists to check if a particular instruction in a stream is appropriate. Likelihood of occurrence of a particular instruction would be more prudent if number of instructions in the set is less. A new organisation is derived to form the basement for further work. Some early results that would help steer the course of the work are presented.
Resumo:
Learning Disability (LD) is a general term that describes specific kinds of learning problems. It is a neurological condition that affects a child's brain and impairs his ability to carry out one or many specific tasks. The learning disabled children are neither slow nor mentally retarded. This disorder can make it problematic for a child to learn as quickly or in the same way as some child who isn't affected by a learning disability. An affected child can have normal or above average intelligence. They may have difficulty paying attention, with reading or letter recognition, or with mathematics. It does not mean that children who have learning disabilities are less intelligent. In fact, many children who have learning disabilities are more intelligent than an average child. Learning disabilities vary from child to child. One child with LD may not have the same kind of learning problems as another child with LD. There is no cure for learning disabilities and they are life-long. However, children with LD can be high achievers and can be taught ways to get around the learning disability. In this research work, data mining using machine learning techniques are used to analyze the symptoms of LD, establish interrelationships between them and evaluate the relative importance of these symptoms. To increase the diagnostic accuracy of learning disability prediction, a knowledge based tool based on statistical machine learning or data mining techniques, with high accuracy,according to the knowledge obtained from the clinical information, is proposed. The basic idea of the developed knowledge based tool is to increase the accuracy of the learning disability assessment and reduce the time used for the same. Different statistical machine learning techniques in data mining are used in the study. Identifying the important parameters of LD prediction using the data mining techniques, identifying the hidden relationship between the symptoms of LD and estimating the relative significance of each symptoms of LD are also the parts of the objectives of this research work. The developed tool has many advantages compared to the traditional methods of using check lists in determination of learning disabilities. For improving the performance of various classifiers, we developed some preprocessing methods for the LD prediction system. A new system based on fuzzy and rough set models are also developed for LD prediction. Here also the importance of pre-processing is studied. A Graphical User Interface (GUI) is designed for developing an integrated knowledge based tool for prediction of LD as well as its degree. The designed tool stores the details of the children in the student database and retrieves their LD report as and when required. The present study undoubtedly proves the effectiveness of the tool developed based on various machine learning techniques. It also identifies the important parameters of LD and accurately predicts the learning disability in school age children. This thesis makes several major contributions in technical, general and social areas. The results are found very beneficial to the parents, teachers and the institutions. They are able to diagnose the child’s problem at an early stage and can go for the proper treatments/counseling at the correct time so as to avoid the academic and social losses.
Resumo:
Thiosemicarbazones have recently attracted considerable attention due to their ability to form tridentate chelates with transition metal ions through either two nitrogen and sulfur atoms, N–N–S or oxygen, nitrogen and sulfur atoms, O–N–S. Considerable interest in thiosemicarbazones and their transition metal complexes has also grown in the areas of biology and chemistry due to biological activities such as antitumoral, fungicidal, bactericidal, antiviral and nonlinear optical properties. They have been used for metal analyses, for device applications related to telecommunications, optical computing, storage and information processing.The versatile applications of metal complexes of thiosemicarbazones in various fields prompted us to synthesize the tridentate NNS-donor thiosemicarbazones and their metal complexes. As a part of our studies on transition metal complexes with these ligands, the researcher undertook the current work with the following objectives. 1. To synthesize and physico-chemically characterize the following thiosemicarbazone ligands: a. Di-2-pyridyl ketone-N(4)-methyl thiosemicarbazone (HDpyMeTsc) b. Di-2-pyridyl ketone-N(4)-ethyl thiosemicarbazone (HDpyETsc) 2. To synthesize oxovanadium(IV), manganese(II), nickel(II), copper(II), zinc(II) and cadmium(II) complexes using the synthesized thiosemicarbazones as principal ligands and some anionic coligands. 3. To study the coordination modes of the ligands in metal complexes by using different physicochemical methods like partial elemental analysis, thermogravimetry and by different spectroscopic techniques. 4. To establish the structure of compounds by single crystal XRD studies
Resumo:
In this paper we describe the methodology and the structural design of a system that translates English into Malayalam using statistical models. A monolingual Malayalam corpus and a bilingual English/Malayalam corpus are the main resource in building this Statistical Machine Translator. Training strategy adopted has been enhanced by PoS tagging which helps to get rid of the insignificant alignments. Moreover, incorporating units like suffix separator and the stop word eliminator has proven to be effective in bringing about better training results. In the decoder, order conversion rules are applied to reduce the structural difference between the language pair. The quality of statistical outcome of the decoder is further improved by applying mending rules. Experiments conducted on a sample corpus have generated reasonably good Malayalam translations and the results are verified with F measure, BLEU and WER evaluation metrics
Resumo:
Clustering combined with multihop communication is a promising solution to cope with the energy requirements of large scale Wireless Sensor Networks. In this work, a new cluster based routing protocol referred to as Energy Aware Cluster-based Multihop (EACM) Routing Protocol is introduced, with multihop communication between cluster heads for transmitting messages to the base station and direct communication within clusters. We propose EACM with both static and dynamic clustering. The network is partitioned into near optimal load balanced clusters by using a voting technique, which ensures that the suitability of a node to become a cluster head is determined by all its neighbors. Results show that the new protocol performs better than LEACH on network lifetime and energy dissipation
Resumo:
The present study described about the interaction of a two level atom and squeezed field with time varying frequency. By applying a sinusoidal variation in the frequency of the field, the randomness in population inversion is reduced and the collapses and periodic revivals are regained. Quantum optics is an emerging field in physics which mainly deals with the interaction of atoms with quantised electromagnetic fields. Jaynes-Cummings Model (JCM) is a key model among them, which describes the interaction between a two level atom and a single mode radiation field. Here the study begins with a brief history of light, atom and their interactions. Also discussed the interaction between atoms and electromagnetic fields. The study suggest a method to manipulate the population inversion due to interaction and control the randomness in it, by applying a time dependence on the frequency of the interacting squeezed field.The change in behaviour of the population inversion due to the presence of a phase factor in the applied frequency variation is explained here.This study also describes the interaction between two level atom and electromagnetic field in nonlinear Kerr medium. It deals with atomic and field state evolution in a coupled cavity system. Our results suggest a new method to control and manipulate the population of states in two level atom radiation interaction,which is very essential for quantum information processing.We have also studied the variation of atomic population inversion with time, when a two level atom interacts with light field, where the light field has a sinusoidal frequency variation with a constant phase. In both coherent field and squeezed field cases, the population inversion variation is completely different from the phase zero frequency modulation case. It is observed that in the presence of a non zero phase φ, the population inversion oscillates sinusoidally.Also the collapses and revivals gradually disappears when φ increases from 0 to π/2. When φ = π/2 the evolution of population inversion is identical to the case when a two level atom interacts with a Fock state. Thus, by applying a phase shifted frequency modulation one can induce sinusoidal oscillations of atomic inversion in linear medium, those normally observed in Kerr medium. We noticed that the entanglement between the atom and field can be controlled by varying the period of the field frequency fluctuations. The system has been solved numerically and the behaviour of it for different initial conditions and different susceptibility values are analysed. It is observed that, for weak cavity coupling the effect of susceptibility is minimal. In cases of strong cavity coupling, susceptibility factor modifies the nature in which the probability oscillates with time. Effect of susceptibility on probability of states is closely related to the initial state of the system.
Resumo:
Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.
Resumo:
During recent years, quantum information processing and the study of N−qubit quantum systems have attracted a lot of interest, both in theory and experiment. Apart from the promise of performing efficient quantum information protocols, such as quantum key distribution, teleportation or quantum computation, however, these investigations also revealed a great deal of difficulties which still need to be resolved in practise. Quantum information protocols rely on the application of unitary and non–unitary quantum operations that act on a given set of quantum mechanical two-state systems (qubits) to form (entangled) states, in which the information is encoded. The overall system of qubits is often referred to as a quantum register. Today the entanglement in a quantum register is known as the key resource for many protocols of quantum computation and quantum information theory. However, despite the successful demonstration of several protocols, such as teleportation or quantum key distribution, there are still many open questions of how entanglement affects the efficiency of quantum algorithms or how it can be protected against noisy environments. To facilitate the simulation of such N−qubit quantum systems and the analysis of their entanglement properties, we have developed the Feynman program. The program package provides all necessary tools in order to define and to deal with quantum registers, quantum gates and quantum operations. Using an interactive and easily extendible design within the framework of the computer algebra system Maple, the Feynman program is a powerful toolbox not only for teaching the basic and more advanced concepts of quantum information but also for studying their physical realization in the future. To this end, the Feynman program implements a selection of algebraic separability criteria for bipartite and multipartite mixed states as well as the most frequently used entanglement measures from the literature. Additionally, the program supports the work with quantum operations and their associated (Jamiolkowski) dual states. Based on the implementation of several popular decoherence models, we provide tools especially for the quantitative analysis of quantum operations. As an application of the developed tools we further present two case studies in which the entanglement of two atomic processes is investigated. In particular, we have studied the change of the electron-ion spin entanglement in atomic photoionization and the photon-photon polarization entanglement in the two-photon decay of hydrogen. The results show that both processes are, in principle, suitable for the creation and control of entanglement. Apart from process-specific parameters like initial atom polarization, it is mainly the process geometry which offers a simple and effective instrument to adjust the final state entanglement. Finally, for the case of the two-photon decay of hydrogenlike systems, we study the difference between nonlocal quantum correlations, as given by the violation of the Bell inequality and the concurrence as a true entanglement measure.
Resumo:
Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.
Resumo:
Resumo:
Introducción: La desnutrición infantil es una importante preocupación en países en desarrollo y se relaciona con condiciones de pobreza. Metodología: Estudio secundario de una muestra de 1.232 datos de menores de cinco años con diagnóstico nutricional obtenido en forma retrospectiva en la evaluación del SISVAN año 2009 para Bogotá. Se utilizó para el procesamiento de la información Epi Info 6.04 y SPSS 17.0. Resultados: Se encontró que el 37.2% de los menores está en riesgo de desnutrición, el 27.3% tiene desnutrición aguda y el 7.2% desnutrición crónica. Fontibón y Chapinero presentan la mayor desnutrición aguda y crónica respectivamente. Los menores con reducidos ingresos familiares, de estrato uno, con madres que estudian y trabajan, divorciadas o viudas, o que sean desplazados actuales presentan mayor riesgo de desnutrición. La desnutrición aguda es mayor en los niños con desplazamientos mayores de un año o con esquemas de vacunación incompleto. Cuando se presentan inadecuadas condiciones de saneamiento, peso al nacer inferior a 2000 gramos, madres con escolaridad primaria o grupos etáreos entre 3 y 5 años se observa mayor desnutrición crónica. Quienes reciben lactancia materna exclusiva presentan menor desnutrición aguda y crónica. Conclusiones: En la población estudiada, el riesgo de desnutrición está por encima de la desnutrición aguda y crónica. Los resultados sugieren que la desnutrición y el riesgo de desnutrición pueden ser reducidos mejorando educación materna, saneamiento, prolongando la lactancia y cumpliendo esquemas de vacunación.
Resumo:
El presente estudio tiene por objetivo identificar cuáles son las estrategias de scanning que utilizan los responsables de la dirección y del diseño de la estrategia de las empresas. Se parte del hecho fundamental que las empresas están inmersas en un entorno que tiene como características fundamentales la incertidumbre en diferentes niveles y la turbulencia, que en esencia impiden predecir el resultado de los objetivos trazados desde la dirección. La muestra tomada está representada por 20 directivos de niveles uno, dos y tres de empresas de diferentes sectores de la economía, con sede en Bogotá, Colombia, a los cuáles se les preguntó a través de un instrumento por la frecuencia con que ejecutan actividades de scanning en diferentes dimensiones del entorno en que se desenvuelven sus organizaciones, las fuentes y herramientas de análisis y procesamiento de la información. Se pudo concluir que los directivos de la muestra utilizan las estrategias de scanning para explorar el entorno en gran medida y que están de acuerdo en que su percepción del nivel de incertidumbre existente en el entorno baja en la media que procesan y analizan la información. Igualmente se pudo corroborar de acuerdo con el marco teórico que los niveles de incertidumbre percibidos a nivel empresarial están por lo menos en un 80% entre el nivel dos que se define como futuros alternativos y el nivel tres caracterizado por un abanico de futuros.