925 resultados para 700103 Information processing services
Resumo:
Thiosemicarbazones have recently attracted considerable attention due to their ability to form tridentate chelates with transition metal ions through either two nitrogen and sulfur atoms, N–N–S or oxygen, nitrogen and sulfur atoms, O–N–S. Considerable interest in thiosemicarbazones and their transition metal complexes has also grown in the areas of biology and chemistry due to biological activities such as antitumoral, fungicidal, bactericidal, antiviral and nonlinear optical properties. They have been used for metal analyses, for device applications related to telecommunications, optical computing, storage and information processing.The versatile applications of metal complexes of thiosemicarbazones in various fields prompted us to synthesize the tridentate NNS-donor thiosemicarbazones and their metal complexes. As a part of our studies on transition metal complexes with these ligands, the researcher undertook the current work with the following objectives. 1. To synthesize and physico-chemically characterize the following thiosemicarbazone ligands: a. Di-2-pyridyl ketone-N(4)-methyl thiosemicarbazone (HDpyMeTsc) b. Di-2-pyridyl ketone-N(4)-ethyl thiosemicarbazone (HDpyETsc) 2. To synthesize oxovanadium(IV), manganese(II), nickel(II), copper(II), zinc(II) and cadmium(II) complexes using the synthesized thiosemicarbazones as principal ligands and some anionic coligands. 3. To study the coordination modes of the ligands in metal complexes by using different physicochemical methods like partial elemental analysis, thermogravimetry and by different spectroscopic techniques. 4. To establish the structure of compounds by single crystal XRD studies
Resumo:
In this paper we describe the methodology and the structural design of a system that translates English into Malayalam using statistical models. A monolingual Malayalam corpus and a bilingual English/Malayalam corpus are the main resource in building this Statistical Machine Translator. Training strategy adopted has been enhanced by PoS tagging which helps to get rid of the insignificant alignments. Moreover, incorporating units like suffix separator and the stop word eliminator has proven to be effective in bringing about better training results. In the decoder, order conversion rules are applied to reduce the structural difference between the language pair. The quality of statistical outcome of the decoder is further improved by applying mending rules. Experiments conducted on a sample corpus have generated reasonably good Malayalam translations and the results are verified with F measure, BLEU and WER evaluation metrics
Resumo:
Clustering combined with multihop communication is a promising solution to cope with the energy requirements of large scale Wireless Sensor Networks. In this work, a new cluster based routing protocol referred to as Energy Aware Cluster-based Multihop (EACM) Routing Protocol is introduced, with multihop communication between cluster heads for transmitting messages to the base station and direct communication within clusters. We propose EACM with both static and dynamic clustering. The network is partitioned into near optimal load balanced clusters by using a voting technique, which ensures that the suitability of a node to become a cluster head is determined by all its neighbors. Results show that the new protocol performs better than LEACH on network lifetime and energy dissipation
Resumo:
The present study described about the interaction of a two level atom and squeezed field with time varying frequency. By applying a sinusoidal variation in the frequency of the field, the randomness in population inversion is reduced and the collapses and periodic revivals are regained. Quantum optics is an emerging field in physics which mainly deals with the interaction of atoms with quantised electromagnetic fields. Jaynes-Cummings Model (JCM) is a key model among them, which describes the interaction between a two level atom and a single mode radiation field. Here the study begins with a brief history of light, atom and their interactions. Also discussed the interaction between atoms and electromagnetic fields. The study suggest a method to manipulate the population inversion due to interaction and control the randomness in it, by applying a time dependence on the frequency of the interacting squeezed field.The change in behaviour of the population inversion due to the presence of a phase factor in the applied frequency variation is explained here.This study also describes the interaction between two level atom and electromagnetic field in nonlinear Kerr medium. It deals with atomic and field state evolution in a coupled cavity system. Our results suggest a new method to control and manipulate the population of states in two level atom radiation interaction,which is very essential for quantum information processing.We have also studied the variation of atomic population inversion with time, when a two level atom interacts with light field, where the light field has a sinusoidal frequency variation with a constant phase. In both coherent field and squeezed field cases, the population inversion variation is completely different from the phase zero frequency modulation case. It is observed that in the presence of a non zero phase φ, the population inversion oscillates sinusoidally.Also the collapses and revivals gradually disappears when φ increases from 0 to π/2. When φ = π/2 the evolution of population inversion is identical to the case when a two level atom interacts with a Fock state. Thus, by applying a phase shifted frequency modulation one can induce sinusoidal oscillations of atomic inversion in linear medium, those normally observed in Kerr medium. We noticed that the entanglement between the atom and field can be controlled by varying the period of the field frequency fluctuations. The system has been solved numerically and the behaviour of it for different initial conditions and different susceptibility values are analysed. It is observed that, for weak cavity coupling the effect of susceptibility is minimal. In cases of strong cavity coupling, susceptibility factor modifies the nature in which the probability oscillates with time. Effect of susceptibility on probability of states is closely related to the initial state of the system.
Resumo:
During recent years, quantum information processing and the study of N−qubit quantum systems have attracted a lot of interest, both in theory and experiment. Apart from the promise of performing efficient quantum information protocols, such as quantum key distribution, teleportation or quantum computation, however, these investigations also revealed a great deal of difficulties which still need to be resolved in practise. Quantum information protocols rely on the application of unitary and non–unitary quantum operations that act on a given set of quantum mechanical two-state systems (qubits) to form (entangled) states, in which the information is encoded. The overall system of qubits is often referred to as a quantum register. Today the entanglement in a quantum register is known as the key resource for many protocols of quantum computation and quantum information theory. However, despite the successful demonstration of several protocols, such as teleportation or quantum key distribution, there are still many open questions of how entanglement affects the efficiency of quantum algorithms or how it can be protected against noisy environments. To facilitate the simulation of such N−qubit quantum systems and the analysis of their entanglement properties, we have developed the Feynman program. The program package provides all necessary tools in order to define and to deal with quantum registers, quantum gates and quantum operations. Using an interactive and easily extendible design within the framework of the computer algebra system Maple, the Feynman program is a powerful toolbox not only for teaching the basic and more advanced concepts of quantum information but also for studying their physical realization in the future. To this end, the Feynman program implements a selection of algebraic separability criteria for bipartite and multipartite mixed states as well as the most frequently used entanglement measures from the literature. Additionally, the program supports the work with quantum operations and their associated (Jamiolkowski) dual states. Based on the implementation of several popular decoherence models, we provide tools especially for the quantitative analysis of quantum operations. As an application of the developed tools we further present two case studies in which the entanglement of two atomic processes is investigated. In particular, we have studied the change of the electron-ion spin entanglement in atomic photoionization and the photon-photon polarization entanglement in the two-photon decay of hydrogen. The results show that both processes are, in principle, suitable for the creation and control of entanglement. Apart from process-specific parameters like initial atom polarization, it is mainly the process geometry which offers a simple and effective instrument to adjust the final state entanglement. Finally, for the case of the two-photon decay of hydrogenlike systems, we study the difference between nonlocal quantum correlations, as given by the violation of the Bell inequality and the concurrence as a true entanglement measure.
Resumo:
In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.
Resumo:
Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.
Resumo:
Resumo:
Introducción: La desnutrición infantil es una importante preocupación en países en desarrollo y se relaciona con condiciones de pobreza. Metodología: Estudio secundario de una muestra de 1.232 datos de menores de cinco años con diagnóstico nutricional obtenido en forma retrospectiva en la evaluación del SISVAN año 2009 para Bogotá. Se utilizó para el procesamiento de la información Epi Info 6.04 y SPSS 17.0. Resultados: Se encontró que el 37.2% de los menores está en riesgo de desnutrición, el 27.3% tiene desnutrición aguda y el 7.2% desnutrición crónica. Fontibón y Chapinero presentan la mayor desnutrición aguda y crónica respectivamente. Los menores con reducidos ingresos familiares, de estrato uno, con madres que estudian y trabajan, divorciadas o viudas, o que sean desplazados actuales presentan mayor riesgo de desnutrición. La desnutrición aguda es mayor en los niños con desplazamientos mayores de un año o con esquemas de vacunación incompleto. Cuando se presentan inadecuadas condiciones de saneamiento, peso al nacer inferior a 2000 gramos, madres con escolaridad primaria o grupos etáreos entre 3 y 5 años se observa mayor desnutrición crónica. Quienes reciben lactancia materna exclusiva presentan menor desnutrición aguda y crónica. Conclusiones: En la población estudiada, el riesgo de desnutrición está por encima de la desnutrición aguda y crónica. Los resultados sugieren que la desnutrición y el riesgo de desnutrición pueden ser reducidos mejorando educación materna, saneamiento, prolongando la lactancia y cumpliendo esquemas de vacunación.
Resumo:
El presente estudio tiene por objetivo identificar cuáles son las estrategias de scanning que utilizan los responsables de la dirección y del diseño de la estrategia de las empresas. Se parte del hecho fundamental que las empresas están inmersas en un entorno que tiene como características fundamentales la incertidumbre en diferentes niveles y la turbulencia, que en esencia impiden predecir el resultado de los objetivos trazados desde la dirección. La muestra tomada está representada por 20 directivos de niveles uno, dos y tres de empresas de diferentes sectores de la economía, con sede en Bogotá, Colombia, a los cuáles se les preguntó a través de un instrumento por la frecuencia con que ejecutan actividades de scanning en diferentes dimensiones del entorno en que se desenvuelven sus organizaciones, las fuentes y herramientas de análisis y procesamiento de la información. Se pudo concluir que los directivos de la muestra utilizan las estrategias de scanning para explorar el entorno en gran medida y que están de acuerdo en que su percepción del nivel de incertidumbre existente en el entorno baja en la media que procesan y analizan la información. Igualmente se pudo corroborar de acuerdo con el marco teórico que los niveles de incertidumbre percibidos a nivel empresarial están por lo menos en un 80% entre el nivel dos que se define como futuros alternativos y el nivel tres caracterizado por un abanico de futuros.
Resumo:
El objetivo de este trabajo es, por una parte, darle continuidad a la línea de trabajo anterior sobre la industria de software y servicios informáticos, pero en esta oportunidad centrada en el estudio de la dinámica de los cluster tecnológicos en experiencias locales. Para ello se indagará esta dinámica en dos ciudades:Mérida (Yucatán-México) y Rosario (Santa Fe-Argentina). El objetivo de enfocar estos dos casos de estudio se fundamenta en el interés por estas dos ciudades, ya que presentan un perfil productivo innovador, con tasas de crecimiento importante y que además esta estrategia se suma a otras actividades de alto valor agregado. En este sentido la producción de software y de nuevas tecnologías, están creando un clima propicio de desarrollo local. En este trabajo se analiza el contexto socio económico de cada ciudad, los antecedentes de la creación del cluster tecnológico, la cooperación inter empresarial e inter institucional, las políticas públicas territorializadas en el cluster, el perfil y las actividades de las empresas que conforman el mismo, así como las características de sus recursos humanos. The aim of this paper is to give continuity to my previous work about the software industry and information technology services, but this time focused on the study of the dynamics of the cluster technology in local experiences. So the paper inquires this dynamic in two cities: Merida (Yucatan, Mexico) and Rosario (Santa Fe, Argentina).The aim of approaching these two case studies is based on the interest in these two cities, since they have a innovative productive profile, with significant growth rates and that this strategy is added to other activities of high added value. In this sense the production of software and new technologies, are creating a climate conducive to local development. This paper examines the socio-economic context of each city, the background to the creation of the cluster technology, international cooperation and international institutional business, public policy in the territorial cluster, the profile and activities of the companies in there, and the characteristics of their human resources.
Resumo:
A partir de un análisis realizado al discurso periodístico del diario El Espectador, en un periodo que abarca del 25 de agosto de 1983 al 2 de septiembre de 1989, del cual se recolectó un corpus textual de noticias, informes especiales, columnas de opinión y editoriales, en este este trabajo de grado se busca demostrar que este diario fue un actor tanto político como social en el conflicto entre las mafias del narcotráfico y el Estado colombiano. Se argumenta que las diferentes acciones realizadas por el periódico, en donde denunciaba y visibilizaba hechos coyunturales del momento, le permitieron convertirse en un grupo de interés que dispuso de toda su variedad y capacidad para influir y alterar el comportamiento de otros actores involucrados en la llamada „guerra contra las drogas‟, durante la década de los años ochenta en Colombia
Resumo:
La economía mundial ha presentado una tendencia hacia la globalización y la integración económica; este comportamiento ha influenciado significativamente la economía Colombiana en los últimos años, promoviendo los lazos comerciales con diferentes economías a nivel mundial; esto con el objetivo de fortalecer la actividad económica tanto interna como externamente, buscando nuevas oportunidades que le permitan un crecimiento económico perdurable, a través de la inversión extranjera directa, la investigación y desarrollo, innovación tecnológica, mano de obra calificada, entre otros. Continuando esta tendencia Colombia inició un proceso de negociación de un Tratado de Libre Comercio con la Unión Europea en el año 2012, el cual culminó con éxito firmándose el 31 de Julio del 2013, mediante el decreto 1636, donde Colombia y la Unión Europea por libre albedrio se comprometieron a cumplir con todos los puntos pactados dentro del tratado. Con el objetivo de generar un diagnóstico del sub-sector lechero, se analizó la situación actual de la economía Colombiana frente a la Unión Europea, vista desde la productividad y la competitividad que se presenta en cada una de estas economías, para determinar las oportunidades o las amenazas que podría representar el tratado de libre comercio con dicho grupo económico pero específicamente concentrándose en la industria procesadora de productos lácteos. Del diagnóstico comparativo se encontró que existen grandes asimetrías entre la industria procesadora de productos lácteos en Colombia frente a la misma de la Unión Europea (UE). Por último se realizó el análisis de los factores internos de las empresas a través de la Matriz de Evaluación de Factores Internos (MEFI), indicador que permite identificar la debilidad o fortaleza dentro de las empresas de acuerdo a la valoración de las características de cada una. Por otro lado, a través de la matriz DOFA se analizaron las debilidades, oportunidades, fortalezas y amenazas de las empresas; de acuerdo a los resultados de ambas matrices se plantearon recomendaciones que podrán ser aplicadas dentro de las empresas objeto de estudio.
Resumo:
El liderazgo ha sido definido de diferentes maneras por cientos de autores debido al contexto en el que estudian este concepto. Ninguna de estas definiciones es errónea pero algunas han tomado mayor importancia debido a los diferentes factores que enfrenta la sociedad. Desde hace unos años los países se han abierto a diferentes mercados lo cual les ha permitido eliminar las barreras políticas, económicas y culturales existentes. Esto ha llevado a que los líderes deban evaluar la nueva forma de dirigir y direccionar las organizaciones. Este es tan solo uno de los ejemplos que han llevado a modificar el concepto de liderazgo, añadiendo los nuevos retos a los que se ven enfrentados los líderes. En este trabajo de grado se estudia el que se considera uno de los mayores retos de los siglos XX y XXI: la globalización. Este fenómeno ha acercado al mundo a través del intercambio de información, de bienes, de servicios, de conocimientos y sobre todo de cultura. Esto se ha logrado a través de nuevas tecnologías, nuevos servicios de comunicación y transporte, de la ciencia y los avances de la industria. El nuevo líder debe romper la barrera nacional y abrirse a mercados extranjeros, para esto debe contar con ciertas características que le permitirán entender los diferentes mercados y a las personas que se encuentran en este. En este trabajo se identifican las que se consideran las principales características de un líder global; estas son el resultado de la investigación de diferentes autores y estudios.
Resumo:
Contenido Introducción 1. Inteligencia emocional, liderazgo transformacional y género: factores que influencian el desempeño organizacional / Ana María Galindo Londoño, Sara Urrego Mayorga; Director: Juan Carlos Espinosa Méndez. 2. El rol de la mujer en el liderazgo / Andrea Patricia Cuestas Díaz; Directora: Francoise Venezia Contreras Torres. 3. Liderazgo transformacional, clima organizacional, satisfacción laboral y desempeño. Una revisión de la literatura / Juliana Restrepo Orozco, Ángela Marcela Ochoa Rodríguez; Directora: Françoise Venezia Contreras Torres. 4. “E-Leadership” una perspectiva al mundo de las compañías globalizadas / Ángela Beatriz Morales Morales, Mónica Natalia Aguilera Velandia; Director: Juan Carlos Espinosa. 5. Liderazgo y cultura. Una revisión / Daniel Alejandro Romero Galindo; Directora: Francoise Venezia Contreras Torres. 6. La investigación sobre la naturaleza del trabajo directivo: una revisión de la literatura / Julián Felipe Rodríguez Rivera, María Isabel Álvarez Rodríguez; Director: Juan Javier Saavedra Mayorga. 7. La mujer en la alta dirección en el contexto colombiano / Ana María Moreno, Juliana Moreno Jaramillo ; Directora: Françoise Venezia Contreras Torres. 8. Influencia de la personalidad en el discurso y liderazgo de George W. Bush después del 11 de septiembre de 2011 / Karen Eliana Mesa Torres; Director: Juan Carlos Espinosa. 9. La investigación sobre el campo del followership: una revisión de la literatura / Christian D. Báez Millán, Leidy J. Pinzón Porras; Director: Juan Javier Saavedra Mayorga. 10. El liderazgo desde la perspectiva del poder y la influencia. Una revisión de la literatura / Lina María García, Juan Sebastián Naranjo; Director: Juan Javier Saavedra Mayorga. 11. El trabajo directivo para líderes y gerentes: una visión integradora de los roles organizacionales / Lina Marcela Escobar Campos, Daniel Mora Barrero; Director: Rafael Piñeros. 12. Participación emocional en la toma de decisiones / Lina Rocío Poveda C., Gloria Johanna Rueda L.; Directora: Francoise Contreras T. 13. Estrés y su relación con el liderazgo / María Camila García Sierra, Diana Paola Rocha Cárdenas; Director: Juan Carlos Espinosa. 14. “Burnout y engagement” / María Paola Jaramillo Barrios, Natalia Rojas Mancipe; Director: Rafael Piñeros.