866 resultados para General Utility Lattice Program (GULP)
Resumo:
This paper describes a system for the computer understanding of English. The system answers questions, executes commands, and accepts information in normal English dialog. It uses semantic information and context to understand discourse and to disambiguate sentences. It combines a complete syntactic analysis of each sentence with a "heuristic understander" which uses different kinds of information about a sentence, other parts of the discourse, and general information about the world in deciding what the sentence means. It is based on the belief that a computer cannot deal reasonably with language unless it can "understand" the subject it is discussing. The program is given a detailed model of the knowledge needed by a simple robot having only a hand and an eye. We can give it instructions to manipulate toy objects, interrogate it about the scene, and give it information it will use in deduction. In addition to knowing the properties of toy objects, the program has a simple model of its own mentality. It can remember and discuss its plans and actions as well as carry them out. It enters into a dialog with a person, responding to English sentences with actions and English replies, and asking for clarification when its heuristic programs cannot understand a sentence through use of context and physical knowledge.
Resumo:
It has been widely known that a significant part of the bits are useless or even unused during the program execution. Bit-width analysis targets at finding the minimum bits needed for each variable in the program, which ensures the execution correctness and resources saving. In this paper, we proposed a static analysis method for bit-widths in general applications, which approximates conservatively at compile time and is independent of runtime conditions. While most related work focus on integer applications, our method is also tailored and applicable to floating point variables, which could be extended to transform floating point number into fixed point numbers together with precision analysis. We used more precise representations for data value ranges of both scalar and array variables. Element level analysis is carried out for arrays. We also suggested an alternative for the standard fixed-point iterations in bi-directional range analysis. These techniques are implemented on the Trimaran compiler structure and tested on a set of benchmarks to show the results.
Resumo:
La energía eléctrica y los bienes o activos eléctricos (de acuerdo con la definición técnica) con que se lleva a cabo su prestación, goza de una particular regulación y normatividad, explicables por la importancia capital de este servicio público, sumado al diseño institucional traído por la constitución de 1991, lo que la hace especialmente compleja, dinámica y abierta a precisiones. Es ese sentido, se parte de un entendimiento inicial de todos los activos que conforman una red de generación, transmisión y distribución eléctrica, para de esa forma comenzar a esbozar el régimen jurídico de los mismos, dependiendo de su posición dentro de la cadena de suministro eléctrico. Una vez concluido este acercamiento, se abordan los principales problemas previsibles desde una perspectiva puramente académica, como por ejemplo el relacionado con el alcance de los conceptos de la CREG y su valor normativo, la presunta inembargabilidad de los bienes destinados a la prestación de servicios públicos en cabeza de comunidades organizadas y el problema de la propiedad de particulares sobre activos conformantes de la red de suministro eléctrico y la salida normativa a ese conflicto (pues no debe olvidarse que los propietarios de activos de uso general, de acuerdo con la CREG, deben ser prestadores de servicios públicos domiciliarios) de modo tal que se respeten los derechos de propiedad. De cada uno de estos interrogantes surgen soluciones que lejos de zanjar las discusiones al respecto, buscan abrir el debate sobre un tema de tan capital importancia.
Resumo:
Aunque el concepto de sabiduría ha sido ampliamente estudiado por expertos de áreas como la filosofía, la religión y la psicología, aún enfrenta limitaciones en cuanto a su definición y evaluación. Por esto, el presente trabajo tiene como objetivo, formular una definición del concepto de sabiduría que permita realizar una propuesta de evaluación del concepto como competencia en los gerentes. Para esto, se realizó un análisis documental de tipo cualitativo. De esta manera, se analizaron diversos textos sobre la historia, las definiciones y las metodologías para evaluar tanto la sabiduría como las competencias; diferenciando la sabiduría de otros constructos y analizando la diferencia entre las competencias generales y las gerenciales para posteriormente, definir la sabiduría como una competencia gerencial. Como resultado de este análisis se generó un prototipo de prueba denominado SAPIENS-O, a través del cuál se busca evaluar la sabiduría como competencia gerencial. Como alcances del instrumento se pueden identificar la posibilidad de medir la sabiduría como competencia en los gerentes, la posibilidad de dar un nuevo panorama a las dificultades teóricas y empíricas sobre la sabiduría y la posibilidad de facilitar el estudio de la sabiduría en ambientes reales, más específicamente en ambientes organizacionales.
Resumo:
Introducción: La preeclampsia severa es una de las principales patologías que afectan a las mujeres embarazadas, sus complicaciones tienen un alto impacto en la salud del binomio madre-hijo. Materiales y métodos: Se realizo una serie de casos, durante un periodo de 1 año se revisaron las historias clínicas de las pacientes que ingresaron a la unidad de cuidado intensivo obstétrico de la Clínica Orquídeas, con diagnóstico de preeclampsia severa. Se describieron los datos demográficos y las complicaciones. Se realizó análisis univariado con las variables de interés y se calcularon diferencias significativas por medio del test exacto de Fisher. Resultados: Se registraron 196 pacientes con preeclampsia severa en el periodo de estudio. Las complicaciones mas frecuentes fueron síndrome HELLP (30,6%), insuficiencia renal aguda (16,3%) y edema pulmonar (10,2%); el ingreso de las pacientes con preeclampsia severa a la UCIO en embarazo aumenta el riesgo de sufrir complicaciones. El síndrome de HELLP se presento con mayor frecuencia en pacientes que realizaron 6 o mas controles prenatales (p=0.066). Discusión: Los resultados evidencian una prevalencia de preeclampsia severa mayor que la observada por otros autores, probablemente por ser una UCI exclusivamente obstétrica. Las complicaciones mas frecuentes son concordantes con otros estudios publicados. El mayor riesgo de complicaciones asociadas en pacientes que ingresan embarazadas a la UCIO podría estar en relación a la severidad de la patología. Se requieren estudios analíticos para establecer asociaciones entre cada una de las complicaciones y sus factores condicionantes.
Resumo:
Objetivo: proponer un instrumento para el seguimiento de la calidad de la atención de pacientes con patologías quirúrgicas abdominales urgentes. Métodos: se revisaron restropectivamente historias clínicas de pacientes quienes requirieron cirugía general de urgencia (CGU) en agosto de 2013. Se analizaron variables demográficas, factores de riesgo, severidad y desenlace hasta el día 30 postoperatorio. Se incluyeron los indicadores de calidad del National Surgical Quality Improvement Program (NSQIP) y el National Trauma Data Bank, y se adicionaron otros. Resultados: Se intervinieron 231 pacientes de 261 procedimientos de CGU. La edad promedio fue 49 años. Los procedimientos más comunes fueron la colecistectomía laparoscópica (37.2%), la apendicectomía (35.6%), la laparotomía exploratoria (12.6%), el drenaje de colección abdominal (9.1%) y la liberación de adherencias (6.9%). La mortalidad fue de 3.46% (n=8), la morbilidad severa fue de 8.04%. La duración de la hospitalización fue de 6.54 días +/- 5.180 y la de hospitalización en Unidad de Cuidado Intensivo fue de 5.7 días +/- 4.42. La oportunidad de salas de cirugía para la apendicetomía fue de 5 horas para las apendicitis con peritonitis generalizada, y de 8 horas para las apendicitis localizadas, 37 horas para colecistitis, 7.48 horas para colangitis y 2.42 horas para diverticulitis. Conclusiones: Crear de un instrumento para la medición de la calidad de la atención de los pacientes en CGU, es necesario para la autoevaluación institucional y para definir planes de mejoramiento y distribución de los recursos.
Resumo:
The bibliographic profile of 125 undergraduate (licentiate) theses was analyzed, describing absolute quantities of several bibliometric variables, as well as within-document indexes and average lags of the references. The results show a consistent pattern across the years in the 6 cohorts included in the sample (2001-2007), with variations, which fall within the robust confi dence intervals for the global central tendency. The median number of references per document was 52 (99% CI 47-55); the median percentage of journal articles cited was 55%, with a median age for journal references of 9 years. Other highlights of the bibliographic profile were the use of foreign language references (median 61%), and low reliance on open web documents (median 2%). A cluster analysis of the bibliometric indexes resulted in a typology of 2 main profiles, almost evenly distributed, one of them with the makeup of a natural science bibliographic profile and the second within the style of the humanities. In general, the number of references, proportion of papers, and age of the references are close to PhD dissertations and Master theses, setting a rather high standard for undergraduate theses.
Resumo:
La necesidad de involucrar el concepto de comunidad y sus estrategias con el sector salud, generan el problema de investigación de determinar ¿Cuál es la utilidad de la relación estratégica comunitaria y el marketing en empresas del sector salud? El sector salud ha apartado las actividades relacionales con sus clientes, el cual es caracterizado por la atracción, desarrollo y mantenimiento de relaciones con los clientes. El objetivo de la investigación es determinar cuál es la utilidad de la relación estratégica comunitaria y el marketing en empresas del sector salud y los objetivos específicos son: describir el uso de comunidad e Identificar la utilidad de aplicar las estrategias comunitarias en el sector. La metodología es la investigación y análisis de caso, estudiando una organización relevante dentro del sector salud, anexando fuentes de información secundarias como que aporten a los resultados. El análisis arroja una brecha entre la teoría y la utilización de comunidad, donde la organización la define como sus clientes y empleados. Posteriormente cabe determinar si son aplicadas las estrategias comunitarias por la compañía, donde se encontró que algunas lo son. Al encontrar el uso de estrategias cabe estudiar si generan utilidad a los resultados demostrando que conservar y mejorar relaciones con los clientes es de beneficio para la compañía, sin dejar de atraer nuevos clientes para ampliar las posibilidades de ser una compañía rentable y perdurable. Finalmente se establece un eje estratégico que genere un impacto positivo a la empresa - comunidad para crear relaciones más efectivas y rentables.
Resumo:
El presente escrito desarrolla un análisis comparado entre el sistema de compras públicas colombiano y el Tratado de Libre Comercio suscrito con los Estados Unidos en cuanto a compras públicas se refiere, poniendo en evidencia inconsistencias de tipo jurídico para efectos principalmente prácticos, acudiendo a temas de soporte para el desarrollo de las obligaciones contenidas en el acuerdo, como son las Normas de Origen de los Bienes y el régimen de responsabilidad del contratista estatal colombiano.
Resumo:
We consider two–sided many–to–many matching markets in which each worker may work for multiple firms and each firm may hire multiple workers. We study individual and group manipulations in centralized markets that employ (pairwise) stable mechanisms and that require participants to submit rank order lists of agents on the other side of the market. We are interested in simple preference manipulations that have been reported and studied in empirical and theoretical work: truncation strategies, which are the lists obtained by removing a tail of least preferred partners from a preference list, and the more general dropping strategies, which are the lists obtained by only removing partners from a preference list (i.e., no reshuffling). We study when truncation / dropping strategies are exhaustive for a group of agents on the same side of the market, i.e., when each match resulting from preference manipulations can be replicated or improved upon by some truncation / dropping strategies. We prove that for each stable mechanism, truncation strategies are exhaustive for each agent with quota 1 (Theorem 1). We show that this result cannot be extended neither to group manipulations (even when all quotas equal 1 – Example 1), nor to individual manipulations when the agent’s quota is larger than 1 (even when all other agents’ quotas equal 1 – Example 2). Finally, we prove that for each stable mechanism, dropping strategies are exhaustive for each group of agents on the same side of the market (Theorem 2), i.e., independently of the quotas.
Resumo:
Objetivo: Determinar la distribución por percentiles de la circunferencia de cintura en una población escolar de Bogotá, Colombia, pertenecientes al estudio FUPRECOL. Métodos: Estudio transversal, realizado en 3.005 niños y 2.916 adolescentes de entre 9 y 17,9 años de edad, de Bogotá, Colombia. Se tomaron medidas de peso, talla, circunferencia de cintura, circunferencia de cadera y estado de maduración sexual por auto-reporte. Se calcularon los percentiles (P3, P10, P25, P50, P75, P90 y P97) y curvas centiles según sexo y edad. Se realizó una comparación entre los valores de la circunferencia de cintura observados con estándares internacionales. Resultados: De la población general (n=5.921), el 57,0% eran chicas (promedio de edad 12,7±2,3 años). En la mayoría de los grupos etáreos la circunferencia de cintura de las chicas fue inferior a la de los chicos. El aumento entre el P50-P97 de la circunferencia de cintura , por edad, fue mínimo de 15,7 cm en chicos de 9-9.9 años y de 16,0 cm en las chicas de 11-11.9 años. Al comparar los resultados de este estudio, por grupos de edad y sexo, con trabajos internacionales de niños y adolescentes, el P50 fue inferior al reportado en Perú e Inglaterra a excepción de los trabajos de la India, Venezuela (Mérida), Estados Unidos y España. Conclusiones: Se presentan percentiles de la circunferencia de cintura según edad y sexo que podrán ser usados de referencia en la evaluación del estado nutricional y en la predicción del riesgo cardiovascular desde edades tempranas.
Resumo:
Compute grids are used widely in many areas of environmental science, but there has been limited uptake of grid computing by the climate modelling community, partly because the characteristics of many climate models make them difficult to use with popular grid middleware systems. In particular, climate models usually produce large volumes of output data, and running them usually involves complicated workflows implemented as shell scripts. For example, NEMO (Smith et al. 2008) is a state-of-the-art ocean model that is used currently for operational ocean forecasting in France, and will soon be used in the UK for both ocean forecasting and climate modelling. On a typical modern cluster, a particular one year global ocean simulation at 1-degree resolution takes about three hours when running on 40 processors, and produces roughly 20 GB of output as 50000 separate files. 50-year simulations are common, during which the model is resubmitted as a new job after each year. Running NEMO relies on a set of complicated shell scripts and command utilities for data pre-processing and post-processing prior to job resubmission. Grid Remote Execution (G-Rex) is a pure Java grid middleware system that allows scientific applications to be deployed as Web services on remote computer systems, and then launched and controlled as if they are running on the user's own computer. Although G-Rex is general purpose middleware it has two key features that make it particularly suitable for remote execution of climate models: (1) Output from the model is transferred back to the user while the run is in progress to prevent it from accumulating on the remote system and to allow the user to monitor the model; (2) The client component is a command-line program that can easily be incorporated into existing model work-flow scripts. G-Rex has a REST (Fielding, 2000) architectural style, which allows client programs to be very simple and lightweight and allows users to interact with model runs using only a basic HTTP client (such as a Web browser or the curl utility) if they wish. This design also allows for new client interfaces to be developed in other programming languages with relatively little effort. The G-Rex server is a standard Web application that runs inside a servlet container such as Apache Tomcat and is therefore easy to install and maintain by system administrators. G-Rex is employed as the middleware for the NERC1 Cluster Grid, a small grid of HPC2 clusters belonging to collaborating NERC research institutes. Currently the NEMO (Smith et al. 2008) and POLCOMS (Holt et al, 2008) ocean models are installed, and there are plans to install the Hadley Centre’s HadCM3 model for use in the decadal climate prediction project GCEP (Haines et al., 2008). The science projects involving NEMO on the Grid have a particular focus on data assimilation (Smith et al. 2008), a technique that involves constraining model simulations with observations. The POLCOMS model will play an important part in the GCOMS project (Holt et al, 2008), which aims to simulate the world’s coastal oceans. A typical use of G-Rex by a scientist to run a climate model on the NERC Cluster Grid proceeds as follows :(1) The scientist prepares input files on his or her local machine. (2) Using information provided by the Grid’s Ganglia3 monitoring system, the scientist selects an appropriate compute resource. (3) The scientist runs the relevant workflow script on his or her local machine. This is unmodified except that calls to run the model (e.g. with “mpirun”) are simply replaced with calls to "GRexRun" (4) The G-Rex middleware automatically handles the uploading of input files to the remote resource, and the downloading of output files back to the user, including their deletion from the remote system, during the run. (5) The scientist monitors the output files, using familiar analysis and visualization tools on his or her own local machine. G-Rex is well suited to climate modelling because it addresses many of the middleware usability issues that have led to limited uptake of grid computing by climate scientists. It is a lightweight, low-impact and easy-to-install solution that is currently designed for use in relatively small grids such as the NERC Cluster Grid. A current topic of research is the use of G-Rex as an easy-to-use front-end to larger-scale Grid resources such as the UK National Grid service.
Resumo:
The theory of harmonic force constant refinement calculations is reviewed, and a general-purpose program for force constant and normal coordinate calculations is described. The program, called ASYM20. is available through Quantum Chemistry Program Exchange. It will work on molecules of any symmetry containing up to 20 atoms and will produce results on a series of isotopomers as desired. The vibrational secular equations are solved in either nonredundant valence internal coordinates or symmetry coordinates. As well as calculating the (harmonic) vibrational wavenumbers and normal coordinates, the program will calculate centrifugal distortion constants, Coriolis zeta constants, harmonic contributions to the α′s. root-mean-square amplitudes of vibration, and other quantities related to gas electron-diffraction studies and thermodynamic properties. The program will work in either a predict mode, in which it calculates results from an input force field, or in a refine mode, in which it refines an input force field by least squares to fit observed data on the quantities mentioned above. Predicate values of the force constants may be included in the data set for a least-squares refinement. The program is written in FORTRAN for use on a PC or a mainframe computer. Operation is mainly controlled by steering indices in the input data file, but some interactive control is also implemented.
Resumo:
We describe a FORTRAN-90 program to compute low-energy electron diffraction I(V) curves. Plane-waves and layer doubling are used to compute the inter-layer multiple-scattering, while the intra-layer multiple-scattering is computed in the standard way expanding the wavefield on a basis of spherical waves. The program is kept as general as possible, in order to allow testing different parts of multiple-scattering calculations. In particular, it can handle non-diagonal t-matrices describing the scattering of non-spherical potentials, anisotropic vibrations, anharmonicity, etc. The program does not use old FORTRAN flavours, and has been written keeping in mind the advantage for parallelism brought forward by FORTRAN-90.
Resumo:
The simulated annealing approach to crystal structure determination from powder diffraction data, as implemented in the DASH program, is readily amenable to parallelization at the individual run level. Very large scale increases in speed of execution can be achieved by distributing individual DASH runs over a network of computers. The CDASH program delivers this by using scalable on-demand computing clusters built on the Amazon Elastic Compute Cloud service. By way of example, a 360 vCPU cluster returned the crystal structure of racemic ornidazole (Z0 = 3, 30 degrees of freedom) ca 40 times faster than a typical modern quad-core desktop CPU. Whilst used here specifically for DASH, this approach is of general applicability to other packages that are amenable to coarse-grained parallelism strategies.