918 resultados para entity
Resumo:
In this thesis T-policy is implemented to the inventory system with random lead time and also repair in the reliability of k-out-of-n system. Inventory system may be considered as the system of keeping records of the amounts of commodities in stock. Reliability is defined as the ability of an entity to perform a required function under given conditions for a given time interval. It is measured by the probability that an entity E can perform a required function under given conditions for the time interval. In this thesis considered k-out-of-n system with repair and two modes of service under T-policy. In this case first server is available always and second server is activated on elapse of T time units. The lead time is exponentially distributed with parameter and T is exponentially distributed with parameter from the epoch at which it was inactivated after completion of repair of all failed units in the previous cycle, or the moment n-k failed units accumulate. The repaired units are assumed to be as good as new. In this study , three different situations, ie; cold system, warm system and hot system. A k-out-of-n system is called cold, warm or hot according as the functional units do not fail, fail at a lower rate or fail at the same rate when system is shown as that when it is up.
Resumo:
Sharing of information with those in need of it has always been an idealistic goal of networked environments. With the proliferation of computer networks, information is so widely distributed among systems, that it is imperative to have well-organized schemes for retrieval and also discovery. This thesis attempts to investigate the problems associated with such schemes and suggests a software architecture, which is aimed towards achieving a meaningful discovery. Usage of information elements as a modelling base for efficient information discovery in distributed systems is demonstrated with the aid of a novel conceptual entity called infotron.The investigations are focused on distributed systems and their associated problems. The study was directed towards identifying suitable software architecture and incorporating the same in an environment where information growth is phenomenal and a proper mechanism for carrying out information discovery becomes feasible. An empirical study undertaken with the aid of an election database of constituencies distributed geographically, provided the insights required. This is manifested in the Election Counting and Reporting Software (ECRS) System. ECRS system is a software system, which is essentially distributed in nature designed to prepare reports to district administrators about the election counting process and to generate other miscellaneous statutory reports.Most of the distributed systems of the nature of ECRS normally will possess a "fragile architecture" which would make them amenable to collapse, with the occurrence of minor faults. This is resolved with the help of the penta-tier architecture proposed, that contained five different technologies at different tiers of the architecture.The results of experiment conducted and its analysis show that such an architecture would help to maintain different components of the software intact in an impermeable manner from any internal or external faults. The architecture thus evolved needed a mechanism to support information processing and discovery. This necessitated the introduction of the noveI concept of infotrons. Further, when a computing machine has to perform any meaningful extraction of information, it is guided by what is termed an infotron dictionary.The other empirical study was to find out which of the two prominent markup languages namely HTML and XML, is best suited for the incorporation of infotrons. A comparative study of 200 documents in HTML and XML was undertaken. The result was in favor ofXML.The concept of infotron and that of infotron dictionary, which were developed, was applied to implement an Information Discovery System (IDS). IDS is essentially, a system, that starts with the infotron(s) supplied as clue(s), and results in brewing the information required to satisfy the need of the information discoverer by utilizing the documents available at its disposal (as information space). The various components of the system and their interaction follows the penta-tier architectural model and therefore can be considered fault-tolerant. IDS is generic in nature and therefore the characteristics and the specifications were drawn up accordingly. Many subsystems interacted with multiple infotron dictionaries that were maintained in the system.In order to demonstrate the working of the IDS and to discover the information without modification of a typical Library Information System (LIS), an Information Discovery in Library Information System (lDLIS) application was developed. IDLIS is essentially a wrapper for the LIS, which maintains all the databases of the library. The purpose was to demonstrate that the functionality of a legacy system could be enhanced with the augmentation of IDS leading to information discovery service. IDLIS demonstrates IDS in action. IDLIS proves that any legacy system could be augmented with IDS effectively to provide the additional functionality of information discovery service.Possible applications of IDS and scope for further research in the field are covered.
Resumo:
This thesis attempts to investigate the problems associated with such schemes and suggests a software architecture, which is aimed towards achieving a meaningful discovery. Usage of information elements as a modelling base for efficient information discovery in distributed systems is demonstrated with the aid of a novel conceptual entity called infotron. The investigations are focused on distributed systems and their associated problems. The study was directed towards identifying suitable software architecture and incorporating the same in an environment where information growth is phenomenal and a proper mechanism for carrying out information discovery becomes feasible. An empirical study undertaken with the aid of an election database of constituencies distributed geographically, provided the insights required. This is manifested in the Election Counting and Reporting Software (ECRS) System. ECRS system is a software system, which is essentially distributed in nature designed to prepare reports to district administrators about the election counting process and to generate other miscellaneous statutory reports.
Resumo:
A GIS has been designed with limited Functionalities; but with a novel approach in Aits design. The spatial data model adopted in the design of KBGIS is the unlinked vector model. Each map entity is encoded separately in vector fonn, without referencing any of its neighbouring entities. Spatial relations, in other words, are not encoded. This approach is adequate for routine analysis of geographic data represented on a planar map, and their display (Pages 105-106). Even though spatial relations are not encoded explicitly, they can be extracted through the specially designed queries. This work was undertaken as an experiment to study the feasibility of developing a GIS using a knowledge base in place of a relational database. The source of input spatial data was accurate sheet maps that were manually digitised. Each identifiable geographic primitive was represented as a distinct object, with its spatial properties and attributes defined. Composite spatial objects, made up of primitive objects, were formulated, based on production rules defining such compositions. The facts and rules were then organised into a production system, using OPS5
Resumo:
Gerade männliche Jugendliche nutzen in ihrer Pubertät und Adoleszenz zu einer gelingenden Gestaltung ihres Alltags und zur Ausbildung ihrer Identität zahlreiche Erscheinungsformen des Fantasy-Rollenspielens. In einem Prozess von Aneignung und Entäußerung integrieren dabei die Jugendlichen das überaus reiche multimediale Angebot, welches die Spiele bieten, in ihre Alltagsgestaltung, indem sie sich daraus spezifische Medien-, Text- und Ereignisarrangements bauen. Diese dienen einerseits der sozialen Integration und Distinktion, andererseits der Präsentation ihrer Identitätsentwürfe sich und anderen. Die Jugendlichen schaffen sich mittels dieser spezifischen Medien-, Text- und Ereignisarrangements eine in weiten Teilen von ihnen selbst bestimmte Welt, in der sie ihre Phantasie wie Kreativität mit großer Intensität, ja Obsession, innerhalb integrativer und solidarischer Interaktionsformen selbststeuernd und professionell ausleben. Diese Medien-, Text- und Ereignisarrangements zeigen Angebots- und Nutzungsformen, die sich nach einem medienkommunikativen Aneignungs- und Entäußerungsmodell in der Tradition der Cultural Studies (Stuart Hall) beschreiben lassen. Die Langzeitbeobachtung der Jugendlichen zeigt, dass sie alltagspragmatische Kulturtechniken zur selbstbestimmten Gestaltung von Alltag entwickeln: zunächst eine Strukturierung ihrer kognitiven, affektiven und pragmatischen Interaktion nach Kriterien erfolgreicher intrinsischer Interaktion, mit dem Ziel derer Perpetuierung im Flow-Erleben (Mihalyi Csikszentmihalyi), dann eine Ästhetisierung von Alltagswirklichkeit mittels kollektiver Fiktionalisierung in der Tradition des Collective Story Telling (Janet H. Murray). Diese Kulturtechniken stellen vor dem Hintergrund der Enkodierung und Dekodierung sozialer Codes spezifische Adaptionen von Prozessen der Bedeutungszuweisung und Subjekt- bzw. Identitätskonstitution dar. Die sie evozierenden und mit ihnen korrespondierenden handlungsleitenden Themen der Jugendlichen sind der Wunsch nach Rekonstitution von Gesamtheit in einer sich fragmentarisierenden Wirklichkeit, die Affirmation von Selbstbestimmung- und Autonomieerfahrungen, das Erleben von Reintegration und Solidarität für das sich dissoziiert erfahrende Individuum. Das Handeln der Jugendlichen basiert damit auf dem momentan dominanten Prozess einer Individualisierung von Lebenswelt unter den Bedingungen von Reflexivität und Erlebnisrationalität in der postmodernen Gesellschaft. Mit ihren Versuchen selbstbestimmter Gestaltung folgen sie dem aktuellen gesellschaftlichen Auftrag einer weitgehend in eigener Regie vorzunehmenden Lokalisierung dieses Prozesses. Zunehmend tritt diese von den Jugendlichen selbstgesteuerte Sozialisation neben die traditionell heteronome Sozialisation von gesellschaftlichen Instituten wie etwa die von Schule. Damit wird das Handeln der Jugendlichen zu einer Herausforderung an Pädagogik und Schule. Schule muss, wenn sie ihrem eigentlichen Auftrag von Förderung gerecht werden will, eine Sensibilität für diese Eigenständigkeit von Jugendlichen entwickeln und in der Beobachtung ihres Handelns didaktische Innovationen für Lehren und Lernen entwickeln. Im Mittelpunkt steht dabei die Wiederentdeckung des pädagogischen Dialogs, besonders aber die Entwicklung einer individualisierten Lernkultur und die Förderung jugendlicher Gestaltungskompetenzen, welche von deren alltagsästhetischen Erfahrungen und Kompetenzen im Umgang mit multimedialen Kulturprodukten ausgeht. Schule kann und muss für diese Prozesse selbstgesteuerten Lernens angemessene pädagogische Räume bereitstellen, in denen die Jugendlichen innerhalb eines geschützten Kontextes in der Auseinandersetzung mit eigenen wie fremden Entwürfen ihre Identität entwickeln können.
Resumo:
Linear graph reduction is a simple computational model in which the cost of naming things is explicitly represented. The key idea is the notion of "linearity". A name is linear if it is only used once, so with linear naming you cannot create more than one outstanding reference to an entity. As a result, linear naming is cheap to support and easy to reason about. Programs can be translated into the linear graph reduction model such that linear names in the program are implemented directly as linear names in the model. Nonlinear names are supported by constructing them out of linear names. The translation thus exposes those places where the program uses names in expensive, nonlinear ways. Two applications demonstrate the utility of using linear graph reduction: First, in the area of distributed computing, linear naming makes it easy to support cheap cross-network references and highly portable data structures, Linear naming also facilitates demand driven migration of tasks and data around the network without requiring explicit guidance from the programmer. Second, linear graph reduction reveals a new characterization of the phenomenon of state. Systems in which state appears are those which depend on certain -global- system properties. State is not a localizable phenomenon, which suggests that our usual object oriented metaphor for state is flawed.
Resumo:
“What is value in product development?” is the key question of this paper. The answer is critical to the creation of lean in product development. By knowing how much value is added by product development (PD) activities, decisions can be more rationally made about how to allocate resources, such as time and money. In order to apply the principles of Lean Thinking and remove waste from the product development system, value must be precisely defined. Unfortunately, value is a complex entity that is composed of many dimensions and has thus far eluded definition on a local level. For this reason, research has been initiated on “Measuring Value in Product Development.” This paper serves as an introduction to this research. It presents the current understanding of value in PD, the critical questions involved, and a specific research design to guide the development of a methodology for measuring value. Work in PD value currently focuses on either high-level perspectives on value, or detailed looks at the attributes that value might have locally in the PD process. Models that attempt to capture value in PD are reviewed. These methods, however, do not capture the depth necessary to allow for application. A methodology is needed to evaluate activities on a local level to determine the amount of value they add and their sensitivity with respect to performance, cost, time, and risk. Two conceptual tools are proposed. The first is a conceptual framework for value creation in PD, referred to here as the Value Creation Model. The second tool is the Value-Activity Map, which shows the relationships between specific activities and value attributes. These maps will allow a better understanding of the development of value in PD, will facilitate comparison of value development between separate projects, and will provide the information necessary to adapt process analysis tools (such as DSM) to consider value. The key questions that this research entails are: · What are the primary attributes of lifecycle value within PD? · How can one model the creation of value in a specific PD process? · Can a useful methodology be developed to quantify value in PD processes? · What are the tools necessary for application? · What PD metrics will be integrated with the necessary tools? The research milestones are: · Collection of value attributes and activities (September, 200) · Development of methodology of value-activity association (October, 2000) · Testing and refinement of the methodology (January, 2001) · Tool Development (March, 2001) · Present findings at July INCOSE conference (April, 2001) · Deliver thesis that captures a formalized methodology for defining value in PD (including LEM data sheets) (June, 2001) The research design aims for the development of two primary deliverables: a methodology to guide the incorporation of value, and a product development tool that will allow direct application.
Resumo:
gvSIG Mobile, la versión de gvSIG para dispositivos móviles presenta su nueva versión que incluye las esperadas funcionalidades de creación de nuevas entidades geográficas y utilización de formularios personalizados para edición de datos, además de nuevos formatos de datos vectoriales (GML, KML, GPX) y sistemas de referencia. Funcionalidades que se suman a las capacidades de visor de cartografía (ECW, SHP, WMS) y sistema de localización mediante GPS que ya posee. gvSIG Mobile está siendo desarrollado por Prodevelop, la Universitat de València e Iver para la Conselleria d’Infraestructures i Transport de la Generalitat Valenciana y se distribuye con una licencia GPL
Resumo:
El asma bronquial es una enfermedad inflamatoria crónica, se asocia a hiperrespuesta de la vía aérea, la cual lleva a episodios recurrentes de sibilancias, tos y disnea. La entidad se ha correlacionado con una gran variedad de genes involucrados en su fisiopatología, dentro de los cuales se encuentran genes localizados en el cromosoma 5 (5q23-31), como el del Receptor ß2 Adrenérgico (RB2A). En el presente trabajo se realizó una estimación de las frecuencias de los polimorfismos Arg16Gly, Gln27Glu y Thr164Ile de este receptor, y se estudió la relación existente entre los diferentes polimorfismos y asma, así como su relación con respecto a la severidad de la enfermedad, finalmente se estimó la relación de los haplotipos conformados por estos tres polimorfismos y su asociación con la enfermedad y severidad del fenotipo asmático.
Resumo:
El síndrome de pinzamiento femoroacetabular es una entidad reciente secundaria al desacoplamiento de la articulación coxofemoral, por alteración en la morfología de la cabeza femoral o del acetábulo, lo cual puede ocasionar osteoartrosis a temprana edad. El propósito del estudio es describir los signos clínicos más frecuentes y los hallazgos imagenológicos del síndrome de pinzamiento femoroacetabular. Metodologia: se realizó un estudio retrospectivo descriptivo de la frecuencia de las manifestaciones clínicas del síndrome de pinzamiento femoroacetabular y hallazgos en artroresonancia magnética entre los meses de Enero de 2008 a junio de 2009. Se seleccionaron treinta y dos pacientes en la institución, y se evaluaron sus manifestaciones clínicas, examen físico e imágenes de artroresonancia magnética. Resultados: todos los pacientes presentaron dolor inguinal en el momento de la consulta, con presencia de test de pinzamiento positivo para todos, y el signo de la C en el 90%. El subtipo más frecuente fue PINCER 46.6 % seguido por el pinzamiento MIXTO 39.3%. El signo de crossover estuvo presente en el 100% de los pacientes con retroversión acetabular (12). El resultado de incapacidad funcional fue WOMAC 48.44 ±14.79 (IC 95% 43.1-53.77), nunca fue mayor a 50 y el dolor tuvo un promedio de 11 / 20. Discusión: la artroresonancia magnética es el examen de elección, cuyos hallazgos permiten comprender las manifestaciones clínicas. El ángulo alfa y la versión femoral constituyeron los signos más significativos, estos hallazgos son equiparables a los obtenidos en estudios donde la mayor parte de la población son mujeres de edad media.
Resumo:
El tema del sistema de salud en Colombia involucra discursos jurídicos, políticos, sociales, económicos y empresariales que se enfrentan constantemente creando inestabilidad e incertidumbre en el proceder del sistema y violentando a la Ley 100 de 1993. Bajo este marco de desequilibrio se hace necesario que la entidad promotora de salud SALUD TOTAL EPS-S realice una investigación de futuros basada en la planeación estratégica por escenarios para disminuir la incertidumbre sobre la perdurabilidad de la compañía y el funcionamiento del sistema de salud entendido como un sector relevante de la economía nacional.
Resumo:
El santo grial de la física actual es el bosón de Higgs, partícula y componente elemental de toda materia ordinaria en el Universo; y el complejo experimento que se está llevando a cabo para concluir su hallazgo, se puede contemplar, analógicamente, como el inicio del proceso estratégico en la organización. Aquí viene a cumplir el objetivo de dar inicio a dicho proceso la partícula de información estratégica (PIE), ente que, al hacer afinidad entre partículas y subpartículas nucleares y componentes de la estrategia corporativa, también encuentra cabida en los procesos de planeación y ejecución en la organización. Posteriormente, se plantea un plano (=paisaje) de funcionamiento entre el entorno, el interior de la organización y la interacción entre ambos. Este trabajo muestra de qué manera las ciencias de la complejidad son implementadas para el análisis y la síntesis de las dinámicas organizacionales.
Resumo:
La neumonía asociada a ventilador (NAV) es una entidad de incidencia creciente en cuidado intensivo con grandes dificultades en la estandarización de pruebas diagnósticas, generando altos costos en su manejo. Realizar un abordaje diagnóstico apropiado para cada institución y conocer la flora causante permite un mejor desenlace clínico y ahorro significativo para el sistema. Métodos diagnósticos sencillos como la tinción gram de muestras respiratorias son ampliamente usados para NAV, pero se observa variabilidad con el cultivo, prueba microbiológica definitiva. El objetivo de este estudio fue determinar el grado de acuerdo entre la tinción de gram inicial de una muestra de lavado broncoalveolar, con el resultado del cultivo. Se realizó muestreo consecutivo secuencial incluyendo los pacientes con diagnostico clínico de neumonía asociada a ventilador y que por protocolo institucional se llevaron a fibrobroncoscopia y lavado del cual se tomaron muestras para tinción de gram y cultivo de gérmenes comunes. Se realizó análisis de concordancia por índice kappa para determinar el acuerdo entre los resultados de la tinción de gram y el informe del cultivo. Adicionalmente se analizaron otras variables descriptivas de importancia. El indica kappa de 16,8% muestra mala concordancia entre el gram y el cultivo del lavado broncoalveolar, sin embargo, esto puede tener relación con el uso de antibióticos previo ocurrido en un 69%. Los diagnósticos mas frecuentes son sepsis y enfermedad neurológica, predominó la baja probabilidad clínica de neumonía; hay mayor trastorno de oxigenación el día de diagnostico de NAV. La mortalidad en UCI fue 27.5% y 29% al día 28.
Resumo:
Este trabajo tuvo como utilidad básica determinar cuál es la correlación del diagnóstico clínico con los criterios de Gibss y con el Gold estándar que es la patología en las paciente con corioamnionitis para así poder establecer si el diagnostico se realizó en forma adecuada y cuáles son los criterios más relevantes para su diagnóstico. Dicha investigación se realizó de la siguiente manera: 1. Se Identificaron las pacientes que ingresaron al servicio de urgencias o al servicio de ginecología de la Clínica san Rafael con diagnóstico de Corioamnionitis (teniendo en cuenta los criterios de Gibbs), pacientes que desarrollaron la entidad durante el trabajo de parto o a las cuales se les hizo el diagnostico durante el mismo parto se establecieron los criterios de Gibss para cada una como parte del diagnóstico clínico de corioamnionitis 2. se revisaron los estudios anatomo-patologico realizado a las placentas culminado el proceso de trabajo de parto ya fuera por vía vaginal o cesárea y se realizó un estudio de asociación entre el resultado patológico de corioamnionitis y el diagnóstico clínico. Con esta investigación se estableció el diagnóstico clínico se correlaciono con la patología en el 54% de los casos 1. la asociación de los criterios de Gibbs con el diagnostico patológico, encontrando que individualmente los criterios que se asocian con el diagnóstico definitivo de corioamnionitis fueron: la taquicardia materna OR (8,53), taquicardia fetal OR (7,7), y leucocitosis OR (2,86), la descarga vaginal fétida y la hipersensibilidad uterina tuvieron menor significancia con OR de 1,24 y 1,1 respectivamente. e En la regresión logística se encontró que los criterios de Gibbs fueron estadísticamente significativos en donde para la taquicardia materna OR (7,29), taquicardia fetal OR (4,107), hipersensibilidad uterina OR (2,96), leucocitosis OR (4,93) y descarga vaginal OR (2,65)
Resumo:
El trabajo muestra como a partir de unos principios básicos de las tecnologías de la información y las Telecomunicaciones TIC, y el desarrollo legislativo colombiano, en especial la Ley 527 de 1999, es posible facilitar la relación entre la Administración Pública y los ciudadanos, a través del procedimiento administrativo por medios electrónicos, desarrollando así los principios de la función pública contenidos en la Constitución Política y en la Ley 489 de 1998, haciéndola no sólo más ágil y fácil de acceder, sino generando transparencia dentro de la gestión pública estatal. Se presenta además una comparación entre el procedimiento administrativo tradicional y el electrónico; así como la aplicación práctica de éste a un trámite específico de una entidad pública. Finaliza haciendo un análisis del aporte que al tema hizo la Ley 1437 de 2011, haciéndolo imperativo en la administración pública en todos sus niveles.