980 resultados para usefulness
Resumo:
Diese Dissertation stellt eine Studie da, welche sich mit den Änderungen in der Governance der Hochschulbildung in Vietnam beschäftigt. Das zentrale Ziel dieser Forschungsarbeit ist die Untersuchung der Herkunft und Änderung in der Beziehung der Mächte zwischen dem vietnamesischen Staat und den Hochschulbildungsinstituten (HI), welche hauptsächlich aus der Interaktion dieser beiden Akteure resultiert. Die Macht dieser beiden Akteure wurde im sozialen Bereich konstruiert und ist hauptsächlich durch ihre Nützlichkeit und Beiträge für die Hochschulbildung bestimmt. Diese Arbeit beschäftigt sich dabei besonders mit dem Aspekt der Lehrqualität. Diese Studie nimmt dabei die Perspektive einer allgemeinen Governance ein, um die Beziehung zwischen Staat und HI zu erforschen. Zudem verwendet sie die „Resource Dependence Theory“ (RDT), um das Verhalten der HI in Bezug auf die sich verändernde Umgebung zu untersuchen, welche durch die Politik und eine abnehmende Finanzierung charakterisiert ist. Durch eine empirische Untersuchung der Regierungspolitik sowie der internen Steuerung und den Praktiken der vier führenden Universitäten kommt die Studie zu dem Schluss, dass unter Berücksichtigung des Drucks der Schaffung von Einkommen die vietnamesischen Universitäten sowohl Strategien als auch Taktiken entwickelt haben, um Ressourcenflüsse und Legitimität zu kontrollieren. Die Entscheidungs- und Zielfindung der Komitees, die aus einer Mehrheit von Akademikern bestehen, sind dabei mächtiger als die der Manager. Daher werden bei initiativen Handlungen der Universitäten größtenteils Akademiker mit einbezogen. Gestützt auf die sich entwickelnden Muster der Ressourcenbeiträge von Akademikern und Studierenden für die Hochschulbildung prognostiziert die Studie eine aufstrebende Governance Konfiguration, bei der die Dimensionen der akademischen Selbstverwaltung und des Wettbewerbsmarktes stärker werden und die Regulation des Staates rational zunimmt. Das derzeitige institutionelle Design und administrative System des Landes, die spezifische Gewichtung und die Koordinationsmechanismen, auch als sogenanntes effektives Aufsichtssystem zwischen den drei Schlüsselakteuren - der Staat, die HI/Akademiker und die Studierenden – bezeichnet, brauchen eine lange Zeit zur Detektion und Etablierung. In der aktuellen Phase der Suche nach einem solchen System sollte die Regierung Management-Tools stärken, wie zum Beispiel die Akkreditierung, belohnende und marktbasierte Instrumente und das Treffen informations-basierter Entscheidungen. Darüber hinaus ist es notwendig die Transparenz der Politik zu erhöhen und mehr Informationen offenzulegen.
Resumo:
Computational models are arising is which programs are constructed by specifying large networks of very simple computational devices. Although such models can potentially make use of a massive amount of concurrency, their usefulness as a programming model for the design of complex systems will ultimately be decided by the ease in which such networks can be programmed (constructed). This thesis outlines a language for specifying computational networks. The language (AFL-1) consists of a set of primitives, ad a mechanism to group these elements into higher level structures. An implementation of this language runs on the Thinking Machines Corporation, Connection machine. Two significant examples were programmed in the language, an expert system (CIS), and a planning system (AFPLAN). These systems are explained and analyzed in terms of how they compare with similar systems written in conventional languages.
Resumo:
The central thesis of this report is that human language is NP-complete. That is, the process of comprehending and producing utterances is bounded above by the class NP, and below by NP-hardness. This constructive complexity thesis has two empirical consequences. The first is to predict that a linguistic theory outside NP is unnaturally powerful. The second is to predict that a linguistic theory easier than NP-hard is descriptively inadequate. To prove the lower bound, I show that the following three subproblems of language comprehension are all NP-hard: decide whether a given sound is possible sound of a given language; disambiguate a sequence of words; and compute the antecedents of pronouns. The proofs are based directly on the empirical facts of the language user's knowledge, under an appropriate idealization. Therefore, they are invariant across linguistic theories. (For this reason, no knowledge of linguistic theory is needed to understand the proofs, only knowledge of English.) To illustrate the usefulness of the upper bound, I show that two widely-accepted analyses of the language user's knowledge (of syntactic ellipsis and phonological dependencies) lead to complexity outside of NP (PSPACE-hard and Undecidable, respectively). Next, guided by the complexity proofs, I construct alternate linguisitic analyses that are strictly superior on descriptive grounds, as well as being less complex computationally (in NP). The report also presents a new framework for linguistic theorizing, that resolves important puzzles in generative linguistics, and guides the mathematical investigation of human language.
Resumo:
There are numerous text documents available in electronic form. More and more are becoming available every day. Such documents represent a massive amount of information that is easily accessible. Seeking value in this huge collection requires organization; much of the work of organizing documents can be automated through text classification. The accuracy and our understanding of such systems greatly influences their usefulness. In this paper, we seek 1) to advance the understanding of commonly used text classification techniques, and 2) through that understanding, improve the tools that are available for text classification. We begin by clarifying the assumptions made in the derivation of Naive Bayes, noting basic properties and proposing ways for its extension and improvement. Next, we investigate the quality of Naive Bayes parameter estimates and their impact on classification. Our analysis leads to a theorem which gives an explanation for the improvements that can be found in multiclass classification with Naive Bayes using Error-Correcting Output Codes. We use experimental evidence on two commonly-used data sets to exhibit an application of the theorem. Finally, we show fundamental flaws in a commonly-used feature selection algorithm and develop a statistics-based framework for text feature selection. Greater understanding of Naive Bayes and the properties of text allows us to make better use of it in text classification.
Resumo:
If we are to understand how we can build machines capable of broad purpose learning and reasoning, we must first aim to build systems that can represent, acquire, and reason about the kinds of commonsense knowledge that we humans have about the world. This endeavor suggests steps such as identifying the kinds of knowledge people commonly have about the world, constructing suitable knowledge representations, and exploring the mechanisms that people use to make judgments about the everyday world. In this work, I contribute to these goals by proposing an architecture for a system that can learn commonsense knowledge about the properties and behavior of objects in the world. The architecture described here augments previous machine learning systems in four ways: (1) it relies on a seven dimensional notion of context, built from information recently given to the system, to learn and reason about objects' properties; (2) it has multiple methods that it can use to reason about objects, so that when one method fails, it can fall back on others; (3) it illustrates the usefulness of reasoning about objects by thinking about their similarity to other, better known objects, and by inferring properties of objects from the categories that they belong to; and (4) it represents an attempt to build an autonomous learner and reasoner, that sets its own goals for learning about the world and deduces new facts by reflecting on its acquired knowledge. This thesis describes this architecture, as well as a first implementation, that can learn from sentences such as ``A blue bird flew to the tree'' and ``The small bird flew to the cage'' that birds can fly. One of the main contributions of this work lies in suggesting a further set of salient ideas about how we can build broader purpose commonsense artificial learners and reasoners.
Resumo:
While protein microarray technology has been successful in demonstrating its usefulness for large scale high-throughput proteome profiling, performance of antibody/antigen microarrays has been only moderately productive. Immobilization of either the capture antibodies or the protein samples on solid supports has severe drawbacks. Denaturation of the immobilized proteins as well as inconsistent orientation of antibodies/ligands on the arrays can lead to erroneous results. This has prompted a number of studies to address these challenges by immobilizing proteins on biocompatible surfaces, which has met with limited success. Our strategy relates to a multiplexed, sensitive and high-throughput method for the screening quantification of intracellular signalling proteins from a complex mixture of proteins. Each signalling protein to be monitored has its capture moiety linked to a specific oligo âtag’. The array involves the oligonucleotide hybridization-directed localization and identification of different signalling proteins simultaneously, in a rapid and easy manner. Antibodies have been used as the capture moieties for specific identification of each signaling protein. The method involves covalently partnering each antibody/protein molecule with a unique DNA or DNA derivatives oligonucleotide tag that directs the antibody to a unique site on the microarray due to specific hybridization with a complementary tag-probe on the array. Particular surface modifications and optimal conditions allowed high signal to noise ratio which is essential to the success of this approach.
Resumo:
Se revisan diferentes formas en que la influencia social puede incidir sobre los comportamientos heterosexuales de prevención de la transmisión del VIH de los jóvenes y se presentan los resultados de algunos trabajos de las autoras, así como de otros investigadores, en que se analizan dichas relaciones. Se concluye resaltando: 1) la utilidad clínica de la evaluación de las expectativas de autoeficacia para poder intervenir específicamente en aquellas áreas en que los jóvenes se perciban con menores capacidades para ser preventivos, 2) la relación observada entre el uso de preservativo autoinformado y la creencia en su aceptación por parte de los referentes sociales más cercanos y 3) la conveniencia de que los jóvenes posean suficientes habilidades de comunicación que les permitan negociar con éxito el uso del preservativo y les ayuden a compensar posibles influencias sociales en contra de su empleo
Resumo:
INTRODUCCION: El dolor torácico es una de las principales causas de consulta en los servicios de urgencias y cardiología, se convierte en un reto clasificar a los pacientes empleando una herramienta diagnóstica lo suficientemente sensible y especifica para establecer riesgo y pronóstico, la estrecha relación existente entre enfermedad aterosclerótica e inflamación ha dirigido su atención al papel de marcadores plasmáticos de inflamación como predictores de riesgo de eventos cardiovasculares. La Proteína C reactiva (PCR) ha sido ampliamente estudiada en pacientes con factores de riesgo cardiovascular y Eventos coronarios Agudos, pero se desconoce el comportamiento en pacientes con dolor torácico de probabilidad intermedia. OBJETIVOS: Determinar la utilidad y comportamiento de la Proteína C reactiva en pacientes con dolor torácico de probabilidad Intermedia para síndrome coronario. MATERIALES Y METODOS: Este estudio fue realizado entre junio 2008 y febrero de 2009 en una institución de referencia en cardiológica ( Fundación Cardio Infantil, Bogotá-Colombia), Se Estudiaron pacientes con EKG normal o no diagnostico y marcadores de injuria miocardica negativos. Los pacientes continuaron su estudio según las recomendaciones y guías internacionales para dolor torácico. Nosotros realizamos dos tomas de PCR, Una PCR antes de 12 horas de iniciado el dolor torácico y otra PCR después de las 18 Hrs de iniciado el dolor torácico, se realizo la deferencia entre estas dos PCR (PCR 18 hrs vs PCR basal) Con estos 3 resultados se hizo el análisis estadístico para hallar sensibilidad, especificidad, valor predictivo positivo, valor predictivo negativo, comparándolo contra las pruebas de provocación de isquemia y cateterismo. RESULTADOS: Un total de 203 pacientes fueron analizaron. Con un promedio de edad fue de 60.8 ± 11 años, Los dos géneros tuvieron una distribución sin diferencia significativas. Los factores de riesgo asociados fueron: Hipertensión arterial 76%(n=155), Dislipidemia 68.1%(n=139), Diabetes Mellitus 20.6%(n=42), Obesidad 7.4%(n=15) y tabaquismo 9.3%(n=19). El total de cateterismos realizados fueron 66 pruebas: Normal el 27%(n=18), lesiones no significativas el 25.8%(n=17) y lesiones Obstructivas 47%(n=31). La PCR tuvo una utilidad diagnostica baja, la PCR a las 18 horas es la mejor prueba diagnóstica , con un mejor comportamiento del área de la curva ROC 0.74 (IC , 0.64-0.83), con sensibilidad del 16.13% (IC 95%, 1.57-30.69), especificidad del 98.26%( IC 955, 96.01-100), un valor predictivo negativo de 86.67%(IC 95%, 81.64-91.69). En el seguimiento a los 30 días no encontró nuevas hospitalizaciones de causa cardiovascular. CONCLUSIONES: Nuestro estudio muestra una utilidad diagnostico baja de la PCR en el dolor torácico de probabilidad intermedia para enfermedad coronaria, el mejor comportamiento diagnostico se encontró en la PCR a las 18 hrs con una alta especificidad y un alto Valor predictivo negativo para un valor de PCR > de 3mg/dl, siendo menor la utilidad de la PCR basal y diferencia de la PCR. diferencia de la PCR. Estos hallazgos no se correlacionaron con estudios previos. No se pudo establecer un punto de Corte de la PCR diferente a los ya existentes debido a la variabilidad de la PCR entre la población de estudio. Las limitaciones encontradas en nuestro estudio hacen necesaria la realización de un estudio multicéntrico.
Resumo:
Antecedentes : la incidencia de sepsis neonatal tempana en prematuros es del 40% en nuestro medio, con mortalidad entre el 15-50% de los casos, el cual aumenta exponencialmente con la prematurez y se relaciona con secuelas neurológicas y pulmonares. Hasta la fecha no se han dado conclusiones definitivas en cuanto a la mejor prueba diagnóstica en este tópico, por lo anterior es de vital importancia encontrar el mejor método para su detección precoz. Objetivo: evaluar la utilidad de la histopatología placentaria en el diagnóstico de sepsis neonatal temprana de los recién nacidos menores de 36 semanas de edad gestacional, de la Fundación Santa Fe de Bogotá. Metodología: estudio de prueba diagnóstica donde se describieron los resultados obtenidos del análisis de la histopatología placentaria de los recién nacidos pretermino con sospecha de sepsis temprana comparados con el diagnostico de sepsis temprana probada. Resultados : se analizaron 114 pacientes con factores de riesgo para sepsis temprana de los cuales 74 tuvieron diagnóstico de sepsis probable confirmándose en cinco casos, encontrándose así para la histopatología placentaria sensibilidad del 100% IC 95% (90%-100%), especificidad 78.9% (IC 95% 70.7-87.0), índice de validez 79.8% (IC 95% 72%-87.6%), VPP 17.7 (IC 95%: 1.89%-33.8%) y VPN 100% (IC:98.7%-100%). Conclusión La corioamnionitis histológica es un biomarcador relevante en el diagnóstico oportuno de sepsis temprana probada en recién nacidos pretermino, ofreciendo una opción de ayuda diagnostica, no invasiva, con resultados definitivos en 24 horas.
Resumo:
Propósito de la revisión: la enfermedad de Parkinson (EP) es un trastorno degenerativo caracterizado clínicamente por presentar temblor en reposo, rigidez y bradicinesia. El propósito es determinar la utilidad de la molécula TRODAT-1 en el diagnóstico de la EP. Metodología: se realizó una búsqueda en las bases de datos: PUBMED, COCHRANE, MEDLINE, LILACS y SCIELO en un período de 10 años desde enero de 1998 a enero de 2008. Se obtuvieron 26 artículos, estos se analizaron y se seleccionaron 10 artículos, de los cuales sólo 6 respondían a las necesidades del estudio, de acuerdo a los criterios de inclusión. De los 6 artículos analizados, 4 fueron clasificados como evidencia grado (+) y los 2 restantes evidencia grado (-) de acuerdo con las guías NICE. Todos los artículos revisados reportan una disminución importante en la captación del TRODAT-1 a nivel estriatal, su utilidad en el diagnóstico de EP en estadios tempranos, bajo costo y seguridad. Sólo tres reportan valores de sensibilidad y especificidad, pero su nivel de calidad no permite hacer una comparación de los mismos. Conclusiones: se propone realizar estudios de prueba diagnóstica comparados con el diagnóstico clínico de la enfermedad, que tengan un acuerdo en la forma de plantear las mediciones semicuantitativas de las unidades de captación utilizando las mismas fórmulas para hacerlos comparables.
Resumo:
Introducción: la utilidad de las radiografías de tórax rutinarias se encuentra en discusión, con estudios que avalan su uso y, en el otro extremo, estudios que solo encuentran utilidad marginal. Objetivos: determinar la eficacia diagnóstica y terapéutica de las radiografías de tórax rutinarias matutinas en pacientes pediátricos bajo ventilación mecánica y la identificación de subgrupos en quienes dichas radiografías sean de mayor utilidad. Metodología: estudio prospectivo, analítico, transversal, realizado en pacientes de un mes a 18 años, sometidos a ventilación mecánica por más de 48 horas, entre diciembre de 2010 a noviembre de 2011. Se emplearon las pruebas de X2 de Pearson y el test de Fischer. Para el análisis de los datos, se utilizaron los programas Statgraphics y SPSS, versión 15. Resultados: se evaluaron 53 pacientes con 536 radiografías. Los hallazgos fueron principalmente menores. Los hallazgos mayores solo corresponden al 10.3% de los casos, siendo principalmente mal posición del tubo endotraqueal y nuevos infiltrados infecciosos. No fue posible establecer subgrupos pero los datos sugieren mayor utilidad de dichas radiografías en pacientes de menor edad y peso, así como en los sometidos a alto soporte ventilatorio. Conclusiones: la utilidad de las radiografías rutinarias en pacientes pediátricos es marginal, siendo necesaria la realización de nuevos estudios para establecer su eficacia diagnóstica y su utilidad en subgrupos de pacientes. Palabras clave: radiografía de tórax, rayos x de tórax, radiología, unidad de cuidado intensivo, unidad de cuidado crítico.
Resumo:
La proteína C reactiva ultrasensible es un biomarcador de inflamación vascular más estudiado y validado hasta la fecha. En el presente estudio se determino la correlación entre la PCR y el riesgo cardiovascular estratificado mediante la escala europea y el método de farmingham, en pacientes incluidas desde septiembre de 2007 hasta septiembre de 2011. Objetivo: establecer el grado de correlación entre los niveles de PCR ultrasensible y el grado de riesgo cardiovascular. Resultados: se incluyeron un total (N=299) mujeres mayores de 18 años, con promedio de edad de 48 años; según los niveles de PCR (89%) N= 269 tenían riesgo cardiovascular bajo. Con la estratificación de riesgo según la escala europea solo un (0.66%) N=2 se catalogaban como alto riesgo cardiovascular, implementando la escala de framingham un (74%) N=222 estaban en bajo riesgo. Predominando el riesgo cardiovascular bajo y datos de PCR en riesgo bajo. Encontramos muy débil correlación positiva entre los niveles de PCR y el riesgo cardiovascular calculado por el método de framingham para las pacientes (correlación de Pearson 0.323 con significancia estadística de 0,01) Finalmente encontramos una correlación inversa entre los niveles de PCR y HDL en la muestra estudiada estadísticamente significativa. Discusión: En la población estudiada existe una alta prevalencia de factores de riesgo cardiovasculares, destacamos la utilidad del método de framingham para discriminar riesgo cardiovascular en comparación con la escala europea. Además en el presente estudio, se destacan las correlaciones de la PCR con el perfil lipídico. Finalmente encontramos un correlación inversa entre los niveles de PCR y HDL en la muestra estudiada estadísticamente significativa, con lo cual podemos concluir posible utilidad tanto para el diagnostico y alternativa de estratificación en riesgo cardiovascular en nuestra población.
Resumo:
La psiquiatría como área del conocimiento, debe expandirse a nuevos campos, es por esto que el trabajo y todas sus implicaciones adquieren una importancia fundamental en el entendimiento del proceso de salud-enfermedad. Objetivo: esta revisión de la literatura, busca describir la evidencia que existe actualmente sobre la historia de la psiquiatría laboral, sus posibles aplicaciones, la epidemiología y perfil sociodemografico de los trabajadores afectados por enfermedades mentales, estrategias de prevención, estrés laboral, riesgos psicosociales, calificación y la utilidad de la psiquiatría en el accidente laboral. Métodos: Se realizó una búsqueda sistemática de la literatura en PUBMED de los siguientes términos MESH: PSYCHIATRY y WORKPLACE, mediante el conector [AND], limitándose los artículos por idioma (ingles y español). Posteriormente se realizo una búsqueda secundaria de las bibliografías citadas. Conclusiones: Los cambios de las condiciones laborales y del mundo, en general implican una serie de modificaciones en la concepción y aplicación de la psiquiatría, generando unas opciones importantes en la prevención y tratamiento de las enfermedades exacerbadas o causadas por el trabajo.
Resumo:
IMAGINING LTDA, es una empresa de publicidad, que decide aventurarse en un plan de reestructuración antes de ver el cierre como una posible opción. En ese sentido se empieza un total plan donde prácticamente se desarma lo poco que había en la empresa y se empieza de cero. El principal resultado es que se logra desarrollar un modelo de negocio planteado como Agencia de Publicidad Express, que logra integrar una serie de componentes estratégicos, que separados son diferenciales muy débiles, pero juntos se integran y se convierten en un gran diferencial estratégico generador de ventaja competitiva. Haciendo un estudio profundo, de la industria, el sector y la demanda, se puede ver que es un campo muy competido y hacinado sobretodo, sin embargo existen algunas necesidades en canal y cliente muy fuertes, que permiten desarrollar un modelo diferente en publicidad, que es en lo que IMAGINING, decide enfocarse para ser diferente y atacar exclusivamente como agencia a las empresas denominadas como PYME. Todo esto resulta enfocándose en un sistema organizacional que permite una eficiencia y una concentración de decisiones que le permite a la empresa ir consolidándose con la rapidez que el cliente necesita y que solo IMAGINING puede ofrecer. El enfoque de mercado, por supuesto gira en base a las 4 Ps del mercadeo, que diferencian un producto que se hace a través de los estándares de calidad y la forma como se va a promocionar y vender ante las personas, con una política de precios lo suficientemente competitiva y accesible para el mercado que se aspira conquistar. De ahí se deriva un concepto de vender publicidad fácil y objetivamente sin que haya diferencias de uno a otro cliente. Financieramente el modelo resulta ser muy atractivo, y vendiendo relativamente poco se pueden recuperar márgenes de inversión muy altos puesto que la utilidad es muy alta en el negocio y más cuando no se sub contratan las cosas sino se quiere hacer todo directamente como lo hace IMAGINING.
Resumo:
El presente documento es un estudio detallado del problema conocido bajo el título de Problema de Alhacén. Este problema fue formulado en el siglo X por el filósofo y matemático árabe conocido en occidente bajo el nombre de Alhacén. El documento hace una breve presentación del filósofo y una breve reseña de su trascendental tratado de óptica Kitab al-Manazir. A continuación el documento se detiene a estudiar cuidadosamente los lemas requeridos para enfrentar el problema y se presentan las soluciones para el caso de los espejos esféricos (convexos y cóncavos), cilíndricos y cónicos. También se ofrece una conjetura que habría de explicar la lógica del descubrimiento implícita en la solución que ofreció Alhacén. Tanto los lemas como las soluciones se han modelado en los software de geometría dinámica Cabri II-Plus y Cabri 3-D. El lector interesado en seguir dichas modelaciones debe contar con los programas mencionados para adelantar la lectura de los archivos. En general, estas presentaciones constan de tres partes: (i) formulación del problema (se formula en forma concisa el problema); (ii) esquema general de la construcción (se presentan los pasos esenciales que conducen a la construcción solicitada y las construcciones auxiliares que demanda el problema), esta parte se puede seguir en los archivos de Cabri; y (iii) demostración (se ofrece la justificación detallada de la construcción requerida). Los archivos en Cabri II plus cuentan con botones numerados que pueden activarse haciendo “Click” sobre ellos. La numeración corresponde a la numeración presente en el documento. El lector puede desplazar a su antojo los puntos libres que pueden reconocerse porque ellos se distinguen con la siguiente marca (º). Los puntos restantes no pueden modificarse pues son el resultado de construcciones adelantadas y ajustadas a los protocolos recomendados en el esquema general.