8 resultados para Modelos de evaluación

em Universidade Complutense de Madrid


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo empírico del presente trabajo ha sido el de realizar una serie de estudios para evaluar las propiedades psicométricas del FFMQ en población española (FFMQ-E). Los estudios empíricos realizados han cubierto el análisis de la estructura factorial y la bondad de ajuste del FFMQ-E, así como su validez y fiabilidad, además de la sensibilidad al cambio. Los resultados de dichos estudios se muestran a continuación: En base al análisis factorial exploratorio realizado con voluntarios españoles (N= 241), el FFMQ-E mantiene una estructura factorial de cinco facetas. Sin embargo dicha estructura es diferente a la de la versión original. Tres de las cinco facetas: –observar (excepto uno de sus ítems), –actuar con conciencia y –no enjuiciamiento, obtuvieron los pesos factoriales que las ubicaban según la escala original. Sin embargo ciertos ítems de la faceta –describir y la totalidad de los de la faceta de -no reactividad se ubican en el mismo factor; mientras que tres ítems de la faceta –describir presentaron pesos factoriales que los ubicaban en un factor diferente. Por otra parte, cinco ítems obtuvieron pesos factoriales bajos o repartidos con valores similares en varios factores. En relación a las bondades de ajuste del modelo factorial, se encontró tras el análisis factorial confirmatorio, una baja bondad de ajuste para los diferentes modelos explorados (de cuatro y cinco factores, tanto jerárquico como de correlaciones) en el grupo de voluntarios españoles (N= 241). La consistencia interna (alfa de Cronbach) en nuestro grupo de voluntarios (N= 285) fue de adecuada a buena. Los valores de alfa de Cronbach encontrados en nuestro estudio fueron los siguientes: -observar= 0,76, -describir= 0,81, -actuar con conciencia= 0,88 y –no enjuiciamiento= 0,86, con valores por encima de 0,70, excepto para la faceta de –no reactividad, que obtuvo un valor bajo de 0,66. La fiabilidad test-retest (N= 56) mostró valores de aceptables a buenos por encima de 0,60 con significación estadística (p<0,001) para un periodo de cuatro semanas...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad, los modelos de competencias se encuentran ampliamente extendidos y resultan de gran utilidad para la gestión de los recursos (Advesh Consultancy Services, 2012; Pereda y Berrocal, 1999 y Sagi-Vela, 2004). Estos modelos tuvieron su origen en 1973 con el trabajo de McClelland, en el cual se propone la evaluación de las competencias, en lugar de las capacidades cognitivas, como constructos clave para predecir el rendimiento laboral. De entre todos los autores que han desarrollado modelos de competencias cabe destacar los modelos de Boyatzis, Murphy y Wheeler (2000), con sus tres filosofías operativas: pragmática, intelectual y humana. El gran valor de las filosofías operativas reside en su capacidad de explicar la conducta del individuo, tanto en su entorno laboral como en el resto de las esferas de su vida. Esto se debe a que dichas filosofías constituyen sistemas de valores que determinan la forma en la que el individuo percibe y evalúa su contexto...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta investigación tiene como objetivo evaluar las variables de personalidad que favorecen el éxito laboral (perfil de personalidad idóneo) según la valoración que realizan los Cuadros de Mando del Ejército de Tierra (jueces militares) y examinar su correspondencia en los Militares de Tropa Profesional de dicho Ejército. También pretende analizar la sintomatología ansiosa y depresiva de los Militares de Tropa en el momento actual, los antecedentes psicopatológicos familiares y personales anteriores al ingreso en las Fuerzas Armadas, así como su influencia en la manifestación de sintomatología al prestar servicio en el Ejército. Como fundamento teórico de este estudio, se revisan las teorías y modelos sobre diferencias individuales en personalidad, ansiedad y depresión que pueden tener un papel crítico para explicar las cuestiones planteadas. El estudio empírico se ha realizado sobre una muestra extensa de personal militar (N=475) destinados en el Ejército de Tierra, utilizando una metodología de investigación y haciendo uso de la estadística descriptiva e inferencial. En primer lugar, se analiza el perfil conformado por las variables de personalidad valoradas como idóneas por los jueces militares a través de las escalas del test de personalidad de TEA Ediciones, TPT, así como los pesos relativos que estos les otorgan a cada una de ellas. En segundo lugar, se analiza el perfil de personalidad de los Militares de Tropa a través de dos medidas: una medida directa, creada ad hoc, donde los sujetos se valoraron en las 16 escalas del TPT (autovaloración), y otra indirecta, donde respondieron a los 160 ítems del test propiamente dicho. A continuación, se compara el perfil idóneo para obtener éxito profesional de los jueces militares con el perfil idóneo de los jueces civiles que ayudaron en la construcción del TPT. Además, se comparan con los dos perfiles obtenidos por los Militares de Tropa: el perfil resultante de la autovaloración y el perfil obtenido en el test TPT...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo estudia la viabilidad a la hora de aplicar un modelo de programación basado en la extracción de paralelismo a nivel de tareas sobre distintas arquitecturas heterogéneas basadas en un procesador multinúcleo de propósito general acelerado con uno o más aceleradores hardware. Se ha implementado una aplicación completa cuyo objetivo es la detección de bordes en una imagen (implementando el Algoritmo de Canny), y se ha evaluado en detalle su rendimiento sobre distintos tipos de arquitecturas, incluyendo CPUs multinúcleo de última generación, sistemas multi-GPU y una arquitectura objetivo basada en procesadores ARM Cortex-A15 acelerados mediante un DSP C66x de la compañía Texas Instruments. Los resultados experimentales demuestran la viabilidad de este tipo de implementación también para arquitecturas heterogéneas novedosas como esta última, e ilustran la facilidad de programación que introduce este tipo de modelos de programación sobre arquitecturas de propósito específico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neospora caninum es un parásito intracelular apicomplejo causante de la neosporosis, una enfermedad considerada como una de las principales causas de aborto en el ganado bovino. Esta parasitosis origina cuantiosas pérdidas económicas a nivel mundial, presentando una amplia distribución y una elevada prevalencia en el ganado bovino en la mayoría de países donde se ha estudiado. Actualmente, la inmunoprofilaxis se considera como la medida más importante para el control de la enfermedad, aunque, desafortunadamente, no existe una vacuna eficaz disponible. La única vacuna comercializada hasta el momento (Neoguard) ha sido retirada del mercado hace años debido a la baja eficacia mostrada. Por tanto, el esfuerzo de muchos grupos de investigación se centra hoy en día en el desarrollo de nuevas vacunas y fármacos eficaces y seguros frente a la neosporosis bovina. Con este fin, los modelos animales, además de ser de gran utilidad para estudiar la relación parásito-hospedador, la respuesta inmunitaria o la patogenia, son herramientas esenciales para realizar una evaluación adecuada de la eficacia y seguridad de vacunas y fármacos. Sin embargo, no existe un modelo normalizado, ya que aquellos descritos en la literatura se han llevado a cabo bajo condiciones experimentales muy variables. Estas diferencias incluyen, entre otras, la raza o estirpe de los animales empleados, el aislado de N. caninum, la manipulación del parásito para la inoculación, la vía de administración y la dosis utilizada en el ensayo. Además, en el caso de los modelos gestantes, el momento de la gestación en el cual se infecta a los animales supone una importante variable adicional. Por lo tanto, es necesario el desarrollo de modelos animales consensuados entre los diferentes laboratorios de investigación que permitan comparar y validar los resultados obtenidos en cada uno de ellos...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las arquitecturas asimétricas, formadas por varios procesadores con el mismo repertorio de instrucciones pero distintas características de rendimiento y consumo, ofrecen muchas posibilidades de optimización del rendimiento y/o el consumo en la ejecución de aplicaciones paralelas. La planificación de tareas sobre dichas arquitecturas de forma que se aprovechen de manera eficiente los distintos recursos, es muy compleja y se suele abordar utilizando modelos de programación paralelos, que permiten al programador especificar el paralelismo de las tareas, y entornos de ejecución que explotan dinámicamente dicho paralelismo. En este trabajo hemos modificado uno de los planificadores de tareas más utilizados en la actualidad para intentar aprovechar todos los recursos al máximo, cuando el rendimiento así lo necesite, o para conseguir la mejor eficiencia energética posible, cuando el consumo sea más prioritario. También se ha utilizado una biblioteca desarrollada específicamente para la arquitectura asimétrica objeto de estudio en la Universidad de Texas, Austin. Para obtener el máximo rendimiento se han agrupado los núcleos del sistema en dos niveles: hay un cluster simétrico de núcleos virtuales idénticos, cada uno de los cuales está compuesto por un conjunto de núcleos asimétricos. El planificador de tareas asigna trabajo a los núcleos virtuales, de manera idéntica a como lo haría en un sistema multinúcleo simétrico, y la biblioteca se encarga de repartir el trabajo entre los núcleos asimétricos. El trabajo ha consistido en integrar dicha biblioteca con el planificador de tareas. Para mejorar la eficiencia energética se han incluido en el planificador de tareas políticas de explotación de los modos de bajo consumo de la arquitectura y también de apagado o no asignación de carga de trabajo a algunos de los núcleos, que se activan en tiempo de ejecución cuando se detecta que la aplicación no necesita todos los recursos disponibles en la arquitectura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El acelerado y vertiginoso desarrollo de la ciencia y tecnología demanda que el currículo sea abierto y flexible, como respuesta a la posibilidad de poder incorporar modificaciones al programa de estudios y para dar respuesta a las exigencias de la sociedad actual con nuevos modelos educativos adecuados. En tal virtud, las universidades ecuatorianas, en sus Facultades y Planes de Estudios, necesitan contar con procesos metodológicos de diseño, desarrollo y evaluación curricular, para tener mayor eficiencia en la formación de los nuevos profesionales. Para atender a esta necesidad se presenta la tesis doctoral bajo el título: PROCESO METODOLÓGICO, PARA EL DISEÑO, DESARROLLO Y EVALUACIÓN CURRICULAR DE LOS ESTUDIOS UNIVERSITARIOS DE INGENIERÍA QUÍMICA EN LA UNIVERSIDAD CENTRAL DE QUITO ECUADOR. Su contenido se conforma en los siguientes capítulos: Capítulo 1: Presentación del estado de la cuestión, en este capítulo se describe el planteamiento del problema, la formulación del mismo mediante un interrogante, interrogantes de la investigación que se derivan de la pregunta general, así como los objetivos específicos de la investigación como respuesta a todos los interrogantes de la investigación, y la justificación indicando el impacto y los beneficiarios. Capítulo 2: Marco Teórico, en el que se describen los antecedentes de la investigación, la fundamentación teórica sobre los diferentes tópicos del tema, teoría que es fundamentada mediante la definición de los conceptos básicos; aportes de diferentes autores, organismos e instituciones y figuras representativas del proceso. Capítulo 3: Análisis de la carrera de Ingeniería Química, El diagnóstico situacional y el origen de la Universidad Central del Ecuador. También se describe la historia de la Carrera de Ingeniería Química en la Universidad Central del Ecuador, el proceso de aplicación de la técnica del análisis FODA, es decir, la identificación de los elementos internos, fortalezas y debilidades...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Han transcurrido varios años desde que se comenzó a hablar de Solvencia II y hoy es una realidad; cuyo objetivo es el desarrollo y establecimiento de un nuevo sistema que permita determinar los recursos propios mínimos a requerir a cada aseguradora, en función de los riesgos asumidos y la gestión que se realice de ellos. Así mismo, engloba un conjunto de iniciativas para la revisión de la normativa existente, la valoración y supervisión de la situación financiera global de las entidades aseguradoras y modos de actuación interna de las mismas. Uno de los temas más controvertidos bajo esta regulación es cómo conseguir una adecuada evaluación de los riesgos asumidos por las entidades. Esto se traduce en lograr identificar las causas que puedan suponer una pérdida en sus recursos; así como en innovar en el campo técnico para lograr una correcta cuantificación de los riesgos posibles en los que podrían estar expuestas las entidades. El objetivo de este trabajo es mostrar la posibilidad de utilizar dos enfoques metodológicos distintos para la evaluación de riesgos: uno no paramétrico para lo cual se recurrirá a las técnicas de Inteligencia Artificial y, en contraste, la aplicación de los Modelos Lineales Generalizados provenientes de la estadística paramétrica. De esta forma, lograr establecer una serie de reglas de decisión básicas, a manera de herramienta de clasificación, que puedan ser capaces de determinar los perfiles de clientes susceptibles a la cancelación de su póliza. La aplicación práctica de ambas metodologías, se llevará a cabo con la finalidad de analizar el Riesgo de Caída de Cartera; el cual hace referencia a uno de los tantos riesgos medibles que el sector habrá de tener en cuenta de acuerdo a Solvencia II...