1000 resultados para Registro Orientado por Problemas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Históricamente la captación estadística del empleo agropecuario (y más específicamente del empleo asalariado agropecuario) ha presentado una serie de problemas y limitaciones para las fuentes de datos tradicionales. Los elevados niveles de transitoriedad, estacionalidad, no registro e informalidad han tenido como consecuencia una serie de dificultades en su cuantificación por medio de las fuentes censales y muestrales tradicionales. Los procesos más recientes que atraviesan a esta fracción social (urbanización, acortamiento de ciclos productivos y ocupacionales, disminución de requerimientos de fuerza de trabajo por la mecanización de ciertas cosechas, etc.) parecen haber incrementado dichas dificultades. Trabajos previos realizados demuestran que los censos de población y agropecuarios arrojan diferentes resultados en la cuantificación de los asalariados del sector. Se presenta en este documento un análisis comparado de los resultados obtenidos en Argentina, por el Censo Nacional de Población y Vivienda de 2001 y el Censo Nacional Agropecuario de 2002. El objetivo buscado es realizar una aproximación a las diferentes cifras de asalariados en el agro que arrojan ambos relevamientos en todos los departamentos del país. A su vez, se intentará vincular dichas diferencias con los distintos territorios y distintas estructuras sociales y agrarias, buscando descubrir si permiten aportar a la explicación de aquellos resultados divergentes. Para ello se confeccionó una base de datos del total del país, desagregada a nivel provincial y departamental (máximo nivel de desagregación permitida por las fuentes publicadas) de la cantidad total de asalariados agropecuarios y diversos indicadores de la estructura social y agraria (cantidad de explotaciones pobres, niveles de urbanización, distribución de la tierra, etc.).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Históricamente la captación estadística del empleo agropecuario (y más específicamente del empleo asalariado agropecuario) ha presentado una serie de problemas y limitaciones para las fuentes de datos tradicionales. Los elevados niveles de transitoriedad, estacionalidad, no registro e informalidad han tenido como consecuencia una serie de dificultades en su cuantificación por medio de las fuentes censales y muestrales tradicionales. Los procesos más recientes que atraviesan a esta fracción social (urbanización, acortamiento de ciclos productivos y ocupacionales, disminución de requerimientos de fuerza de trabajo por la mecanización de ciertas cosechas, etc.) parecen haber incrementado dichas dificultades. Trabajos previos realizados demuestran que los censos de población y agropecuarios arrojan diferentes resultados en la cuantificación de los asalariados del sector. Se presenta en este documento un análisis comparado de los resultados obtenidos en Argentina, por el Censo Nacional de Población y Vivienda de 2001 y el Censo Nacional Agropecuario de 2002. El objetivo buscado es realizar una aproximación a las diferentes cifras de asalariados en el agro que arrojan ambos relevamientos en todos los departamentos del país. A su vez, se intentará vincular dichas diferencias con los distintos territorios y distintas estructuras sociales y agrarias, buscando descubrir si permiten aportar a la explicación de aquellos resultados divergentes. Para ello se confeccionó una base de datos del total del país, desagregada a nivel provincial y departamental (máximo nivel de desagregación permitida por las fuentes publicadas) de la cantidad total de asalariados agropecuarios y diversos indicadores de la estructura social y agraria (cantidad de explotaciones pobres, niveles de urbanización, distribución de la tierra, etc.).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudios internacionales y locales dan cuenta de la utilización de medicinas alternativas y complementarias (MACs), aunque en nuestro país los estudios empíricos sobre la temática han sido abordados mayoritariamente desde una metodología cualitativa. Existen sólo unos pocos relevamientos por encuesta con pequeñas muestras no probabilísticas sobre utilización de dichas medicinas, aunque cabe destacar que los mismos no se han realizado con la población general sino con usuarios de establecimientos de salud públicos y privados con el objetivo de relevar su utilización de MACs, y hasta la fecha no contamos con encuestas nacionales ni estadísticas oficiales sobre el tema. En nuestra ponencia discutimos las dificultades de definir a las MACs como categoría global y residual frente a la biomedicina o medicina oficial, teniendo en cuenta la heterogeneidad de las medicinas y terapias que engloba el término, así como los límites cambiantes entre lo que se entiende por medicina convencional y no convencional, e identificamos algunos problemas que se presentan para medir su utilización. Para ello primero revisamos la literatura internacional (norteamericana) que en gran medida ha servido de modelo para los relevamientos cuantitativos locales, y en segundo lugar, discutimos algunos inconvenientes que observamos entre estos últimos estudios, a lo que agregamos propuestas para futuros relevamientos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Históricamente la captación estadística del empleo agropecuario (y más específicamente del empleo asalariado agropecuario) ha presentado una serie de problemas y limitaciones para las fuentes de datos tradicionales. Los elevados niveles de transitoriedad, estacionalidad, no registro e informalidad han tenido como consecuencia una serie de dificultades en su cuantificación por medio de las fuentes censales y muestrales tradicionales. Los procesos más recientes que atraviesan a esta fracción social (urbanización, acortamiento de ciclos productivos y ocupacionales, disminución de requerimientos de fuerza de trabajo por la mecanización de ciertas cosechas, etc.) parecen haber incrementado dichas dificultades. Trabajos previos realizados demuestran que los censos de población y agropecuarios arrojan diferentes resultados en la cuantificación de los asalariados del sector. Se presenta en este documento un análisis comparado de los resultados obtenidos en Argentina, por el Censo Nacional de Población y Vivienda de 2001 y el Censo Nacional Agropecuario de 2002. El objetivo buscado es realizar una aproximación a las diferentes cifras de asalariados en el agro que arrojan ambos relevamientos en todos los departamentos del país. A su vez, se intentará vincular dichas diferencias con los distintos territorios y distintas estructuras sociales y agrarias, buscando descubrir si permiten aportar a la explicación de aquellos resultados divergentes. Para ello se confeccionó una base de datos del total del país, desagregada a nivel provincial y departamental (máximo nivel de desagregación permitida por las fuentes publicadas) de la cantidad total de asalariados agropecuarios y diversos indicadores de la estructura social y agraria (cantidad de explotaciones pobres, niveles de urbanización, distribución de la tierra, etc.).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se ha desarrollado un equipo de medida de emisiones contaminantes de motores térmicos, embarcable en un vehículo, que mide la concentración, el caudal y todas las condiciones termodinámicas asociadas al flujo de escape en tiempo real. Se discute la metodología empleada en la determinación de las emisiones másicas instantáneas, las totales y los factores de emisión, detallando por un lado la configuración física del caudalímetro, la frecuencia de muestreo, el registro de datos, y los cálculos. Y por otro, las correcciones sobre las concentraciones instantáneas por tipo de medida y dinámica propia de los analizadores es necesario realizar. El trabajo se enfoca principalmente en los aspectos termodinámicos asociados, pero se discutirán los problemas físicos de este tipo de medidas: condensado, arrastre de partículas y oscilaciones del flujo. Con objeto de ilustrar las dificultades encontradas y legitimar las soluciones adoptadas, se presentan y se discuten algunos resultados reales obtenidos en un motor en condiciones normales de funcionamiento, y los resultados de validación en base a medidas en banco de rodillos. Los resultados muestran la importancia del diseño físico del caudalímetro, de la precisión y rapidez de los analizadores y de la adecuada frecuencia de muestreo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dos aspectos destacan entre los resultados más interesantes de la investigación en la década de los 90 en el campo de la ingeniería del conocimiento. Por un lado, se ha profundizado en el conocimiento sobre cómo las personas resuelven problemas. Esto se ha logrado por la vía empírica mediante un trabajo científico de observación, experimentación por medios computacionales y generalización. Como resultado de esta línea, actualmente se dispone de un primer conjunto de modelos formales, los llamados problem-solving methods (PSM), muy útiles en el campo de la ingeniería informática como plantillas de diseño que guían la construcción de nuevos sistemas. Por otro lado, como logro adicional en este campo de investigación, se ha creado un nuevo lenguaje descriptivo como complemento a las formas de representación tradicionales. Dicho lenguaje, que ha sido aceptado por un amplio número de autores, se sitúa en un mayor nivel de abstracción y permite la formulación de arquitecturas más complejas de sistemas basados en el conocimiento. Como autores que más han contribuido en este aspecto se pueden citar: Luc Steels que propuso los denominados componentes de la experiencia como forma de unificación de trabajos previos en este campo, Bob Wielinga, Guus Schreiber y Jost Breuker en el campo de metodologías de ingeniería del conocimiento y el equipo de Mark Musen respecto a herramientas. Dicho lenguaje descriptivo ha supuesto además el planteamiento de una nueva generación de herramientas software de ayuda a los técnicos desarrolladores para construcción de este tipo de sistemas. El propósito principal del presente texto es servir de base como fuente de información de ambos aspectos recientes del campo de la ingeniería del conocimiento. El texto está dirigido a profesionales y estudiantes del campo de la informática que conocen técnicas básicas tradicionales de representación del conocimiento. La redacción del presente texto se ha orientado en primer lugar para recopilar y uniformizar la descripción de métodos existentes en la literatura de ingeniería de conocimiento. Se ha elegido un conjunto de métodos representativo en este campo que no cubre la totalidad de los métodos existentes pero sí los más conocidos y utilizados en ingeniería del conocimiento, presentando una descripción detallada de carácter tanto teórico como práctico. El texto describe cada método utilizando una notación común a todos ellos, parcialmente basada en los estándares descriptivos seguidos por las metodologías más extendidas. Para cada método se incluyen algoritmos definidos de forma expresa para el presente texto con ejemplos detallados de operación. Ambos aspectos, la uniformización junto a la presentación detallada de la operación, suponen una novedad interesante respecto al estado actual de la literatura sobre este campo, lo que hace el texto muy adecuado para ser utilizado como libro de consulta como apoyo en la docencia de la asignatura de construcción de sistemas inteligentes.

Relevância:

30.00% 30.00%

Publicador:

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La sociedad depende hoy más que nunca de la tecnología, pero la inversión en seguridad es escasa y los riesgos de usar sistemas informáticos son cada día mayores. La criptografía es una de las piedras angulares de la seguridad en este ámbito, por lo que recientemente se ha dedicado una cantidad considerable de recursos al desarrollo de herramientas que ayuden en la evaluación y mejora de los algoritmos criptográficos. EasyCrypt es uno de estos sistemas, desarrollado recientemente en el Instituto IMDEA Software en respuesta a la creciente necesidad de disponer de herramientas fiables de verificación de criptografía. A lo largo de este trabajo se abordará el diseño e implementación de funcionalidad adicional para EasyCrypt. En la primera parte de documento se discutirá la importancia de disponer de una forma de especificar el coste de algoritmos a la hora de desarrollar pruebas que dependan del mismo, y se modificará el lenguaje de EasyCrypt para permitir al usuario abordar un mayor espectro de problemas. En la segunda parte se tratará el problema de la usabilidad de EasyCrypt y se intentará mejorar dentro de lo posible desarrollando una interfaz web que permita usar el sistema fáacilmente y sin necesidad de tener instaladas todas las herramientas que necesita EasyCrypt. ---ABSTRACT---Today, society depends more than ever on technology, but the investment in security is still scarce and the risk of using computer systems is constantly increasing. Cryptography is one of the cornerstones of security, so there has been a considerable amount of efort devoted recently to the development of tools oriented to the evaluation and improvement of cryptographic algorithms. One of these tools is EasyCrypt, developed recently at IMDEA Software Institute in response to the increasing need of reliable cryptography verification tools. Throughout this document we will design and implement two diferent EasyCrypt features. In the first part of the document we will consider the importance of having a way to specify the cost of algorithms in order to develop proofs that depend on it, and then we will modify the EasyCrypt's language so that the user can tackle a wider range of problems. In the second part we will assess EasyCrypt's poor usability and try to improve it by developing a web interface which enables the user to use it easily and without having to install the whole EasyCrypt toolchain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las compañías de desarrollo de software buscan reducir costes a través del desarrollo de diseños que permitan: a) facilidad en la distribución del trabajo de desarrollo, con la menor comunicación de las partes; b) modificabilidad, permitiendo realizar cambios sobre un módulo sin alterar las otras partes y; c) comprensibilidad, permitiendo estudiar un módulo del sistema a la vez. Estas características elementales en el diseño de software se logran a través del diseño de sistemas cuasi-descomponibles, cuyo modelo teórico fue introducido por Simon en su búsqueda de una teoría general de los sistemas. En el campo del diseño de software, Parnas propone un camino práctico para lograr sistemas cuasi-descomponibles llamado el Principio de Ocultación de Información. El Principio de Ocultación de Información es un criterio diferente de descomposición en módulos, cuya implementación logra las características deseables de un diseño eficiente a nivel del proceso de desarrollo y mantenimiento. El Principio y el enfoque orientado a objetos se relacionan debido a que el enfoque orientado a objetos facilita la implementación del Principio, es por esto que cuando los objetos empiezan a tomar fuerza, también aparecen paralelamente las dificultades en el aprendizaje de diseño de software orientado a objetos, las cuales se mantienen hasta la actualidad, tal como se reporta en la literatura. Las dificultades en el aprendizaje de diseño de software orientado a objetos tiene un gran impacto tanto en las aulas como en la profesión. La detección de estas dificultades permitirá a los docentes corregirlas o encaminarlas antes que éstas se trasladen a la industria. Por otro lado, la industria puede estar advertida de los potenciales problemas en el proceso de desarrollo de software. Esta tesis tiene como objetivo investigar sobre las dificultades en el diseño de software orientado a objetos, a través de un estudio empírico. El estudio fue realizado a través de un estudio de caso cualitativo, que estuvo conformado por tres partes. La primera, un estudio inicial que tuvo como objetivo conocer el entendimiento de los estudiantes alrededor del Principio de Ocultación de Información antes de que iniciasen la instrucción. La segunda parte, un estudio llevado a cabo a lo largo del período de instrucción con la finalidad de obtener las dificultades de diseño de software y su nivel de persistencia. Finalmente, una tercera parte, cuya finalidad fue el estudio de las dificultades esenciales de aprendizaje y sus posibles orígenes. Los participantes de este estudio pertenecieron a la materia de Software Design del European Master in Software Engineering de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Los datos cualitativos usados para el análisis procedieron de las observaciones en las horas de clase y exposiciones, entrevistas realizadas a los estudiantes y ejercicios enviados a lo largo del período de instrucción. Las dificultades presentadas en esta tesis en sus diferentes perspectivas, aportaron conocimiento concreto de un estudio de caso en particular, realizando contribuciones relevantes en el área de diseño de software, docencia, industria y a nivel metodológico. ABSTRACT The software development companies look to reduce costs through the development of designs that will: a) ease the distribution of development work with the least communication between the parties; b) changeability, allowing to change a module without disturbing the other parties and; c) understandability, allowing to study a system module at a time. These basic software design features are achieved through the design of quasidecomposable systems, whose theoretical model was introduced by Simon in his search for a general theory of systems. In the field of software design, Parnas offers a practical way to achieve quasi-decomposable systems, called The Information Hiding Principle. The Information Hiding Principle is different criterion for decomposition into modules, whose implementation achieves the desirable characteristics of an efficient design at the development and maintenance level. The Principle and the object-oriented approach are related because the object-oriented approach facilitates the implementation of The Principle, which is why when objects begin to take hold, also appear alongside the difficulties in learning an object-oriented software design, which remain to this day, as reported in the literature. Difficulties in learning object-oriented software design has a great impact both in the classroom and in the profession. The detection of these difficulties will allow teachers to correct or route them before they move to the industry. On the other hand, the industry can be warned of potential problems related to the software development process. This thesis aims to investigate the difficulties in learning the object-oriented design, through an empirical study. The study was conducted through a qualitative case study, which consisted of three parts. The first, an initial study was aimed to understand the knowledge of the students around The Information Hiding Principle before they start the instruction. The second part, a study was conducted during the entire period of instruction in order to obtain the difficulties of software design and their level of persistence. Finally, a third party, whose purpose was to study the essential difficulties of learning and their possible sources. Participants in this study belonged to the field of Software Design of the European Master in Software Engineering at the Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. The qualitative data used for the analysis came from the observations in class time and exhibitions, performed interviews with students and exercises sent over the period of instruction. The difficulties presented in this thesis, in their different perspectives, provided concrete knowledge of a particular case study, making significant contributions in the area of software design, teaching, industry and methodological level.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trabajo explora la emergencia de temas y la constitución de problemas públicos que integran la agenda de la seguridad en Argentina en la etapa democrática a partir de procesos vinculados a la problematización pública de muertes violentas constituidas como casos conmocionantes. Con estos fines, el análisis integra la reconstrucción en el registro de la acción pública de casos conmocionantes con una revisión de trabajos que desde las ciencias sociales abordan dimensiones de la muerte violenta y problemas vinculados a la agenda nacional de la seguridad. Como punto de llegada del análisis destacamos la capacidad que en la actualidad manifiesta la inseguridad para absorber e integrar dimensiones en tanto problema que se constituye como un guion cultural privilegiado para la comprensión de la violencia, que sintetiza sentidos sociales circulantes sobre el riesgo y que sirve de plataforma para la demanda política de amplios sectores de la ciudadanía.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudios internacionales y locales dan cuenta de la utilización de medicinas alternativas y complementarias (MACs), aunque en nuestro país los estudios empíricos sobre la temática han sido abordados mayoritariamente desde una metodología cualitativa. Existen sólo unos pocos relevamientos por encuesta con pequeñas muestras no probabilísticas sobre utilización de dichas medicinas, aunque cabe destacar que los mismos no se han realizado con la población general sino con usuarios de establecimientos de salud públicos y privados con el objetivo de relevar su utilización de MACs, y hasta la fecha no contamos con encuestas nacionales ni estadísticas oficiales sobre el tema. En nuestra ponencia discutimos las dificultades de definir a las MACs como categoría global y residual frente a la biomedicina o medicina oficial, teniendo en cuenta la heterogeneidad de las medicinas y terapias que engloba el término, así como los límites cambiantes entre lo que se entiende por medicina convencional y no convencional, e identificamos algunos problemas que se presentan para medir su utilización. Para ello primero revisamos la literatura internacional (norteamericana) que en gran medida ha servido de modelo para los relevamientos cuantitativos locales, y en segundo lugar, discutimos algunos inconvenientes que observamos entre estos últimos estudios, a lo que agregamos propuestas para futuros relevamientos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trabajo explora la emergencia de temas y la constitución de problemas públicos que integran la agenda de la seguridad en Argentina en la etapa democrática a partir de procesos vinculados a la problematización pública de muertes violentas constituidas como casos conmocionantes. Con estos fines, el análisis integra la reconstrucción en el registro de la acción pública de casos conmocionantes con una revisión de trabajos que desde las ciencias sociales abordan dimensiones de la muerte violenta y problemas vinculados a la agenda nacional de la seguridad. Como punto de llegada del análisis destacamos la capacidad que en la actualidad manifiesta la inseguridad para absorber e integrar dimensiones en tanto problema que se constituye como un guion cultural privilegiado para la comprensión de la violencia, que sintetiza sentidos sociales circulantes sobre el riesgo y que sirve de plataforma para la demanda política de amplios sectores de la ciudadanía.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work proposes to adjust the Notification Oriented Paradigm (NOP) so that it provides support to fuzzy concepts. NOP is inspired by elements of imperative and declarative paradigms, seeking to solve some of the drawbacks of both. By decomposing an application into a network of smaller computational entities that are executed only when necessary, NOP eliminates the need to perform unnecessary computations and helps to achieve better logical-causal uncoupling, facilitating code reuse and application distribution over multiple processors or machines. In addition, NOP allows to express the logical-causal knowledge at a high level of abstraction, through rules in IF-THEN format. Fuzzy systems, in turn, perform logical inferences on causal knowledge bases (IF-THEN rules) that can deal with problems involving uncertainty. Since PON uses IF-THEN rules in an alternative way, reducing redundant evaluations and providing better decoupling, this research has been carried out to identify, propose and evaluate the necessary changes to be made on NOP allowing to be used in the development of fuzzy systems. After that, two fully usable materializations were created: a C++ framework, and a complete programming language (LingPONFuzzy) that provide support to fuzzy inference systems. From there study cases have been created and several tests cases were conducted, in order to validate the proposed solution. The test results have shown a significant reduction in the number of rules evaluated in comparison to a fuzzy system developed using conventional tools (frameworks), which could represent an improvement in performance of the applications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se realizó un análisis administrativo para mejorar la calidad de los servicios públicos de la Unidad del Registro del Estado Familiar de la Alcaldía Municipal de San Miguel, Departamento de San Miguel, 2015. Se elaboró un diagnóstico administrativo que permitió identificar los principales problemas que dificultan la calidad en el desarrollo de los servicios que ofrece la Unidad del Registro del Estado Familiar de la Alcaldía Municipal de San Miguel. Se elaboraron métodos de evaluación de desempeño del personal que permitieron determinar si cumplen con las necesidades y expectativas de los usuarios de los servicios públicos de la Unidad del Registro del Estado Familiar de la Alcaldía Municipal de San Miguel. Por último, se elaboró un plan de estrategias para mejorar el desempeño laboral y la calidad de vida de los empleados de la Unidad del Registro del Estado Familiar de la Alcaldía Municipal de San Miguel. La investigación se realizó bajo una metodología mixta o cualicuantitativa para recolectar, analizar y vincular datos cuantitativos y cualitativos. A través de los resultados obtenidos se conoció que la unidad sí evalúa al personal, pero se constató que los métodos utilizados no garantizan poder determinar el cumplimiento de las satisfacciones y expectativas de los usuarios; Las estrategias implementadas en la Unidad son de forma empírica, es decir, no se encuentran documentadas. Se concluye que se determinó la necesidad de la realización de un análisis administrativo que permita conocer los principales problemas que dificultan alcanzar la calidad de los servicios públicos, de igual forma, se determinó que la Unidad cuenta con métodos de evaluación de desempeño, pero tales instrumentos no garantizan conocer cuáles es la potencialidad del personal; asimismo, se identificó la ausencia de estrategias administrativas, las cuales son necesarias para ayudar a generar herramientas para mejorar la calidad de los servicios públicos, así también, la Unidad recibe capacitaciones para el personal por parte del Departamento de Recursos Humanos, sin embargo, éstas capacitaciones son impartidas anualmente y cuando el departamento antes mencionado está en la disposición.