986 resultados para Sistemas expertos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tesis (Maestría en Informática Administrativa) U.A.N.L.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las amenazas contra la salud pública son una causa permanente de preocupaciones para las autoridades sanitarias en todo el mundo. A finales del 2003 reapareció una epidemia de la Gripe Aviar en Asia particularmente patógena que causó varios fallecimientos, este virus generó particular preocupación por el riesgo que implicaba para la salud humana. Por esta razón la Unión Europea trabajó entre octubre de 2005 e inicios del 2006 en la adopción, modificación e implementación de medidas encaminadas a la protección de los consumidores y ciudadanos de la comunidad europea, lo cual le deja como resultado un efectivo control de la pandemia. Esta monografía busca demostrar que durante el proceso de toma de decisiones de la Unión Europea los sistemas expertos contribuyeron en el proceso de elaboración de las propuestas generadas por la Comisión Europea para enfrentar la amenaza que representa la gripe aviar, en esta medida favorece el proceso de legitimación de las decisiones de seguridad humana en materia de salud pública.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

70.00% 70.00%

Publicador:

Resumo:

La Pampa Arenosa ha sido escenario de cambios en el uso del territorio que respondieron principalmente al aumento de las precipitaciones a partir de la década del 70. La evaluación de las tierras es una etapa crítica en la planificación del uso sustentable. Por este motivo, se analizaron distintos sistemas de evaluación de tierras y se desarrollaron modelos expertos que consideren los factores ambientales heredados y las variaciones climáticas, para el sector de dunas longitudinales de la Pampa Arenosa en la Provincia de Buenos Aires, a escala 1: 50.000, considerando a los partidos de Nueve de Julio, Carlos Casares, Pehuajó y Trenque Lauquen. Las tierras fueron clasificadas por Capacidad de Uso, Indice de Productividad (IP) y se generaron sistemas expertos, utilizando el programa ALES, para los tipos de utilización de las tierras (TUTs) : maíz, soja y trigo. La homogeneidad de las series climáticas de precipitaciones se determinó mediante el test de Rachas. La aplicación del test de Pettitt permitió identificar la existencia de un cambio abrupto en las precipitaciones y el este de Mann Kendall mostró una tendencia creciente en relación a la precipitación anual. Las tierras con severas (clase III) y muy severas limitaciones (clase IV), fueron las más frecuentes ocupando el 42,6 por ciento y 29,8 por ciento respectivamente del área. Se comprobó que el IP de las tierras se incrementó con el aumento de las precipitaciones, alcanzando su máxima expresión climática en el período posterior al cambio abrupto. Las tierras de moderada capacidad productiva con valores de IP entre 65-51 ocuparon la mayor superficie de área de estudio. Los modelos expertos según los TUTs presentaron una aptitud de uso de las tierras variable, condicionada por la capacidad de retención hídrica de los suelos. Los modelos expertos fueron sensibles a las variaciones climáticas y el cambio abrupto en las precipitaciones.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

La Pampa Arenosa ha sido escenario de cambios en el uso del territorio que respondieron principalmente al aumento de las precipitaciones a partir de la década del 70. La evaluación de las tierras es una etapa crítica en la planificación del uso sustentable. Por este motivo, se analizaron distintos sistemas de evaluación de tierras y se desarrollaron modelos expertos que consideren los factores ambientales heredados y las variaciones climáticas, para el sector de dunas longitudinales de la Pampa Arenosa en la Provincia de Buenos Aires, a escala 1: 50.000, considerando a los partidos de Nueve de Julio, Carlos Casares, Pehuajó y Trenque Lauquen. Las tierras fueron clasificadas por Capacidad de Uso, Indice de Productividad (IP)y se generaron sistemas expertos, utilizando el programa ALES, para los tipos de utilización de las tierras (TUTs): maíz, soja y trigo. La homogeneidad de las series climáticas de precipitaciones se determinó mediante el test de Rachas. La aplicación del test de Pettitt permitió identificar la existencia de un cambio abrupto en las precipitaciones y el este de Mann Kendall mostró una tendencia creciente en relación a la precipitación anual. Las tierras con severas (clase III)y muy severas limitaciones (clase IV), fueron las más frecuentes ocupando el 42,6 por ciento y 29,8 por ciento respectivamente del área. Se comprobó que el IP de las tierras se incrementó con el aumento de las precipitaciones, alcanzando su máxima expresión climática en el período posterior al cambio abrupto. Las tierras de moderada capacidad productiva con valores de IP entre 65-51 ocuparon la mayor superficie de área de estudio. Los modelos expertos según los TUTs presentaron una aptitud de uso de las tierras variable, condicionada por la capacidad de retención hídrica de los suelos. Los modelos expertos fueron sensibles a las variaciones climáticas y el cambio abrupto en las precipitaciones.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

En este texto buscamos sentar las bases para el marco teórico de la ingeniería de sistemas complejos. Hasta la fecha, un marco semejante ha sido apenas enunciado, y en términos bastante generales (Wolfram, 1986). Sin embargo, hasta ahora no se ha logrado formular un marco semejante que sirva a los ingenieros, a los científicos y a los filósofos para afirmar con seguridad que se tiene ya un marco teórico para la ingeniería de sistemas complejos. Al sentar el siguiente marco trazamos claramente los límites que separan a la ingeniería clásica −incluida la ingeniería de procesos inversos− de la ingeniería de sistemas complejos. Nos encontramos en el centro de una revolución científica y teórica, en términos de T. Kuhn. Luego de separar, de manera rápida, la ingeniería clásica de la ingeniería de sistemas complejos, obtenemos una visión más clara acerca de la ingeniería bio-inspirada. A fin de plantear de manera radical un (nuevo) marco teórico para la ingeniería de sistemas complejos (ISC), procedemos en zigzag así: de un lado, sobre una base al mismo tiempo científica e ingenieril, sugerimos un perímetro orgánico para la ISC; de otra parte, sobre la base de la filosofía y las lógicas no-clásicas, alcanzamos nuevas herramientas conceptuales que profundizan las bases científicas e ingenieriles. Al final se hace claro el horizonte amplio y la visión acerca del marco de la ingeniería de sistemas complejos, a saber: se trata, ulteriormente, de una teoría general de los sistemas complejos. Así, la ISC forma parte de las ciencias de la complejidad.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Analizar la evolución de los sistemas hipermedias adaptativos y su influencia en la aplicación a la educación. Literatura publicada sobre el tema. Revisión bibliográfica. Revisión bibliográfica sobre la temática. Análisis de contenido, análisis comparativo. La investigación analiza los sistemas adaptativos, acercando el estudio de los sistemas expertos a partir de las aportaciones de la Inteligencia artificial al mundo de la educación. En primer lugar se realiza una descripción de los antecedentes de las tecnologías de la información en la educación. Se segundo lugar se aborda la influencia de las teorías del aprendizaje en el diseño de sistemas instruccionales, analizando la incorporación de las tecnologías de la información y la comunicación de forma crítica, contextualizada y reflexiva. En tercer lugar se analizan las características del software educativo, como punto de partida para acercarse al estudio de los sistemas hipermedias adaptativos. Seguidamente se estudian los sistemas multimedia aplicados a la educación, indicando los requisitos a tener en cuenta para el diseño de multimedias para la enseñanza. Finalmente, se aborda el estudio de los sistemas multimedia adaptativos y su aplicación en el desarrollo de sistemas tutores inteligentes y redes bayesianas en educación. Una de las preocupaciones fundamentales en educación actualmente es la personalización de los procesos de enseñanza, se trata de ofrecer al alumnado contenidos y estrategias de aprendizaje acordes con sus estilo de aprendizaje y capacidades. La utilización del ordenador como recurso de apoyo para los procesos de enseñanza ofrece la ventaja de permitir una interacción personal entre el aprendiz y el sistema tutor de enseñanza; la flexibilidad y adaptación de los sistemas tutoriales está en función de la capacidad del sistema de reconocer las capacidades del aprendiz. Debido a los diferentes estilos de aprendizaje, existen dificultades para elaborar modelos exactos que se identifiquen claramente con un estilo en concreto. Mediante el reconocimiento de algunas de las características del alumnado, y su interacción con el sistema se pretenden obtener criterios que permitan diseñar sistemas inteligentes. El conjunto de actividades que se pueden realizar con estos sistemas es objeto de estudio tanto por investigadores del área de Inteligencia Artificial como por las áreas de la Pedagogía y la Didáctica. Es necesario profundizar en la investigación iniciada, para desarrollar de forma efectiva sistemas inteligentes en la educación on-line.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Una de las actuaciones posibles para la gestión de los residuos sólidos urbanos es la valorización energética, es decir la incineración con recuperación de energía. Sin embargo es muy importante controlar adecuadamente el proceso de incineración para evitar en lo posible la liberación de sustancias contaminantes a la atmósfera que puedan ocasionar problemas de contaminación industrial.Conseguir que tanto el proceso de incineración como el tratamiento de los gases se realice en condiciones óptimas presupone tener un buen conocimiento de las dependencias entre las variables de proceso. Se precisan métodos adecuados de medida de las variables más importantes y tratar los valores medidos con modelos adecuados para transformarlos en magnitudes de mando. Un modelo clásico para el control parece poco prometedor en este caso debido a la complejidad de los procesos, la falta de descripción cuantitativa y la necesidad de hacer los cálculos en tiempo real. Esto sólo se puede conseguir con la ayuda de las modernas técnicas de proceso de datos y métodos informáticos, tales como el empleo de técnicas de simulación, modelos matemáticos, sistemas basados en el conocimiento e interfases inteligentes. En [Ono, 1989] se describe un sistema de control basado en la lógica difusa aplicado al campo de la incineración de residuos urbanos. En el centro de investigación FZK de Karslruhe se están desarrollando aplicaciones que combinan la lógica difusa con las redes neuronales [Jaeschke, Keller, 1994] para el control de la planta piloto de incineración de residuos TAMARA. En esta tesis se plantea la aplicación de un método de adquisición de conocimiento para el control de sistemas complejos inspirado en el comportamiento humano. Cuando nos encontramos ante una situación desconocida al principio no sabemos como actuar, salvo por la extrapolación de experiencias anteriores que puedan ser útiles. Aplicando procedimientos de prueba y error, refuerzo de hipótesis, etc., vamos adquiriendo y refinando el conocimiento, y elaborando un modelo mental. Podemos diseñar un método análogo, que pueda ser implementado en un sistema informático, mediante el empleo de técnicas de Inteligencia Artificial.Así, en un proceso complejo muchas veces disponemos de un conjunto de datos del proceso que a priori no nos dan información suficientemente estructurada para que nos sea útil. Para la adquisición de conocimiento pasamos por una serie de etapas: - Hacemos una primera selección de cuales son las variables que nos interesa conocer. - Estado del sistema. En primer lugar podemos empezar por aplicar técnicas de clasificación (aprendizaje no supervisado) para agrupar los datos y obtener una representación del estado de la planta. Es posible establecer una clasificación, pero normalmente casi todos los datos están en una sola clase, que corresponde a la operación normal. Hecho esto y para refinar el conocimiento utilizamos métodos estadísticos clásicos para buscar correlaciones entre variables (análisis de componentes principales) y así poder simplificar y reducir la lista de variables. - Análisis de las señales. Para analizar y clasificar las señales (por ejemplo la temperatura del horno) es posible utilizar métodos capaces de describir mejor el comportamiento no lineal del sistema, como las redes neuronales. Otro paso más consiste en establecer relaciones causales entre las variables. Para ello nos sirven de ayuda los modelos analíticos - Como resultado final del proceso se pasa al diseño del sistema basado en el conocimiento. El objetivo principal es aplicar el método al caso concreto del control de una planta de tratamiento de residuos sólidos urbanos por valorización energética. En primer lugar, en el capítulo 2 Los residuos sólidos urbanos, se trata el problema global de la gestión de los residuos, dando una visión general de las diferentes alternativas existentes, y de la situación nacional e internacional en la actualidad. Se analiza con mayor detalle la problemática de la incineración de los residuos, poniendo especial interés en aquellas características de los residuos que tienen mayor importancia de cara al proceso de combustión.En el capítulo 3, Descripción del proceso, se hace una descripción general del proceso de incineración y de los distintos elementos de una planta incineradora: desde la recepción y almacenamiento de los residuos, pasando por los distintos tipos de hornos y las exigencias de los códigos de buena práctica de combustión, el sistema de aire de combustión y el sistema de humos. Se presentan también los distintos sistemas de depuración de los gases de combustión, y finalmente el sistema de evacuación de cenizas y escorias.El capítulo 4, La planta de tratamiento de residuos sólidos urbanos de Girona, describe los principales sistemas de la planta incineradora de Girona: la alimentación de residuos, el tipo de horno, el sistema de recuperación de energía, y el sistema de depuración de los gases de combustión Se describe también el sistema de control, la operación, los datos de funcionamiento de la planta, la instrumentación y las variables que son de interés para el control del proceso de combustión.En el capítulo 5, Técnicas utilizadas, se proporciona una visión global de los sistemas basados en el conocimiento y de los sistemas expertos. Se explican las diferentes técnicas utilizadas: redes neuronales, sistemas de clasificación, modelos cualitativos, y sistemas expertos, ilustradas con algunos ejemplos de aplicación.Con respecto a los sistemas basados en el conocimiento se analizan en primer lugar las condiciones para su aplicabilidad, y las formas de representación del conocimiento. A continuación se describen las distintas formas de razonamiento: redes neuronales, sistemas expertos y lógica difusa, y se realiza una comparación entre ellas. Se presenta una aplicación de las redes neuronales al análisis de series temporales de temperatura.Se trata también la problemática del análisis de los datos de operación mediante técnicas estadísticas y el empleo de técnicas de clasificación. Otro apartado está dedicado a los distintos tipos de modelos, incluyendo una discusión de los modelos cualitativos.Se describe el sistema de diseño asistido por ordenador para el diseño de sistemas de supervisión CASSD que se utiliza en esta tesis, y las herramientas de análisis para obtener información cualitativa del comportamiento del proceso: Abstractores y ALCMEN. Se incluye un ejemplo de aplicación de estas técnicas para hallar las relaciones entre la temperatura y las acciones del operador. Finalmente se analizan las principales características de los sistemas expertos en general, y del sistema experto CEES 2.0 que también forma parte del sistema CASSD que se ha utilizado.El capítulo 6, Resultados, muestra los resultados obtenidos mediante la aplicación de las diferentes técnicas, redes neuronales, clasificación, el desarrollo de la modelización del proceso de combustión, y la generación de reglas. Dentro del apartado de análisis de datos se emplea una red neuronal para la clasificación de una señal de temperatura. También se describe la utilización del método LINNEO+ para la clasificación de los estados de operación de la planta.En el apartado dedicado a la modelización se desarrolla un modelo de combustión que sirve de base para analizar el comportamiento del horno en régimen estacionario y dinámico. Se define un parámetro, la superficie de llama, relacionado con la extensión del fuego en la parrilla. Mediante un modelo linealizado se analiza la respuesta dinámica del proceso de incineración. Luego se pasa a la definición de relaciones cualitativas entre las variables que se utilizan en la elaboración de un modelo cualitativo. A continuación se desarrolla un nuevo modelo cualitativo, tomando como base el modelo dinámico analítico.Finalmente se aborda el desarrollo de la base de conocimiento del sistema experto, mediante la generación de reglas En el capítulo 7, Sistema de control de una planta incineradora, se analizan los objetivos de un sistema de control de una planta incineradora, su diseño e implementación. Se describen los objetivos básicos del sistema de control de la combustión, su configuración y la implementación en Matlab/Simulink utilizando las distintas herramientas que se han desarrollado en el capítulo anterior.Por último para mostrar como pueden aplicarse los distintos métodos desarrollados en esta tesis se construye un sistema experto para mantener constante la temperatura del horno actuando sobre la alimentación de residuos.Finalmente en el capítulo Conclusiones, se presentan las conclusiones y resultados de esta tesis.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

El concepto de algoritmo es básico en informática, por lo que es crucial que los alumnos profundicen en él desde el inicio de su formación. Por tanto, contar con una herramienta que guíe a los estudiantes en su aprendizaje puede suponer una gran ayuda en su formación. La mayoría de los autores coinciden en que, para determinar la eficacia de una herramienta de visualización de algoritmos, es esencial cómo se utiliza. Así, los estudiantes que participan activamente en la visualización superan claramente a los que la contemplan de forma pasiva. Por ello, pensamos que uno de los mejores ejercicios para un alumno consiste en simular la ejecución del algoritmo que desea aprender mediante el uso de una herramienta de visualización, i. e. consiste en realizar una simulación visual de dicho algoritmo. La primera parte de esta tesis presenta los resultados de una profunda investigación sobre las características que debe reunir una herramienta de ayuda al aprendizaje de algoritmos y conceptos matemáticos para optimizar su efectividad: el conjunto de especificaciones eMathTeacher, además de un entorno de aprendizaje que integra herramientas que las cumplen: GRAPHs. Hemos estudiado cuáles son las cualidades esenciales para potenciar la eficacia de un sistema e-learning de este tipo. Esto nos ha llevado a la definición del concepto eMathTeacher, que se ha materializado en el conjunto de especificaciones eMathTeacher. Una herramienta e-learning cumple las especificaciones eMathTeacher si actúa como un profesor virtual de matemáticas, i. e. si es una herramienta de autoevaluación que ayuda a los alumnos a aprender de forma activa y autónoma conceptos o algoritmos matemáticos, corrigiendo sus errores y proporcionando pistas para encontrar la respuesta correcta, pero sin dársela explícitamente. En estas herramientas, la simulación del algoritmo no continúa hasta que el usuario introduce la respuesta correcta. Para poder reunir en un único entorno una colección de herramientas que cumplan las especificaciones eMathTeacher hemos creado GRAPHs, un entorno ampliable, basado en simulación visual, diseñado para el aprendizaje activo e independiente de los algoritmos de grafos y creado para que en él se integren simuladores de diferentes algoritmos. Además de las opciones de creación y edición del grafo y la visualización de los cambios producidos en él durante la simulación, el entorno incluye corrección paso a paso, animación del pseudocódigo del algoritmo, preguntas emergentes, manejo de las estructuras de datos del algoritmo y creación de un log de interacción en XML. Otro problema que nos planteamos en este trabajo, por su importancia en el proceso de aprendizaje, es el de la evaluación formativa. El uso de ciertos entornos e-learning genera gran cantidad de datos que deben ser interpretados para llegar a una evaluación que no se limite a un recuento de errores. Esto incluye el establecimiento de relaciones entre los datos disponibles y la generación de descripciones lingüísticas que informen al alumno sobre la evolución de su aprendizaje. Hasta ahora sólo un experto humano era capaz de hacer este tipo de evaluación. Nuestro objetivo ha sido crear un modelo computacional que simule el razonamiento del profesor y genere un informe sobre la evolución del aprendizaje que especifique el nivel de logro de cada uno de los objetivos definidos por el profesor. Como resultado del trabajo realizado, la segunda parte de esta tesis presenta el modelo granular lingüístico de la evaluación del aprendizaje, capaz de modelizar la evaluación y generar automáticamente informes de evaluación formativa. Este modelo es una particularización del modelo granular lingüístico de un fenómeno (GLMP), en cuyo desarrollo y formalización colaboramos, basado en la lógica borrosa y en la teoría computacional de las percepciones. Esta técnica, que utiliza sistemas de inferencia basados en reglas lingüísticas y es capaz de implementar criterios de evaluación complejos, se ha aplicado a dos casos: la evaluación, basada en criterios, de logs de interacción generados por GRAPHs y de cuestionarios de Moodle. Como consecuencia, se han implementado, probado y utilizado en el aula sistemas expertos que evalúan ambos tipos de ejercicios. Además de la calificación numérica, los sistemas generan informes de evaluación, en lenguaje natural, sobre los niveles de competencia alcanzados, usando sólo datos objetivos de respuestas correctas e incorrectas. Además, se han desarrollado dos aplicaciones capaces de ser configuradas para implementar los sistemas expertos mencionados. Una procesa los archivos producidos por GRAPHs y la otra, integrable en Moodle, evalúa basándose en los resultados de los cuestionarios. ABSTRACT The concept of algorithm is one of the core subjects in computer science. It is extremely important, then, for students to get a good grasp of this concept from the very start of their training. In this respect, having a tool that helps and shepherds students through the process of learning this concept can make a huge difference to their instruction. Much has been written about how helpful algorithm visualization tools can be. Most authors agree that the most important part of the learning process is how students use the visualization tool. Learners who are actively involved in visualization consistently outperform other learners who view the algorithms passively. Therefore we think that one of the best exercises to learn an algorithm is for the user to simulate the algorithm execution while using a visualization tool, thus performing a visual algorithm simulation. The first part of this thesis presents the eMathTeacher set of requirements together with an eMathTeacher-compliant tool called GRAPHs. For some years, we have been developing a theory about what the key features of an effective e-learning system for teaching mathematical concepts and algorithms are. This led to the definition of eMathTeacher concept, which has materialized in the eMathTeacher set of requirements. An e-learning tool is eMathTeacher compliant if it works as a virtual math trainer. In other words, it has to be an on-line self-assessment tool that helps students to actively and autonomously learn math concepts or algorithms, correcting their mistakes and providing them with clues to find the right answer. In an eMathTeacher-compliant tool, algorithm simulation does not continue until the user enters the correct answer. GRAPHs is an extendible environment designed for active and independent visual simulation-based learning of graph algorithms, set up to integrate tools to help the user simulate the execution of different algorithms. Apart from the options of creating and editing the graph, and visualizing the changes made to the graph during simulation, the environment also includes step-by-step correction, algorithm pseudo-code animation, pop-up questions, data structure handling and XML-based interaction log creation features. On the other hand, assessment is a key part of any learning process. Through the use of e-learning environments huge amounts of data can be output about this process. Nevertheless, this information has to be interpreted and represented in a practical way to arrive at a sound assessment that is not confined to merely counting mistakes. This includes establishing relationships between the available data and also providing instructive linguistic descriptions about learning evolution. Additionally, formative assessment should specify the level of attainment of the learning goals defined by the instructor. Till now, only human experts were capable of making such assessments. While facing this problem, our goal has been to create a computational model that simulates the instructor’s reasoning and generates an enlightening learning evolution report in natural language. The second part of this thesis presents the granular linguistic model of learning assessment to model the assessment of the learning process and implement the automated generation of a formative assessment report. The model is a particularization of the granular linguistic model of a phenomenon (GLMP) paradigm, based on fuzzy logic and the computational theory of perceptions, to the assessment phenomenon. This technique, useful for implementing complex assessment criteria using inference systems based on linguistic rules, has been applied to two particular cases: the assessment of the interaction logs generated by GRAPHs and the criterion-based assessment of Moodle quizzes. As a consequence, several expert systems to assess different algorithm simulations and Moodle quizzes have been implemented, tested and used in the classroom. Apart from the grade, the designed expert systems also generate natural language progress reports on the achieved proficiency level, based exclusively on the objective data gathered from correct and incorrect responses. In addition, two applications, capable of being configured to implement the expert systems, have been developed. One is geared up to process the files output by GRAPHs and the other one is a Moodle plug-in set up to perform the assessment based on the quizzes results.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Las tecnologías relacionadas con el análisis de datos masivos están empezando a revolucionar nuestra forma de vivir, nos demos cuenta de ello o no. Desde las grandes compañías, que utilizan big data para la mejora de sus resultados, hasta nuestros teléfonos, que lo usan para medir nuestra actividad física. La medicina no es ajena a esta tecnología, que puede utilizarla para mejorar los diagnósticos y establecer planes de seguimiento personalizados a los pacientes. En particular, el trastorno bipolar requiere de atención constante por parte de los profesionales médicos. Con el objetivo de contribuir a esta labor, se presenta una plataforma, denominada bip4cast, que pretende predecir con antelación las crisis de estos enfermos. Uno de sus componentes es una aplicación web creada para realizar el seguimiento a los pacientes y representar gráficamente los datos de que se dispone con el objetivo de que el médico sea capaz de evaluar el estado del paciente, analizando el riesgo de recaída. Además, se estudian las diferentes visualizaciones implementadas en la aplicación con el objetivo de comprobar si se adaptan correctamente a los objetivos que se pretenden alcanzar con ellas. Para ello, generaremos datos aleatorios y representaremos estos gráficamente, examinando las posibles conclusiones que de ellos pudieran extraerse.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Castellano: A lo largo de este proyecto se ha desarrollado un sistema de bajo coste para la tomade electrocardiogramas y posterior visualización de los mismos en un dispositivo Android. Además se ha creado un módulo inteligente capaz de realizar un diagnóstico de manera automática y razonada sobre los datos recogidos. El proyecto se ha realizado principalmente sobre tecnologías abiertas: Arduino como componente central del sistema electrónico, Android para visualizar datos en una plataforma móvil y CLIPS como motor sobre el cual se ha desarrollado el sistema experto que realiza el diagnóstico.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tesis (Maestro en Ciencias de la Ingeniería con Especialidad en Control) - Universidad Autónoma de Nuevo León, 2001

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Formar a los psicólogos en programación. Servir de introducción en entornos informáticos no clásicos, como el desarrollo de programas con interacción inteligente. Estudio del desarrollo del prototipo de sistema informático SPICP (Sistema de Programación Interactiva en el Campo de la Psicología-, orientado a la formación de los psicólogos. Aplicación del mismo a estudiantes de Psicología de la Universidad de Oviedo. Se basa en el sistema de utilización 'vertical' del software educativo, donde un mismo paquete de programas es utilizado en cursos de diferentes niveles de dificultad. Dicho sistema consta de tres fases: un primer nivel donde los alumnos manejan programas ya creados con objeto de observar las posibilidades que ofrecen en el campo estadístico; un segundo nivel donde se estudian y modifican los programas y subrutinas existentes; y un tercer nivel donde ya desarrollan programas propios. Bibliografía. Ordenadores y programas informáticos en lenguaje Basic y/o Fortran. Estudio de las copias literales de las sesiones mantenidas por cada alumno, generadas por un mecanismo creado ad hoc. En la primera parte de la tesis se describen las aplicaciones del ordenador al campo de la Educación y la Psicología. Con respecto a la Educación, se describen las características de los lenguajes utilizados y algunos sistemas expertos como por ejemplo la base de datos Geobase. Con respecto a la Psicología, se describen: las aplicaciones prácticas del ordenador para hacer análisis estadísticos, controlar, recoger, almacenar y consultar información y hacer diagnósticos psicológicos; sus aplicaciones teóricas y, por último, algunos sistemas y programas que sirven como introductores al uso de la informática dentro del campo de la Psicología de forma general -Eureka, Items, Psychnet, SPSSX-l, etc.-. En la segunda parte se explica cómo crear y utilizar sistemas interactivos en programas estadísticos, en modelos simulados por ordenador y en el uso del paquete SPSS. En los tres casos se describen tanto los programas centrales como los secundarios. Por último se describe el funcionamiento y características de un entorno de programación destinado a crear sistemas expertos, y se añade un listado parcial de programas que constituyen algunos de dichos sistemas: 1st-Class-Advisor, Qnucleo, Qvarlist, Qttest, Se1, Se2. Se comprueba que el uso del sistema interactivo consigue que los alumnos manejen los programas adecuadamente en un lapso de tiempo menor que el que necesitan para hacerse con el manejo de un paquete estadístico tradicional. Durante este estudio se obtuvo además, información sobre la demanda de formación informática por parte de los alumnos de Psicología, comprobándose la incapacidad del Departamento para dar un acceso mayoritario a dicha formación.