997 resultados para Sistemas expertos (Ciencias computacionales)
Resumo:
El siguiente trabajo, a partir de la identificación de los diferentes sujetos que participan en el medio ambiente donde se desenvuelve el restaurante El Molino, busca determinar cuáles podrían ser las estrategias de mercadeo más efectivas para que la imagen, concepto y servicio del restaurante, la marca en general, resulte lo más atractivas posibles para los segmentos objetivo de la empresa. Dadas las circunstancias de que es un negocio reciente, no existen datos históricos de la imagen que proyecta la marca hacia sus clientes, por lo tanto la información a partir de la cual se pretenden generar alternativas para que la marca influencie a los clientes de la manera deseada será conseguida a partir de una simulación que será obtenida de un modelo basado en agentes. Con esto lo que se busca es poder parametrizar en qué aspectos y de qué forma la empresa debe invertir para que la forma en que los clientes perciben la marca sea la deseada por el restaurante.
Resumo:
Se muestra qué es el Informe Pisa, qué contiene, cómo se lleva a cabo y quienes participan. A su vez habla de la historia de Pisa, de como ha pasado de ser unos pocos países los que participaban en las pruebas de conocimiento en el año 2000, a participar la mayoría de las comunidades autónomas de España, así como Latinoamérica. Pisa evalúa los conocimientos aprendidos y las destrezas adquiridas en alumnos-as de 15 años. El autor ha querido reflejar que los alumnos españoles en el área de ciencias, poseen un nivel muy bajo con respecto al resto de países participantes, por lo que se debería cambiar el currículo educativo, mejorando capacidades como la escritura, identificación de las cuestiones científicas relevantes y contextualización en el ámbito social.
Resumo:
Mostrar una nueva herramienta educativa de carácter informático: el lenguaje de programación LOGO. Estudio basado en el lenguaje de programación LOGO. Como veremos , por medio de LOGO se pueden adquirir todas las destrezas necesarias para conseguir que el niño llegue a dominar su nuevo útil de trabajo. Esta herramienta, constituye un medio de potenciación del desarrollo de la creatividad. En un momento como el actual en que la informática ocupa un lugar destacado en el ámbito de la vida cotidiana, el pedagogo no puede volver la espalda a éste fenómeno, sino todo lo contrario: debe estudiarlo objetivamente y extraer conclusiones científicas basadas en experiencias concretas y controladas y olvidar las reticencias a la utilización de un medio radicalmente nuevo. La estructura de este trabajo sigue un orden lógico que corresponde a la utilización y adquisición , por parte del niño, de las diversas herramientas que LOGO posee. 1) Es difícil, en numerosas ocasiones, motivar a los alumnos. Más aún, buena parte del fracaso escolar existente en nuestro país se debe a la falta de motivación. El LOGO pone las cosas más fáciles porque permite a cada niño o grupo de niños seguir su propio ritmo de trabajo.2) El LOGO garantiza la motivación al ser un programa totalmente interactivo.3) LOGO no tiene límites en su utilización: su campo de aplicación abarca desde preescolar hasta la universidad llegando, incluso, a poderse construir con él sistemas expertos y experimentar en inteligencia artificial.4) Es recomendable su utilización en preescolar ya que, desde el momento inicial, el niño adquiere con facilidad los conceptos de lateralidad, movimiento y temporalidad; factores todos ellos que contribuyen a una maduración conceptual más rápida y eficaz.5) El lenguaje LOGO enseña a organizarse en el trabajo. Al ser un lenguaje recursivo que se basa en procedimientos, el alumno, necesariamente tiene que saber organizar su trabajo, de lo contrario no conseguirá lo deseado.6) LOGO es muy creativo, comunicativo y flexible a las capacidades de los alumnos.
Resumo:
Una de las actuaciones posibles para la gestión de los residuos sólidos urbanos es la valorización energética, es decir la incineración con recuperación de energía. Sin embargo es muy importante controlar adecuadamente el proceso de incineración para evitar en lo posible la liberación de sustancias contaminantes a la atmósfera que puedan ocasionar problemas de contaminación industrial.Conseguir que tanto el proceso de incineración como el tratamiento de los gases se realice en condiciones óptimas presupone tener un buen conocimiento de las dependencias entre las variables de proceso. Se precisan métodos adecuados de medida de las variables más importantes y tratar los valores medidos con modelos adecuados para transformarlos en magnitudes de mando. Un modelo clásico para el control parece poco prometedor en este caso debido a la complejidad de los procesos, la falta de descripción cuantitativa y la necesidad de hacer los cálculos en tiempo real. Esto sólo se puede conseguir con la ayuda de las modernas técnicas de proceso de datos y métodos informáticos, tales como el empleo de técnicas de simulación, modelos matemáticos, sistemas basados en el conocimiento e interfases inteligentes. En [Ono, 1989] se describe un sistema de control basado en la lógica difusa aplicado al campo de la incineración de residuos urbanos. En el centro de investigación FZK de Karslruhe se están desarrollando aplicaciones que combinan la lógica difusa con las redes neuronales [Jaeschke, Keller, 1994] para el control de la planta piloto de incineración de residuos TAMARA. En esta tesis se plantea la aplicación de un método de adquisición de conocimiento para el control de sistemas complejos inspirado en el comportamiento humano. Cuando nos encontramos ante una situación desconocida al principio no sabemos como actuar, salvo por la extrapolación de experiencias anteriores que puedan ser útiles. Aplicando procedimientos de prueba y error, refuerzo de hipótesis, etc., vamos adquiriendo y refinando el conocimiento, y elaborando un modelo mental. Podemos diseñar un método análogo, que pueda ser implementado en un sistema informático, mediante el empleo de técnicas de Inteligencia Artificial.Así, en un proceso complejo muchas veces disponemos de un conjunto de datos del proceso que a priori no nos dan información suficientemente estructurada para que nos sea útil. Para la adquisición de conocimiento pasamos por una serie de etapas: - Hacemos una primera selección de cuales son las variables que nos interesa conocer. - Estado del sistema. En primer lugar podemos empezar por aplicar técnicas de clasificación (aprendizaje no supervisado) para agrupar los datos y obtener una representación del estado de la planta. Es posible establecer una clasificación, pero normalmente casi todos los datos están en una sola clase, que corresponde a la operación normal. Hecho esto y para refinar el conocimiento utilizamos métodos estadísticos clásicos para buscar correlaciones entre variables (análisis de componentes principales) y así poder simplificar y reducir la lista de variables. - Análisis de las señales. Para analizar y clasificar las señales (por ejemplo la temperatura del horno) es posible utilizar métodos capaces de describir mejor el comportamiento no lineal del sistema, como las redes neuronales. Otro paso más consiste en establecer relaciones causales entre las variables. Para ello nos sirven de ayuda los modelos analíticos - Como resultado final del proceso se pasa al diseño del sistema basado en el conocimiento. El objetivo principal es aplicar el método al caso concreto del control de una planta de tratamiento de residuos sólidos urbanos por valorización energética. En primer lugar, en el capítulo 2 Los residuos sólidos urbanos, se trata el problema global de la gestión de los residuos, dando una visión general de las diferentes alternativas existentes, y de la situación nacional e internacional en la actualidad. Se analiza con mayor detalle la problemática de la incineración de los residuos, poniendo especial interés en aquellas características de los residuos que tienen mayor importancia de cara al proceso de combustión.En el capítulo 3, Descripción del proceso, se hace una descripción general del proceso de incineración y de los distintos elementos de una planta incineradora: desde la recepción y almacenamiento de los residuos, pasando por los distintos tipos de hornos y las exigencias de los códigos de buena práctica de combustión, el sistema de aire de combustión y el sistema de humos. Se presentan también los distintos sistemas de depuración de los gases de combustión, y finalmente el sistema de evacuación de cenizas y escorias.El capítulo 4, La planta de tratamiento de residuos sólidos urbanos de Girona, describe los principales sistemas de la planta incineradora de Girona: la alimentación de residuos, el tipo de horno, el sistema de recuperación de energía, y el sistema de depuración de los gases de combustión Se describe también el sistema de control, la operación, los datos de funcionamiento de la planta, la instrumentación y las variables que son de interés para el control del proceso de combustión.En el capítulo 5, Técnicas utilizadas, se proporciona una visión global de los sistemas basados en el conocimiento y de los sistemas expertos. Se explican las diferentes técnicas utilizadas: redes neuronales, sistemas de clasificación, modelos cualitativos, y sistemas expertos, ilustradas con algunos ejemplos de aplicación.Con respecto a los sistemas basados en el conocimiento se analizan en primer lugar las condiciones para su aplicabilidad, y las formas de representación del conocimiento. A continuación se describen las distintas formas de razonamiento: redes neuronales, sistemas expertos y lógica difusa, y se realiza una comparación entre ellas. Se presenta una aplicación de las redes neuronales al análisis de series temporales de temperatura.Se trata también la problemática del análisis de los datos de operación mediante técnicas estadísticas y el empleo de técnicas de clasificación. Otro apartado está dedicado a los distintos tipos de modelos, incluyendo una discusión de los modelos cualitativos.Se describe el sistema de diseño asistido por ordenador para el diseño de sistemas de supervisión CASSD que se utiliza en esta tesis, y las herramientas de análisis para obtener información cualitativa del comportamiento del proceso: Abstractores y ALCMEN. Se incluye un ejemplo de aplicación de estas técnicas para hallar las relaciones entre la temperatura y las acciones del operador. Finalmente se analizan las principales características de los sistemas expertos en general, y del sistema experto CEES 2.0 que también forma parte del sistema CASSD que se ha utilizado.El capítulo 6, Resultados, muestra los resultados obtenidos mediante la aplicación de las diferentes técnicas, redes neuronales, clasificación, el desarrollo de la modelización del proceso de combustión, y la generación de reglas. Dentro del apartado de análisis de datos se emplea una red neuronal para la clasificación de una señal de temperatura. También se describe la utilización del método LINNEO+ para la clasificación de los estados de operación de la planta.En el apartado dedicado a la modelización se desarrolla un modelo de combustión que sirve de base para analizar el comportamiento del horno en régimen estacionario y dinámico. Se define un parámetro, la superficie de llama, relacionado con la extensión del fuego en la parrilla. Mediante un modelo linealizado se analiza la respuesta dinámica del proceso de incineración. Luego se pasa a la definición de relaciones cualitativas entre las variables que se utilizan en la elaboración de un modelo cualitativo. A continuación se desarrolla un nuevo modelo cualitativo, tomando como base el modelo dinámico analítico.Finalmente se aborda el desarrollo de la base de conocimiento del sistema experto, mediante la generación de reglas En el capítulo 7, Sistema de control de una planta incineradora, se analizan los objetivos de un sistema de control de una planta incineradora, su diseño e implementación. Se describen los objetivos básicos del sistema de control de la combustión, su configuración y la implementación en Matlab/Simulink utilizando las distintas herramientas que se han desarrollado en el capítulo anterior.Por último para mostrar como pueden aplicarse los distintos métodos desarrollados en esta tesis se construye un sistema experto para mantener constante la temperatura del horno actuando sobre la alimentación de residuos.Finalmente en el capítulo Conclusiones, se presentan las conclusiones y resultados de esta tesis.
Resumo:
Los principios de confianza y seguridad (entendida como control del riesgo) aparecen como dos elementos constitutivos de la lógica de las relaciones en el estado providencia, con claras articulaciones con el tema del empleo. El presente trabajo se propone indagar, en la crisis del Estado de Bienestar, qué papel cumple el proceso de radicalización de la modernidad, que conocemos como posmodernidad en la elaboración de la noción de riesgo y consecuentemente de la de seguridad y cómo pueden afectar los institutos que la representan orgánicamente. Se observa la pérdida de certidumbre como una característica de las sociedades actuales, signadas por la complejidad y el consecuente traslado de la confianza a los sistemas expertos con la consecuencia de la despersonalización de las relaciones y el creciente poder de los operadores del sistema.
Resumo:
Este trabajo analiza las creencias mitológicas, agüeros o supersticiones asociadas con las actividades agropecuarias y de conservación en nueve unidades productivas rurales de la cuenca media del río La Vieja, Colombia. Plantea que las gentes de antaño reconocen la influencia de múltiples relatos sobre condiciones productivas y ambientales que redundan en el éxito o el fracaso de las actividades rurales. Las creencias se clasificaron según su funcionalidad y las actividades que regulan. Se describieron así 14 mitos que influyen en las actividades de cultivo, cría, conservación y regulación social. El principal elemento de discusión fue la funcionalidad, considerando la distribución y aplicación en los subsistemas de producción en la finca, la relación con la edad y el género y con la posición jerárquica en la estructura familiar. El flujo de información entre sistemas expertos y sistemas de creencias tradicionales ayuda a construir sistemas adaptados. A manera de ejemplo, se puede mencionar un mayordomo de un hato ganadero que combina la creencia en las fases de la luna con el empleo de la técnica genética de la inseminación artificial para asegurar no sólo la preñez de la madre sino también el género femenino de la cría.
Resumo:
Este trabajo analiza las creencias mitológicas, agüeros o supersticiones asociadas con las actividades agropecuarias y de conservación en nueve unidades productivas rurales de la cuenca media del río La Vieja, Colombia. Plantea que las gentes de antaño reconocen la influencia de múltiples relatos sobre condiciones productivas y ambientales que redundan en el éxito o el fracaso de las actividades rurales. Las creencias se clasificaron según su funcionalidad y las actividades que regulan. Se describieron así 14 mitos que influyen en las actividades de cultivo, cría, conservación y regulación social. El principal elemento de discusión fue la funcionalidad, considerando la distribución y aplicación en los subsistemas de producción en la finca, la relación con la edad y el género y con la posición jerárquica en la estructura familiar. El flujo de información entre sistemas expertos y sistemas de creencias tradicionales ayuda a construir sistemas adaptados. A manera de ejemplo, se puede mencionar un mayordomo de un hato ganadero que combina la creencia en las fases de la luna con el empleo de la técnica genética de la inseminación artificial para asegurar no sólo la preñez de la madre sino también el género femenino de la cría.
Resumo:
Las tendencias actuales dentro de la Inteligencia Artificial y los Sistemas Expertos se mueven hacia la excitante posibilidad de reproducir y simular el conocimiento y comportamiento humanos dentro de Bases de Conocimiento, acopladas con códigos computacionales parcialmente inteligentes. Así, este trabajo se ocupa de la predicción del nivel de calidad en estructuras mediante un sistema experto denominado QL-CONST1, capaz de "razonar" sobre este campo de la ingeniería estructural. La Base de Conocimientos ha sido desarrollada en términos probabilísticos de hipótesis y evidencias, con la invalorable ayuda de expertos humanos en ingeniería estructural. Se incluyen algunos ejemplos ilustrativos para validar el comportamiento del sistema experto.
Resumo:
El concepto de algoritmo es básico en informática, por lo que es crucial que los alumnos profundicen en él desde el inicio de su formación. Por tanto, contar con una herramienta que guíe a los estudiantes en su aprendizaje puede suponer una gran ayuda en su formación. La mayoría de los autores coinciden en que, para determinar la eficacia de una herramienta de visualización de algoritmos, es esencial cómo se utiliza. Así, los estudiantes que participan activamente en la visualización superan claramente a los que la contemplan de forma pasiva. Por ello, pensamos que uno de los mejores ejercicios para un alumno consiste en simular la ejecución del algoritmo que desea aprender mediante el uso de una herramienta de visualización, i. e. consiste en realizar una simulación visual de dicho algoritmo. La primera parte de esta tesis presenta los resultados de una profunda investigación sobre las características que debe reunir una herramienta de ayuda al aprendizaje de algoritmos y conceptos matemáticos para optimizar su efectividad: el conjunto de especificaciones eMathTeacher, además de un entorno de aprendizaje que integra herramientas que las cumplen: GRAPHs. Hemos estudiado cuáles son las cualidades esenciales para potenciar la eficacia de un sistema e-learning de este tipo. Esto nos ha llevado a la definición del concepto eMathTeacher, que se ha materializado en el conjunto de especificaciones eMathTeacher. Una herramienta e-learning cumple las especificaciones eMathTeacher si actúa como un profesor virtual de matemáticas, i. e. si es una herramienta de autoevaluación que ayuda a los alumnos a aprender de forma activa y autónoma conceptos o algoritmos matemáticos, corrigiendo sus errores y proporcionando pistas para encontrar la respuesta correcta, pero sin dársela explícitamente. En estas herramientas, la simulación del algoritmo no continúa hasta que el usuario introduce la respuesta correcta. Para poder reunir en un único entorno una colección de herramientas que cumplan las especificaciones eMathTeacher hemos creado GRAPHs, un entorno ampliable, basado en simulación visual, diseñado para el aprendizaje activo e independiente de los algoritmos de grafos y creado para que en él se integren simuladores de diferentes algoritmos. Además de las opciones de creación y edición del grafo y la visualización de los cambios producidos en él durante la simulación, el entorno incluye corrección paso a paso, animación del pseudocódigo del algoritmo, preguntas emergentes, manejo de las estructuras de datos del algoritmo y creación de un log de interacción en XML. Otro problema que nos planteamos en este trabajo, por su importancia en el proceso de aprendizaje, es el de la evaluación formativa. El uso de ciertos entornos e-learning genera gran cantidad de datos que deben ser interpretados para llegar a una evaluación que no se limite a un recuento de errores. Esto incluye el establecimiento de relaciones entre los datos disponibles y la generación de descripciones lingüísticas que informen al alumno sobre la evolución de su aprendizaje. Hasta ahora sólo un experto humano era capaz de hacer este tipo de evaluación. Nuestro objetivo ha sido crear un modelo computacional que simule el razonamiento del profesor y genere un informe sobre la evolución del aprendizaje que especifique el nivel de logro de cada uno de los objetivos definidos por el profesor. Como resultado del trabajo realizado, la segunda parte de esta tesis presenta el modelo granular lingüístico de la evaluación del aprendizaje, capaz de modelizar la evaluación y generar automáticamente informes de evaluación formativa. Este modelo es una particularización del modelo granular lingüístico de un fenómeno (GLMP), en cuyo desarrollo y formalización colaboramos, basado en la lógica borrosa y en la teoría computacional de las percepciones. Esta técnica, que utiliza sistemas de inferencia basados en reglas lingüísticas y es capaz de implementar criterios de evaluación complejos, se ha aplicado a dos casos: la evaluación, basada en criterios, de logs de interacción generados por GRAPHs y de cuestionarios de Moodle. Como consecuencia, se han implementado, probado y utilizado en el aula sistemas expertos que evalúan ambos tipos de ejercicios. Además de la calificación numérica, los sistemas generan informes de evaluación, en lenguaje natural, sobre los niveles de competencia alcanzados, usando sólo datos objetivos de respuestas correctas e incorrectas. Además, se han desarrollado dos aplicaciones capaces de ser configuradas para implementar los sistemas expertos mencionados. Una procesa los archivos producidos por GRAPHs y la otra, integrable en Moodle, evalúa basándose en los resultados de los cuestionarios. ABSTRACT The concept of algorithm is one of the core subjects in computer science. It is extremely important, then, for students to get a good grasp of this concept from the very start of their training. In this respect, having a tool that helps and shepherds students through the process of learning this concept can make a huge difference to their instruction. Much has been written about how helpful algorithm visualization tools can be. Most authors agree that the most important part of the learning process is how students use the visualization tool. Learners who are actively involved in visualization consistently outperform other learners who view the algorithms passively. Therefore we think that one of the best exercises to learn an algorithm is for the user to simulate the algorithm execution while using a visualization tool, thus performing a visual algorithm simulation. The first part of this thesis presents the eMathTeacher set of requirements together with an eMathTeacher-compliant tool called GRAPHs. For some years, we have been developing a theory about what the key features of an effective e-learning system for teaching mathematical concepts and algorithms are. This led to the definition of eMathTeacher concept, which has materialized in the eMathTeacher set of requirements. An e-learning tool is eMathTeacher compliant if it works as a virtual math trainer. In other words, it has to be an on-line self-assessment tool that helps students to actively and autonomously learn math concepts or algorithms, correcting their mistakes and providing them with clues to find the right answer. In an eMathTeacher-compliant tool, algorithm simulation does not continue until the user enters the correct answer. GRAPHs is an extendible environment designed for active and independent visual simulation-based learning of graph algorithms, set up to integrate tools to help the user simulate the execution of different algorithms. Apart from the options of creating and editing the graph, and visualizing the changes made to the graph during simulation, the environment also includes step-by-step correction, algorithm pseudo-code animation, pop-up questions, data structure handling and XML-based interaction log creation features. On the other hand, assessment is a key part of any learning process. Through the use of e-learning environments huge amounts of data can be output about this process. Nevertheless, this information has to be interpreted and represented in a practical way to arrive at a sound assessment that is not confined to merely counting mistakes. This includes establishing relationships between the available data and also providing instructive linguistic descriptions about learning evolution. Additionally, formative assessment should specify the level of attainment of the learning goals defined by the instructor. Till now, only human experts were capable of making such assessments. While facing this problem, our goal has been to create a computational model that simulates the instructor’s reasoning and generates an enlightening learning evolution report in natural language. The second part of this thesis presents the granular linguistic model of learning assessment to model the assessment of the learning process and implement the automated generation of a formative assessment report. The model is a particularization of the granular linguistic model of a phenomenon (GLMP) paradigm, based on fuzzy logic and the computational theory of perceptions, to the assessment phenomenon. This technique, useful for implementing complex assessment criteria using inference systems based on linguistic rules, has been applied to two particular cases: the assessment of the interaction logs generated by GRAPHs and the criterion-based assessment of Moodle quizzes. As a consequence, several expert systems to assess different algorithm simulations and Moodle quizzes have been implemented, tested and used in the classroom. Apart from the grade, the designed expert systems also generate natural language progress reports on the achieved proficiency level, based exclusively on the objective data gathered from correct and incorrect responses. In addition, two applications, capable of being configured to implement the expert systems, have been developed. One is geared up to process the files output by GRAPHs and the other one is a Moodle plug-in set up to perform the assessment based on the quizzes results.
Resumo:
La aplicación de la tecnología de los sistemas expertos en los negocios aumenta cada día más con la aparición de nuevas herramientas y con la importancia indiscutible que tiene en la toma de decisiones el manejo adecuado de la información y el conocimiento en las organizaciones
Resumo:
El cuello de botella en el desarrollo de sistemas expertos es la extracción o educación del conocimiento heurístico del experto por parte del ingeniero del conocimiento. Uno de los aspectos más dlficiles de las tareas del ingeniero del conocimiento es ayudar al experto a estructurar el dominio del conocimiento, a Identificar y formalizar los conceptos del dominio. Los expertos tienen tendencia a establecer sus conclusiones y el razonamiento que usan, en términos generales que son demasiado amplios para obtener un análisis efectivo para la máquina. El que hace rápidamente juicios complejos sin reexaminar y reestablecer laboriosamente cada paso en su razonamiento.
Resumo:
Una condición previa a la realización de sistemas expertos, es decir, de sistemas con un nivel de competencia semejante al de un ser humano, experto en un dominio especifico del saber, es la identificación, recolección y formalización de conocimientos heurísticos.
Resumo:
En la actualidad, cualquier ámbito profesional cuenta con herramientas software especializadas que mejoran la productividad en la realización de tareas repetitivas o facilitan la ejecución de tareas críticas con un alto grado de especialización. Entre estos sistemas software especializados se encuentran las herramientas informáticas que sirven de apoyo a la toma de decisiones, a veces basadas en sistemas expertos, que pueden alcanzar un grado de eficiencia y exactitud incomparables con procesos de elaboración artesanal. En este proyecto se detalla la creación de un sistema de ayuda a la toma de decisión clínica para la elaboración de pautas vacunales aceleradas en personas que no se encuentran correctamente vacunadas según su calendario de vacunación. Esta herramienta se sirve de una serie de algoritmos, extraídos de conocimiento experto y encargados de calcular un calendario de vacunación acelerado a medida del paciente, según su edad, género y dosis previamente administradas. Estos algoritmos son totalmente configurables y pueden ser adaptados a cualquier tipo de calendario vacunal y vacunas que formen parte de él. La herramienta software desarrollada en este trabajo pretende dar servicios a dos tipos de usuario. Los usuarios con perfil enfermero podrán acceder a la herramienta para la elaboración de pautas de vacunación acelerada. Los usuarios con perfil administrador podrán definir para cada una de las vacunas dadas de alta en el sistema los algoritmos de pautas de vacunación aceleradas según la edad del paciente y las dosis previamente recibidas dentro de cada rango temporal. El objetivo principal del proyecto consiste en contribuir, mediante un software de ayuda a la toma de decisión, a reducir el índice de error humano en el diseño de pautas de corrección vacunales, suministrando para ello unas pautas exactas y adecuadas a las circunstancias del paciente y su historia vacunal previa.
Resumo:
Los electrocardiogramas (ECG) registran la actividad eléctrica del corazón a través de doce señales principales denominadas derivaciones. Estas derivaciones son analizadas por expertos médicos observando aquellos segmentos de la señal eléctrica que determinan cada una de las patologías que pueden afectar al corazón. Este hecho en general, es un condicionante muy importante para el diseño de sistemas expertos de diagnóstico médico, ya que es preciso conocer, delimitar y extraer de la señal eléctrica aquellos segmentos que determinan la patología. Dar solución a estos problemas, sería fundamental para facilitar el diseño de sistemas expertos para el diagnóstico de enfermedades cardiacas. El objetivo de este trabajo es demostrar que es posible identificar patologías cardiacas analizando la señal completa de las diferentes derivaciones de los ECGs, y determinar puntos concretos que determinan la patología en lugar de segmentos de la señal. Para ello se ha utilizado una BBDD de electrocardiogramas y se ha determinado mediante un algoritmo, los puntos de la señal que determinan la patología. Se ha aplicado a la patología de bloqueos de rama y los puntos obtenidos con el algoritmo se han utilizado para el diseño de un clasificador automático basado en redes neuronales artificiales, obteniendo un coeficiente de sensibilidad del 100% y de especificad del 99.24%, demostrando su validez para el diseño de sistemas expertos de clasificación.
Resumo:
Las tecnologías relacionadas con el análisis de datos masivos están empezando a revolucionar nuestra forma de vivir, nos demos cuenta de ello o no. Desde las grandes compañías, que utilizan big data para la mejora de sus resultados, hasta nuestros teléfonos, que lo usan para medir nuestra actividad física. La medicina no es ajena a esta tecnología, que puede utilizarla para mejorar los diagnósticos y establecer planes de seguimiento personalizados a los pacientes. En particular, el trastorno bipolar requiere de atención constante por parte de los profesionales médicos. Con el objetivo de contribuir a esta labor, se presenta una plataforma, denominada bip4cast, que pretende predecir con antelación las crisis de estos enfermos. Uno de sus componentes es una aplicación web creada para realizar el seguimiento a los pacientes y representar gráficamente los datos de que se dispone con el objetivo de que el médico sea capaz de evaluar el estado del paciente, analizando el riesgo de recaída. Además, se estudian las diferentes visualizaciones implementadas en la aplicación con el objetivo de comprobar si se adaptan correctamente a los objetivos que se pretenden alcanzar con ellas. Para ello, generaremos datos aleatorios y representaremos estos gráficamente, examinando las posibles conclusiones que de ellos pudieran extraerse.