23 resultados para procesamiento de imágenes

em Universidade Complutense de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el año 2016 se vendieron en EE.UU más de un millón de Unmanned Aerial Vehicles (UAVs, Vehículos aéreos no tripulados), casi el doble que el año anterior, país del que se dispone de información. Para el año 2020 se estima que este mercado alcance los 5.600 millones de dólares en todo el mundo, creciendo a un ritmo del 30% anual. Este crecimiento demuestra que existe un mercado en expansión con muchas y diversas oportunidades de investigación. El rango de aplicaciones en los que se utiliza este tipo de vehículos es innumerable. Desde finales del s.XX, los UAVs han estado presentes en multitud de aplicaciones, principalmente en misiones de reconocimiento. Su principal ventaja radica en que pueden ser utilizados en situaciones de alto riesgo sin suponer una amenaza para ningún tripulante. En los últimos años, la fabricación de vehículos asequibles económicamente ha permitido que su uso se extienda a otros sectores. A día de hoy uno de los campos en los que ha adquirido gran relevancia es en agricultura, contribuyendo a la automatización y monitorización de cultivos, pero también se ha extendido su uso a diferentes sistemas, tales como seguridad, cartografía o monitorización, entre otros [1]. Es en esta situación en la que se propone el proyecto SALACOM [2], que explora la posibilidad de utilizar esta tecnología en sistemas de repuesta rápida para la detección y contención de vertidos contaminantes en entornos acuáticos con el apoyo de vehículos autónomos marinos de superficie (USV, Unmanned Surface Vehicles). En el mencionado proyecto se pretende utilizar sistemas UAVs para detectar y analizar las zonas de vertido y proveer la información respecto a la localización y las técnicas de contención adecuadas a los sistemas USV. Una vez se haya realizado el análisis de la situación del vertido, los USV trabajarían conjuntamente con los UAVs para desplegar las barreras de protección seleccionadas en la zona afectada. Para esto, los UAVs o drones, términos similares en lo que respecta a este proyecto y que a lo largo de esta memoria se usarán indistintamente, deben ser capaces de despegar desde los USV y volver a aterrizar sobre ellos una vez realizada su labor. El proyecto que se describe en la presente memoria se centra en la fase de aterrizaje y, más concretamente, en la detección de la plataforma seleccionada como plantilla mediante técnicas de tratamiento de imágenes. Esto serviría como sistema de apoyo para guiar el dron hacia la plataforma para que pueda realizar el descenso correctamente y finalizar así su misión o bien para realizar operaciones de recarga de la batería. El dron está equipado con la correspondiente cámara de visión a bordo, con la que obtiene las imágenes, las procesa e identifica la plataforma para dirigirse hacia ella, si bien, dado que el sistema de procesamiento de imágenes no se encuentra totalmente operativo, este trabajo se centra en el desarrollo de una aplicación software independiente del sistema de visión a bordo del dron, basada en el desarrollo de técnicas de reconocimiento de la plataforma. La plataforma a utilizar proviene de una patente [3], consistente en una figura geométrica con formas características, de muy difícil aparición en entornos de exterior. La figura pintada en negro se halla impresa sobre un panel de fondo blanco de 1m × 1m de superficie. En este trabajo se han explorado diversas opciones disponibles para realizar la identificación de las regiones de interés. El principal objetivo es realizar la selección de una tecnología que pueda cumplir potencialmente con los criterios necesarios para llevar a cabo la tarea y seleccionar los métodos de detección adecuados para realizar la identificación de la figura contenida en la plataforma. Se ha pretendido utilizar tecnologías de fácil uso, amplío soporte y, cuando ha sido posible, de código libre. Todo ello integrado en una aplicación informática, que es la que se presenta en el presente trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gran evolución a lo largo de este tiempo sobre dispositivos móviles y sus características, así como las vías de conexión de alta velocidad 3G/4G, han logrado dar un giro a los planteamientos económicos empresariales consiguiendo que se replanteen los costes de sus infraestructuras tradicionales, involucrando las nuevas tecnologías en su nueva estructura económica y consiguiendo invertir menos recursos humanos en el proceso de producción. Este proyecto propone una solución real para la empresa Madrileña Red de Gas. Mientras el proyecto de contadores inteligentes se termina de concretar y desarrollar, es necesario disponer de un método que automatice la lectura de los contadores analógicos mediante el procesamiento de una imagen digital a través de una aplicación informática que sea capaz de determinar el código de identificación del contador así como la lectura del consumo actual. Para la elaboración del método desarrollado se han utilizado conceptos propios de Visión por Computador y de Aprendizaje Automático, más específicamente tratamiento de imágenes y reconocimiento óptico de caracteres, mediante la aplicación de métodos en el ámbito de dichas disciplinas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudios en niños con Trastornos en el Neurodesarrollo del Lenguaje (TNDL) han mostrado que esta población tiene mayores dificultades en el acceso al léxico que los niños con Desarrollo Típico (DT). Estas dificultades se materializan principalmente en ausencia de respuesta ante la demanda de denominación de una imagen (respuesta anómica) o la elicitación de una denominación correspondiente a otro objeto, bien por su proximidad semántica o bien por la proximidad entre sus nombres (sustituciones parafásicas semánticas y fonológicas). Sin embargo, estas características no parecen ser generalizables al conjunto de los niños TNDL y se pone en duda que lo sea aún en poblaciones más específicas en las que es una característica bastante común y remarcable como en los niños con TEL. En el presente estudio se ha diseñado y construido una prueba para estudiar el procesamiento léxico en niños con edades comprendidas entre los 2;06 y 7;11 años: el Test de Evaluación y Análisis del Léxico Infantil (ALI). La prueba incluye una tarea de denominación y dos tareas complementarias: una de reconocimiento e identificación de imágenes (comprensión léxica por vía auditiva) y otra de repetición de palabras. La prueba se aplicó a una amplia población de niños con DT del lenguaje (n=240) de las edades mencionadas con objeto de disponer de una primera referencia del comportamiento normativo de la población infantil en la tarea de denominación de imágenes. Los resultados obtenidos con la población de niños con DT ponen de manifiesto que la prueba posee un alto nivel de consistencia interna y validez convergente. Las puntuaciones obtenidas han permitido elaborar un baremo en puntuaciones centiles de la denominación e identificación de imágenes y repetición de palabras para la población comprendida entre los 3 y 6 años...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las expresiones faciales de la emoción constituyen estímulos altamente relevantes en la interacción humana, dado que son señales comunicativas que nos permiten inferir el estado interno de otras personas. La función comunicativa de las expresiones faciales de la emoción ha sido objeto de gran interés y existe abundante literatura sobre el tema. Muchos autores han investigado los mecanismos involucrados en la percepción y decodificación de las expresiones faciales desde distintas perspectivas. En estudios realizados con medidas de la actividad cerebral de alta resolución temporal (electroencefalografía-EEG- y magnetoencefalografía-MEG) que se centran en el curso temporal del procesamiento perceptivo de las expresiones faciales de la emoción se ha encontrado una sensibilidad temprana a diversas emociones. Por ejemplo, el componente N170 ha mostrado sensibilidad diferenciada a las expresiones faciales de la emoción (ver revisión de Hinojosa, Mercado & Carretié, 2015). Un procedimiento utilizado habitualmente para investigar el procesamiento afectivo es el paradigma de priming afectivo, en el que primes y targets emocionales se presentan secuencialmente. La técnica de potenciales evocados (event-related potentials-ERP) se ha empleado habitualmente para explorar estos procesos y los estudios se han centrado en dos componentes principales: el N400 y el Potencial Tardío Positivo (Late Positive Potential-LPP). Se ha encontrado que el N400 es altamente sensible a la incongruencia semántica, mientras que su sensibilidad a la incongruencia afectiva no está tan clara. Por el contrario, se ha observado modulación del LPP debida a la incongruencia afectiva en ausencia de efectos en N400 (Herring et al., 2011)...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La investigación desarrollada para esta tesis doctoral titulada “Los bancos de imágenes en Internet. Características, funciones y aplicaciones” se centra en el estudio general de estos sitios web y su principal objetivo es definirlos y analizarlos con base en un modelo de análisis de creación propia de este investigador. Creemos que es una investigación muy pertinente ya que nos encontramos en un mundo en el que prima la imagen, las utilizamos a todas horas, en múltiples ámbitos y, por tanto, se hacen indispensables sitios webs a los que los usuarios puedan acceder, donde consigan buscar y encontrar imágenes digitales para diversos propósitos. Durante los últimos 15 años han ido apareciendo y se han ido desarrollando los bancos de imágenes en Internet (BDI). Aunque el número de bancos ha ido creciendo muy rápidamente, los estudios sobre ellos no lo han hecho en la misma medida. De hecho, aunque existen varios trabajos científicos sobre ellos muy interesantes, muchas de las publicaciones al respecto se quedan en la mera descripción de unos pocos bancos a modo de ejemplo, de forma que pretenden explicar así su modo de funcionamiento. En este estudio, sin embargo, se ha pretendido hacer un análisis riguroso de una muestra importante de bancos de imágenes, tanto a nivel cuantitativo como a nivel cualitativo, para extraer el mayor número posible de conclusiones respecto al objeto de estudio...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A través de esta investigación se busca analizar de que forma una categoría estética como es lo grotesco, relacionada generalmente con lo desagradable, lo inquietante, lo cómico-burlesco e, incluso, lo repugnante y lo siniestro, tiene cabida en el ámbito de la fotografía publicitaria, mediante la observación de una tendencia estética que se caracteriza por un uso de lo grotesco sobre todo fantástico, y en la que confluyen algunos de los valores que le han sido atribuidos por diferentes autores a lo largo del tiempo, con otros nuevos que se adecuan a su contexto publicitario. De esta forma, en primer lugar, y para llegar al momento en que lo grotesco adquiere, finalmente, entidad propia, se debe comenzar por el estudio de la belleza, la cual es considerada una de las ideas principales del pensamiento filosófico durante un largo período de tiempo, hasta que entra en crisis en el siglo XVIII a la par que nace la estética como disciplina, e irrumpen nuevas categorías a tener en cuenta en la reflexión sobre el arte, entre las que se encuentra lo grotesco. Así, lo grotesco surge como término en el siglo XV, proveniente de la palabra italiana gruta, ya que se utilizó inicialmente para designar ciertas ornamentaciones encontradas en el sepultado palacio de la Domus Aurea, construido por Nerón en el siglo I. Esas pinturas fueron imitadas por varios pintores del XV y asentado ya el término como sustantivo, vio como era adjetivado y se extendía por toda Europa, relacionándose, además, con numerosas concepciones como lo ridículo o lo bizarro, o manifestaciones cómico artísticas como la Comedia del Arte o los grabados de Callot. Entonces, llegado el siglo XVIII y esa mencionada ampliación del gusto estético en el Romanticismo, y con el apoyo de autores como Friedrich Schlegel, Ruskin y sobre todo Victor Hugo, lo grotesco surge como categoría estética independiente aunque limítrofe con otras, como lo sublime, lo feo y lo cómico, entre las que este estudio analiza sus relaciones y sus distinciones para profundizar en la compleja naturaleza de lo grotesco...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mi interés por la creatividad surge en el año 2012, cuando se me ofrece la oportunidad de asumir la docencia de las asignaturas Creatividad y Educación y Fundamentos de la Educación Artística en el centro universitario CES Don Bosco, adscrito a la Universidad Complutense de Madrid. Me encuentro en mis clases con un alumnado pasivo, excesivamente cómodo, que se angustia con la novedad, y que busca una respuesta única que permita alimentar su “píldora” de la satisfacción. Es decir, una receta que alimente su manual de buenas prácticas para confiarse como buen trabajador en un futuro próximo.   Me propuse estudiar como estimular el cerebro de este alumnado, con el objetivo de ayudar a mis estudiantes en su futura trayectoria profesional y personal. Es entonces cuando mi interés inicial por el mundo de la creatividad se convierte en objeto de estudio. El modelo estructural de la inteligencia de Guildford me resulta particularmente apto porque a través de este y su columna de aptitudes factoriales denominada “producción divergente” me facilita diseñar un marco práctico de actividades en torno al arte, con el objetivo de incrementar nuestra fluidez y flexibilidad de pensamiento, y recuperar de esta forma la parte creativa dormida. En la comparativa entre los resultados previos y los obtenidos al final del cuatrimestre, puedo destacar que la flexibilidad y la fluidez se ven alteradas de forma positiva...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since the first decade of the 21st century, the Valley of the Fallen has been established as an object of controversy related to the new policies of memory. In recent years the "Historical Memory" has been a recurring concept in the mass media. While it is true that since 2011 this issue has been overshadowed in the political agenda, even today we continue to access information that refers to our recent past, from perspectives that demand actions of ethic, symbolic, political or economic repair. Many of these reports could be framed within a broader discourse, akin to a concept of "historical memory". These media texts are part of a larger problem that is troubling modern western societies and that has presented a remarkable recovery since the late nineties: debates or polemics on memory. In this paper we propose to study the nature of these media texts. We assume that the mass media configure their texts from frameworks or pre-existing frames. For this research, we propose an analysis of content based on the theory of framing to identify what is the typical journalistic discourse and the modalities of interpretive general framework applied in a number of texts and broadcasts about the Valley of the Fallen...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El control de malas hierbas en grandes extensiones de terreno resulta costoso y a veces contaminante desde el punto de vista medioambiental. El avance en los últimos años de los sistemas de control y automatización en agricultura ha favorecido la aparición del concepto de Agricultura de Precisión (AP), para intervenir o actuar sobre el cultivo, en el momento adecuado y en el lugar preciso. La presente tesis se ha desarrollado en el marco de dos proyectos de investigación a nivel nacional y uno europeo. Este último dentro del VII programa Marco de la Unión Europea, cuyo principal objetivo era implementar técnicas de AP de forma más eficiente mediante flotas de robots. En todos ellos, que han involucrado robots, éstos están equipados con sus correspondientes sistemas de Visión Artificial con el fin de identificar la existencia de determinadas texturas de interés con fines de tratamientos específicos o navegación segura de los vehículos, evitando obstáculos u otros elementos existentes en el campo de trabajo. Para la consecución de los objetivos mencionados resulta necesario el análisis de las imágenes procedentes de los campos de cultivo. Estas imágenes están constituidas por diferentes elementos que en su conjunto contienen diferentes tipos de estructuras, tales como: a) plantas verdes alineadas en forma de surcos o dispersas según se trate de cultivo o malas hierbas; b) suelo que constituye el sustrato; c) cielo u otros componentes añadidos. Todos ellos constituyen lo que desde el punto de vista del tratamiento de imágenes se conoce como texturas...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis defiende un enfoque metalingüístico al desarrollo de aplicaciones de procesamiento XML, según el cual estas aplicaciones se conciben como clases particulares de procesadores de lenguaje, se describen utilizando formalismos de especificación de alto nivel orientados a la implementación de lenguajes informáticos, y se generan automáticamente a partir de dichas especificaciones. La tesis comienza realizando un análisis unificado de las propuestas más relevantes al desarrollo dirigido por lenguajes de aplicaciones de procesamiento XML realizadas en el Grupo de Investigación en Ingeniería de Lenguajes Software y Aplicaciones (ILSA) de la Universidad Complutense de Madrid (UCM), tanto aquellas basadas en esquemas de traducción, como aquellas basadas en gramáticas de atributos. Como resultado de este análisis, se identifican las dos principales limitaciones de estas propuestas: (i) no abordar la relación existente entre gramáticas específicas para el procesamiento y gramáticas documentales, y (ii) no abordar adecuadamente la especificación modular de tareas complejas. Una vez identificadas estas limitaciones, la tesis se centra en paliar las mismas...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente trabajo se propone dar solución a uno de los problemas principales surgido en el campo del análisis de imágenes hiperespectrales. En las últimas décadas este campo está siendo muy activo, por lo que es de vital importancia tratar su problema principal: mezcla espectral. Muchos algoritmos han tratado de solucionar este problema, pero que a través de este trabajo se propone una cadena nueva de desmezclado en paralelo, para ser acelerados bajo el paradigma de programación paralela de OpenCl. Este paradigma nos aporta el modelo de programación unificada para acelerar algoritmos en sistemas heterogéneos. Podemos dividir el proceso de desmezclado espectral en tres etapas. La primera tiene la tarea de encontrar el número de píxeles puros, llamaremos endmembers a los píxeles formados por una única firma espectral, utilizaremos el algoritmo conocido como Geometry-based Estimation of number of endmembers, GENE. La segunda etapa se encarga de identificar los píxel endmembers y extraerlos junto con todas sus bandas espectrales, para esta etapa se utilizará el algoritmo conocido por Simplex Growing Algorithm, SGA. En la última etapa se crean los mapas de abundancia para cada uno de los endmembers encontrados, de esta etapa será encargado el algoritmo conocido por, Sum-to-one Constrained Linear Spectral Unmixing, SCLSU. Las plataformas utilizadas en este proyecto han sido tres: CPU, Intel Xeon E5-2695 v3, GPU, NVidia GeForce GTX 980, Acelerador, Intel Xeon Phi 31S1P. La idea de este proyecto se basa en realizar un análisis exhaustivo de los resultados obtenidos en las diferentes plataformas, con el fin de evaluar cuál se ajusta mejor a nuestras necesidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este Trabajo de Fin de Máster se desarrollará un sistema de detección de fraude en pagos con tarjeta de crédito en tiempo real utilizando tecnologías de procesamiento distribuido. Concretamente se considerarán dos tecnologías: TIBCO, un conjunto de herramientas comerciales diseñadas para el procesamiento de eventos complejos, y Apache Spark, un sistema abierto para el procesamiento de datos en tiempo real. Además de implementar el sistema utilizando las dos tecnologías propuestas, un objetivo, otro objetivo de este Trabajo de Fin de Máster consiste en analizar y comparar estos dos sistemas implementados usados para procesamiento en tiempo real. Para la detección de fraude en pagos con tarjeta de crédito se aplicarán técnicas de aprendizaje máquina, concretamente del campo de anomaly/outlier detection. Como fuentes de datos que alimenten los sistemas, haremos uso de tecnologías de colas de mensajes como TIBCO EMS y Kafka. Los datos generados son enviados a estas colas para que los respectivos sistemas puedan procesarlos y aplicar el algoritmo de aprendizaje máquina, determinando si una nueva instancia es fraude o no. Ambos sistemas hacen uso de una base de datos MongoDB para almacenar los datos generados de forma pseudoaleatoria por los generadores de mensajes, correspondientes a movimientos de tarjetas de crédito. Estos movimientos posteriormente serán usados como conjunto de entrenamiento para el algoritmo de aprendizaje máquina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento explica la creación, implementación y uso del proyecto de fin de grado, desarrollado dentro del grupo de investigación ISCAR (Ingeniería de Sistemas, Control, Automática y Robótica) de la Facultad de Informática de la Universidad Complutense. El proyecto consiste en la implementación de una aplicación capaz de clasificar texturas extraídas de distintas imágenes mediante técnicas de visión por computador. Dicha aplicación se divide en tres pilares fundamentales: interfaz gráfica de usuario, algoritmos de extracción de características texturales y aprendizaje supervisado mediante una máquina “SVM” (Support Vector Machine). Interfaz gráfica: proporciona al usuario una forma fácil de uso de la aplicación por medio de la visualización gráfica de una imagen con una serie de elementos de configuración para su posterior análisis. Una vez analizada, el usuario si así lo desea, podrá visualizar los resultados de manera intuitiva, así como guardar dichos resultados después de la ejecución de los algoritmos pertinentes. Algoritmos de análisis de texturas: Procede al cálculo de las configuraciones y las muestras provistas por el usuario en la interfaz gráfica como el cálculo de la matriz de co-ocurrencia y el cálculo de los vectores de características (homogeneidad, media, varianza, Entropía, etc…). SVM: Utiliza los vectores de características obtenidos en los cálculos estadísticos de texturas para realizar el proceso de aprendizaje de un clasificador SVM. La aplicación ha sido construida en JAVA haciendo uso de librerías como JNI_SVM-light-6.01, commons-math3-3.0 y WindowsBuilder, para la construcción de la ventana gráfica, cálculo de los métodos estadísticos y máquina de aprendizaje automático. Dicha aplicación se ha utilizado con el objetivo de identificar y clasificar el quiste de Baker mediante imágenes obtenidas por Resonancias Magnéticas de la rodilla.