923 resultados para Inteligencia economica
Resumo:
DNA microarray, or DNA chip, is a technology that allows us to obtain the expression level of many genes in a single experiment. The fact that numerical expression values can be easily obtained gives us the possibility to use multiple statistical techniques of data analysis. In this project microarray data is obtained from Gene Expression Omnibus, the repository of National Center for Biotechnology Information (NCBI). Then, the noise is removed and data is normalized, also we use hypothesis tests to find the most relevant genes that may be involved in a disease and use machine learning methods like KNN, Random Forest or Kmeans. For performing the analysis we use Bioconductor, packages in R for the analysis of biological data, and we conduct a case study in Alzheimer disease. The complete code can be found in https://github.com/alberto-poncelas/ bioc-alzheimer
Resumo:
En esta tesis de máster se presenta una metodología para el análisis automatizado de las señales del sonar de largo alcance y una aplicación basada en la técnica de reconocimiento óptico de Optical Character Recognition, caracteres (OCR). La primera contribución consiste en el análisis de imágenes de sonar mediante técnicas de procesamiento de imágenes. En este proceso, para cada imagen de sonar se extraen y se analizan las regiones medibles, obteniendo para cada región un conjunto de características. Con la ayuda de los expertos, cada región es identi cada en una clase (atún o no-atún). De este modo, mediante el aprendizaje supervisado se genera la base de datos y, a su vez, se obtiene un modelo de clasi cación. La segunda contribución es una aplicación OCR que reconoce y extrae de las capturas de pantalla de imágenes de sonar, los caracteres alfanuméricos correspondientes a los parámetros de situación (velocidad, rumbo, localización GPS) y la confi guración de sonar (ganancias, inclinación, ancho del haz). El objetivo de este proceso es el de maximizar la e ficiencia en la detección de atún en el Golfo de Vizcaya y dar el primer paso hacia el desarrollo de un índice de abundancia de esta especie, el cual esté basado en el procesamiento automático de las imágenes de sonar grabadas a bordo de la ota pesquera durante su actividad pesquera rutinaria.
Resumo:
La formación de los bomberos es un proceso que incluye contenidos prácticos sobre cómo actuar ante incendios forestales y urbanos. La utilización de simuladores físicos tiene limitaciones impuestas por las condiciones de seguridad requeridas. Realizar prácticas controladas en condiciones reales está también altamente limitado por razones de factibilidad y de seguridad. Por tanto, la utilización de sistemas de entrenamiento de Realidad Virtual tiene especial relevancia.Las aportaciones de esta tesis están centradas en tres aspectos. El primero es el desarrollo de un entorno virtual para la simulación del entrenamiento e bomberos. Los escenarios considerados incluyen entornos forestales urbanos y mixtos. El entorno virtual puede ser accedido por bomberos que asumen distintos roles.El segundo es la generación de los algoritmos necesarios de la propagación y extinción de incendios dentro de los parámetros de interactividad del simulador. Para cumplir estos requisitos, se ha reducido la complejidad algorítmica a los elementos más fundamentales, entre ellos, la pendiente del terreno y la velocidad y dirección del viento. Además, se han añadido diversos efectos que aportan realismo a la propagación del fuego y su extinción: Spotting Fires, evaporación, modelo WaterJet.La definición de los escenarios incluye la clasificación del terreno o uso del suelo, los edificios y las barreras. La reconstrucción de escenarios reales a partir de información existente plantea problemas de heterogeneidad entre las distintas fuentes. La tercera aportación de esta tesis presenta las tecnologías semánticas como herramientas para solucionar los problemas de heterogeneidad de los datos y los distintos roles de los usuarios del sistema.
Resumo:
La única forma que tienen los profesionales de aprender los procedimientos de extinción de incendios y gestión de los recursos es a través de maquetas o simulacros controlados. Este proyecto hace énfasis en la verificación de un conjunto de algoritmos de simulación y propagación de incendios facilitando la validación de los mismos por expertos. Los algoritmos validados se integrarán en un simulador interactivo dirigido al entrenamiento e instrucción del uso de los recursos para la extinción de incendios.
Resumo:
The present thesis is focuses on the problem of Simultaneous Localisation and Mapping (SLAM) using only visual data (VSLAM). This means to concurrently estimate the position of a moving camera and to create a consistent map of the environment. Since implementing a whole VSLAM system is out of the scope of a degree thesis, the main aim is to improve an existing visual SLAM system by complementing the commonly used point features with straight line primitives. This enables more accurate localization in environments with few feature points, like corridors. As a foundation for the project, ScaViSLAM by Strasdat et al. is used, which is a state-of-the-art real-time visual SLAM framework. Since it currently only supports Stereo and RGB-D systems, implementing a Monocular approach will be researched as well as an integration of it as a ROS package in order to deploy it on a mobile robot. For the experimental results, the Care-O-bot service robot developed by Fraunhofer IPA will be used.
Resumo:
Automatización de los recorridos del robot en un sistema de exploración basado en comportamientos. Se muestran los resultados obtenidos en las simulaciones con Player/Stage de un sistema de exploración basado en comportamientos, donde la localización se realiza mediante los estadísticos de INCA.
Resumo:
El proyecto consiste en integrar el control de una marcadora neumática de COUTH en el control de una GT100 de forma que se pueda controlar la máquina completa desde una única interfaz hombre-máquina. Además de esto se ha mejorado la interfaz existente dándole un aspecto renovado y facilitando la navegabilidad. Por último, se optimizaron unas maniobras eléctricas importantes, mejorando así el conjunto de la máquina. Español
Resumo:
La teleoperación o telerobótica es un campo de la robótica que se basa en el control remoto de robots esclavo por parte de un usuario encargado de gobernar, mediante un dispositivo maestro, la fuerza y movimiento del robot. Sobre dicho usuario recaen también las tareas de percepción del entorno, planificación y manipulación compleja. Concretamente se pretende desarrollar el control software necesario para teleoperar un manipulador esclavo, Kuka Lightweigh mediante un dispositivo háptico Phamton Omni, que se comporta como maestro, sin que afecten las diferencias dinámicas y estructurales existentes entre ambos dispositivos, aportando información adicional al operador para facilitar la operación. La principal motivación de la evolución de esta tecnología se debe a la necesidad de realizar trabajos en entornos hostiles, de difícil acceso, o perjudiciales para la salud del usuario.
Resumo:
Proyecto de Fin de Carrera de Ingeniería Técnica en Informática de Sistemas de la Universidad del País Vasco. NavyWar: Capa de Negocio y Datos por Daniel Crego. Director: Germán Rigau. Proyecto conjunto: NavyWar, realizado en colaboración con Adrián Gil (NavyWar: Capa de presentación). Juego desarrollado para dispositivos Android basado en "Hundir la flota". Incluye modos de juego contra inteligencia artificial y para dos jugadores.
Resumo:
Proyecto de Fin de Carrera de Ingeniería Técnica en Informática de Sistemas: NavyWar (Capa de presentación) por Adrián Gil. Director: Germán Rigau. Proyecto conjunto: NavyWar, realizado en colaboración con Daniel Crego (Capa de Negocio y Datos). Juego desarrollado para dispositivos Android basado en "Hundir la flota". Incluye modos de juego contra inteligencia artificial y para dos jugadores.
Resumo:
Proiektu honen helburua hizkuntzaren prozesamendurako tresnek irakaskuntza arloan izan dezaketen erabilgarritasuna aztertzea da. Konkretuki, irakaskuntza materialen sorkuntzan laguntza handia eskaini dezake gaur egun hizkuntzaren prozesamenduak. Ariketak automatikoki prestatzeko sistemak, testu idatzien kalitatea hobetzen laguntzeko sistemak, laburpengintza sistemak... denetarik sortu da azken aldian. Baina, beste hizkuntzetarako buruturiko lana handia den arren euskararako buruturiko lana oso murritza da. Honek bultzatuta, proiektu honetan euskararako ariketak automatikoki sortzeko sistemetan azterketa bat burutuko da, galdera ariketak automatikoki sortzeko zehazki. Galdera hauen helburua ikasleek testuen ulermena lantzea izango da, horretarako testuko alderdi esanguratsuenei buruz galdetzen saiatuko direlarik. Ataza hau burutzeko bi ikerketa lerrotan sakonduko da: Alde batetik, testuko zati esanguratsuenak bilatzen lagunduko duen modulu bat inplementatuko da. Modulu honen helburua testuan agertzen diren termino garrantzitsuenak markatzea eta pisatzea izango da. Termino esanguratsuak bilatuz testuan garrantzitsu diren kontzeptuak zein izan daitezkeen jakin dezakegu. Hau abiapuntu egokia izan daiteke testu baten ulermena lantzen hasteko. Termino hauek markatzeko metodoa probabilitatean oinarriturikoa izango da, hizkuntzaren prozesamenduko alderdi estatistikoa jorratuz. Beste alde batetik, testuan bilaturiko termino garrantzitsuenen inguruan galderak automatikoki eraikiko dituen modulu bat inplementatuko da. Honen helburua esaldi bat eman eta ahalik eta galdera zentzuzko eta zuzenenak sortzea izango da. Honetarako erregeletan oinarrituriko modulu bat inplementatuko da, hizkuntzaren prozesamenduko alderdi linguistikoa jorratuz. Bi modulu hauekin probak burutu ahal izateko euskararako existitzen diren hainbat corpusen azterketa burutuko da. Proiekturako interesgarriak izan daitezkeen corpusak eskuratu eta beharrezko bada corpus berriak biltzeko helburua izango du azterketa honek. Amaitzeko, modulu bakoitzean modu independentean burutuko diren ebaluazioez gain ebaluazio orokor bat ere burutuko da. Bertan bi moduluak elkarrekin lotu eta eszenatoki erreal batean sorturiko aplikazioak izan dezakeen erabilgarritasuna aztertuko da.
Resumo:
El programa desarrollado en el presente Proyecto de Fin de Grado, genera una ciudad a partir de los sistemas denominados L-systems. Es capaz de, definiendo una gramática, crear una red de carreteras que se asemeje a la de las ciudades reales. Una vez creada la red, es posible incluir edifi cios en las parcelas generadas por las diferentes secciones de las carreteras. Para la visualización de la ciudad se utiliza un motor grá fico provisto de las funciones básicas de renderizado: la visualización de objetos 3D, la cámara, texturas, ... Con esas herramientas es posible la visualización de los diferentes estilos de ciudad que se pueden generar mediante el programa.
Resumo:
Jarraian, hainbat hilabetetan zehar garatutako proiektuaren deskribapena biltzen duen memoria dugu eskuragarri. Proiektu hau, sistema konkurrenteen simulazioan zentratzen da eta horretarako, mota honetako sistemen arloan hain erabiliak diren Petri Sareak lantzeaz gain, simulatzaile bat programatzeko informazio nahikoa ere barneratzen ditu. Gertaera diskretuko simulatzaile estatistiko batean oinarrituko da proiektuaren garapena, helburua izanik Petri Sareen bidez formalizatzen diren sistemak simulatzeko softwarea osatzea. Proiektuaren helburua da objektuetara zuzendutako hizkuntzaren bidez, Java hizkuntzaren bidez alegia, simulatzailearen programazioa erraztea eta ingurune honen baliabideak erabiltzea, bereziki XML teknologiari lotutakoak. Proiektu hau, bi zati nagusitan banatzen dela esan daiteke. Lehenengo zatiari dagokionez, konputazio munduan simulazioa aurkeztu eta honi buruzko behar adina informazio emango da. Hau, oso erabilgarria izango da programatuko den simulatzailearen nondik norakoak ulertu eta klase desberdinen inplementazioa egin ahal izateko. Horrez gain, zorizko aldagaiak eta hauen simulazioa ere islatzen dira, simulazio prozesu hori ahalik eta era errealean gauzatzeko helburuarekin. Ondoren, Petri Sareak aurkeztuko dira, hauen ezaugarri eta sailkapen desberdinak goraipatuz. Gainera, Petri Sareak definitzeko XML lengoaia erabiliko denez, mota honetako dokumentu eta eskemak aztertuko dira, hauek, garatuko den aplikazioaren oinarri izango direlarik. Bestalde, aplikazioaren muin izango diren klaseen diseinu eta inplementazioak bildu dira azken aurreko kapituluan. Alde batetik, erabili den DOM egituraren inguruko informazioa islatzen da eta bestetik, XML-tik habiatuz lortuko diren PetriNet instantziak maneiatzeko ezinbestekoak diren Java klaseen kodeak erakusten dira. Amaitzeko, egileak ateratako ondorioez gain, proiektuaren garapen prozesuan erabili den bibliografiaren berri ere ematen da.
Resumo:
El objetivo de este trabajo es estudiar el Desastre del Titanic, utilizando la metodología del Descubrimiento del Conocimiento (KDD). La tesis propone diferentes variantes de cómo aplicar técnicas de Minería de Datos y herramientas del Aprendizaje Automático para predecir de forma eficiente la sobrevivencia de los pasajeros. Con este fin se han adaptado diferentes algoritmos de pre-procesamiento de datos, selección de variables y clasificación, a las características particulares del problema tratado. Algunos de estos algoritmos han sido implementados o sus implementaciones han sido modificadas para el caso específico del problema del Titanic.
Resumo:
311 p. : il.