999 resultados para Geração automática de hardware
Resumo:
La sociedad moderna se enfrenta diariamente a una avalancha de información de crecimiento exponencial, debida a la generación constante de nuevas fuentes de información que la producen de forma muchas veces automática y, por tanto, a un ritmo capaz de desbordar a cualquier individuo. Este crecimiento de la información generada hace necesario un aumento de la capacidad de filtrado y asimilación para afrontar la avalancha, seleccionar y aprovechar de ella lo necesario. Los objetivos de este trabajo son estudiar las arquitecturas existentes con vistas a crear un agente inteligente capaz de integrarse en ellas de forma eficaz; facilitar la intercomunicabilidad de sistemas aunque utilicen distintos códigos de representación de los objetos docentes que intercambian; ofrecer una capa de abstracción superior con funcionalidades comunes disponibles para todos los sistemas que cubran las necesidades de comunicación; basar la propuesta en estándares reconocidos y sólidos; estudiar un modelo de nomenclatura para la especificación de las acciones a realizar por el agente en las diversas situaciones que se presenten y para nombrar e identificar las diferentes entidades participativas en todo el proceso, así como sus relaciones. Para conseguir estos objetivos se realiza un repaso al estado del arte en dos áreas principales, los sistemas de teleformación y los agentes inteligentes.. El método de trabajo tiene los siguientes pasos: desarrollo detallado y concreto del objetivo del que se obtendrán las necesidades a cubrir a partir de los elementos actuales para alcanzar dicho objetivo; análisis Particularizado y Profundo de los componentes tecnológicos implicados, adaptados al objetivo, y las necesidades a cubrir con estos componentes; LMS y arquitecturas que deben ser interconectadas. Este estudio será vital para establecer las necesidades y posibilidades. 99 estándares de intercomunicación de LMS, sobre los que se realizará la abstracción a un nivel. Agentes, encargados de la intercomunicación y soporte de la arquitectura que habilitará a los LMS para la interconexión. Enunciado y justificación de la propuesta. En su forma definitiva tras el desarrollo y aplicación de los componentes. Estudio de Viabilidad de la propuesta que llevará a decidir si es factible su implantación y, de no serlo, que habría de cambiar en los sistemas para que lo fuera..
Resumo:
Esta investigación propone un modelo computacional de lectura que elabora una representación de la semántica de un texto como resultado de un proceso en el tiempo. Dicha representación posee una estructura que permite la descripción de las relaciones entre los conceptos leídos y su nivel de significado en cada momento del proceso de lectura.. En este trabajo se presenta el sistema SILC, Sistema de Indexación Mediante Lectura Cognitiva. Éste intenta simular, en parte, procesos cognitivos de alto nivel que operan en el tiempo. En primer lugar, construye una red de asociación conceptual como una memoria lingüística base a partir de una colección de textos que representan el espacio de conocimiento semántico. A continuación genera representaciones de los textos de entrada como redes de conceptos con niveles de activación, que recogen el nivel de significación semántica de los mismos. Para ello, este modelo utiliza el conocimiento semántico lingüístico, previamente construido, y realiza inferencias sobre el mismo mediante la propagación por la red de la activación de los conceptos leídos secuencialmente. La representación generada se emplea posteriormente para indexar documentos para clasificarlos automáticamente. Se realizan experimentos para comparar el modelo con sujetos humanos, tanto durante la lectura, mediante la predicción o inferencia de conceptos, como al final de la misma, mediante la comparación con resúmenes generados por los sujetos.. Los resultados muestran que el sistema es adecuado para modelar de manera aproximada el proceder humano en la lectura y confirman la hipótesis de partida de SILC que considera que se realizan mejor las tareas prácticas del lenguaje cuanto más se asemeje el sistema a los seres humanos. También se demuestra que el sistema es adecuado como marco experimental de validación de hipótesis relacionadas con aspectos cognitivos de la lectura. En otros experimentos de aplicación práctica se observa que, una vez que se optimizan sus parámetros, el modelo de lectura implementado hace a SILC adecuado para su aplicación a tareas reales de procesamiento de lenguaje natural..
Resumo:
Los juegos crean un entorno seguro en el que practicar y aprender habilidades necesarias en la vida. Los videojuegos pueden servir como primer paso hacia la alfabetización digital. Los primeros juegos de arcade mejoran la coordinación ojo-mano, además de aumentar la agilidad mental o la creatividad.. Las mejoras del hardware incrementan la complejidad de los videojuegos, circunstancia que despierta el interés de educadores deseosos de aprovechar esta capacidad de motivación de los videojuegos para enseñar dominios más específicos, aprovechando el enriquecimiento del lenguaje que logrado por el medio. En la enseñanza de estos dominios más complejos, el modelo de aprendizaje por descubrimiento existente en los videojuegos muestra sus debilidades. Es necesario un apoyo por parte del propio sistema para guiar al estudiante. El área de la enseñanza asistida por ordenador facilita varias soluciones a este problema, aunque tienden a requerir un gran esfuerzo de autoría, de contenido o de conocimiento. En esta investigación se propone el uso del razonamiento basado en casos intensivos en conocimiento. Los casos, contenido, hacen referencia a ontologías, representaciones explícitas de conocimiento, lo que proporciona las ventajas de ambos. Los casos permiten enfrentarse con cualquier dominio de conocimiento, y la representación de éste posibilita reaprovechar una parte del esfuerzo de autoría e incluso generar fragmentos de las soluciones de forma automática.. Se demuestra que este modelo encaja perfectamente en el ciclo habitual de interacción de los videojuegos, por lo que es posible integrarlo en software de entretenimiento para aprovechar la motivación que produce en los usuarios..
Resumo:
Los juegos permiten practicar y aprender habilidades necesarias a lo largo de la vida. Los videojuegos pueden, de la misma forma, servir a la alfabetización digital. Los juegos de arcade mejoran la coordinación entre la visión y la mano y favorecen la agilidad mental o la creatividad.. Las mejoras experimentadas por hardware permiten videojuegos más complejos que despiertan el interés de educadores para aprovecharlos como instrumentos para motivar la enseñanza de dominios de conocimiento más específicos, gracias el enriquecimiento del lenguaje experimentado en este medio. Sin embargo, el modelo de aprendizaje por descubrimiento de los videojuegos también muestra debilidades en la enseñanza de dominios más complejos y hace necesario apoyo por parte del sistema para guiar al estudiante. La enseñanza asistida por ordenador proporciona soluciones a este problema, aunque éstas suelen requerir un gran esfuerzo de autoría, bien de contenido, bien de conocimiento. En esta investigación se propone una alternativa mixta: el uso del razonamiento intensivo en conocimiento basado en casos (contenidos). Los casos hacen referencia a las ontologías que son representaciones del conocimiento. Los casos pueden ser empleados en cualquier dominio del saber, y las ontologías permiten reaprovechar parte del esfuerzo de autoría, e incluso generar de forma automática fragmentos de las soluciones.. En esta tesis se demuestra que modelo analizado encaja perfectamente en el ciclo de interacción de los videojuegos, por lo que resulta plausible integrarlo en software de entretenimiento para aprovechar la motivación que éste produce en los usuarios con fines formativos..
Resumo:
Notas al final
Resumo:
El Mecanismo Semántico aplicado a la documentación automática, es un esquema matemático que unifica diferentes aspectos del Reconocimiento de Formas, Lenguajes Formales y Diagnóstico Automático. Sin embargo se presenta sólo el Mecanismo proyectado en su aplicación al problema de la Clasificación e Interpretación Automática de Documentos. Se señalan las causas de esta delimitación. Por otro lado se tratan los siguientes puntos: en primer lugar se presenta un modelo para un posterior desarrollo, que introduce la noción de proyectividad de una manera natural en el concepto de diccionario, fundamental en la Lingüística matemática. En segundo lugar se analiza el teorema 2.10, de gran interés en cuestiones relacionadas con los algoritmos paralelos. En este mismo punto se define un modelo aplicable a diversos modelos analíticos lingüísticos. En tercer lugar se presenta un modelo que contiene, como caso particular, el algoritmo de Ferrari. Y por último se aplica el mecanismo a la clasificación de los documentos, previa interpretación de los conceptos.
Resumo:
Análisis de la problemática en torno a la producción automática de resúmenes de textos y artículos. Pese a los adelantos en tecnologías de la información, la producción de abstractos de alta calidad todavía tiene que hacerse manualmente. Esto representa un alto coste para numerosas empresas como editoriales. Como alternativas a la producción manual de abstractos tenemos el que los abstractos sean preparados por los propios autores como prerrequisitos a la publicación de sus artículos, o mecanizar su producción. Se describe una técnica nueva para producir automáticamente resúmenes. Primero se repasan las funciones de un resumen, que son: anunciamiento, filtrado, sustitución, y búsqueda retrospectiva. Posteriormente se realiza una tipología de resúmenes: indicativo, informativo, crítico y extractos. Además, los abstractos que producimos automáticamente se caracterizan por: una dimensión aproximada del 10 por 100 del original; se utiliza en el abstracto la misma terminología del original, es decir, producimos extractos con la misma fraseología escrita por el autor; se procura excluir en el extracto datos numéricos, expresiones cardinales o sentencias de un valor indefinido; y se evita incluir en el extracto observaciones preliminares, citaciones, notas al pie de página etc. Se analizan algunos de los métodos empleados para la producción de textos automáticamente, como el método de colocación, el método de sugestión, el método de titulación, las referencias intercruzadas de frases, los criterios de frecuencia y la existencia de un diccionario previo con términos.
Resumo:
Monográfico con el título: 'Avances tecnológicos digitales en metodologías de innovación docente en el campo de las Ciencias de la Salud en España'. Resumen basado en el de la publicación
Resumo:
Contiene : 1-Grupo de automática industrial y telemática : memoria final, 2- Un disquete y 3- Apuntes básicos sobre DELPHI (este dossier de lenguaje de programación ha sido realizado individualmente por uno de los profesores). Premio a la Innovación Educativa, 1996-97. Anexo Memoria en C-Innov. 93
Resumo:
Aquest text pretén ser una guia útil per als estudiants dels Graus en Enginyeria Mecànica, en Enginyeria electrònica Industrial i Automàtica, i en Enginyeria Elèctrica. El document s’estructura en vuit temes organitzats en tres blocs. El primer bloc és una introducció a les propietats magnètiques dels materials i les seves aplicacions. El segon bloc versa sobre les propietats elèctriques dels materials i, finalment, el tercer bloc és una breu descripció de la superconductivitat. Per a cada tema s’estableixen les competències específiques que s’han d’assolir, es desenvolupen de forma esquemàtica els continguts i s’adjunten exemples resolts de problemes. Al final de cada tema s’inclou un resum dels continguts i al final de cada bloc una col·lecció de qüestions i problemes. Aquests apunts pretenen ser una breu recopilació dels continguts bàsics de l’assignatura. Al final dels apunts, trobareu una bibliografia recomanada per tal de desenvolupar exhaustivament la matèria
Resumo:
Presentació sobre la creació de la placa Arduino, i els projectes que s'han fet arreu amb aquesta placa
Resumo:
Aquest treball proposa una nova arquitectura de control amb coordinació distribuïda per a un robot mòbil (ARMADiCo). La metodologia de coordinació distribuïda consisteix en dos passos: el primer determina quin és l'agent que guanya el recurs basat en el càlcul privat de la utilitat i el segon, com es fa el canvi del recurs per evitar comportaments abruptes del robot. Aquesta arquitectura ha estat concebuda per facilitar la introducció de nous components hardware i software, definint un patró de disseny d'agents que captura les característiques comunes dels agents. Aquest patró ha portat al desenvolupament d'una arquitectura modular dins l'agent que permet la separació dels diferents mètodes utilitzats per aconseguir els objectius, la col·laboració, la competició i la coordinació de recursos. ARMADiCo s'ha provat en un robot Pioneer 2DX de MobileRobots Inc.. S'han fet diversos experiments i els resultats han demostrat que s'han aconseguit les característiques proposades per l'arquitectura.
Resumo:
La enseñanza y evaluación automática a través de un sistema Computer Based Assessment (CBA) requiere de software especializado que se adapte a la tipología de actividades a tratar y evaluar. En esta tesis se ha desarrollado un entorno CBA que facilita el aprendizaje y evaluación de los principales temas de una asignatura de bases de datos. Para ello se han analizado las herramientas existentes en cada uno de estos temas (Diagramas Entidad/Relación, diagramas de clases, esquemas de bases de datos relacionales, normalización, consultas en álgebra relacional y lenguaje SQL) y para cada uno de ellos se ha analizado, diseñado e implementado un módulo de corrección y evaluación automática que aporta mejoras respecto a los existentes. Estos módulos se han integrado en un mismo entorno al que hemos llamado ACME-DB.
Resumo:
Aquesta tesi tracta del disseny, implementació i discussió d'algoritmes per resoldre problemes de visibilitat i bona-visibilitat utilitzant el hardware gràfic de l'ordinador. Concretament, s'obté una discretització dels mapes de multi-visibilitat i bona-visibilitat a partir d'un conjunt d'objectes de visió i un conjunt d'obstacles. Aquests algoritmes són útils tant per fer càlculs en dues dimensions com en tres dimensions. Fins i tot ens permeten calcular-los sobre terrenys.
Resumo:
En aquesta tesi es solucionen problemes de visibilitat i proximitat sobre superfícies triangulades considerant elements generalitzats. Com a elements generalitzats considerem: punts, segments, poligonals i polígons. Les estrategies que proposem utilitzen algoritmes de geometria computacional i hardware gràfic. Comencem tractant els problemes de visibilitat sobre models de terrenys triangulats considerant un conjunt d'elements de visió generalitzats. Es presenten dos mètodes per obtenir, de forma aproximada, mapes de multi-visibilitat. Un mapa de multi-visibilitat és la subdivisió del domini del terreny que codifica la visibilitat d'acord amb diferents criteris. El primer mètode, de difícil implementació, utilitza informació de visibilitat exacte per reconstruir de forma aproximada el mapa de multi-visibilitat. El segon, que va acompanyat de resultats d'implementació, obté informació de visibilitat aproximada per calcular i visualitzar mapes de multi-visibilitat discrets mitjançant hardware gràfic. Com a aplicacions es resolen problemes de multi-visibilitat entre regions i es responen preguntes sobre la multi-visibilitat d'un punt o d'una regió. A continuació tractem els problemes de proximitat sobre superfícies polièdriques triangulades considerant seus generalitzades. Es presenten dos mètodes, amb resultats d'implementació, per calcular distàncies des de seus generalitzades sobre superfícies polièdriques on hi poden haver obstacles generalitzats. El primer mètode calcula, de forma exacte, les distàncies definides pels camins més curts des de les seus als punts del poliedre. El segon mètode calcula, de forma aproximada, distàncies considerant els camins més curts sobre superfícies polièdriques amb pesos. Com a aplicacions, es calculen diagrames de Voronoi d'ordre k, i es resolen, de forma aproximada, alguns problemes de localització de serveis. També es proporciona un estudi teòric sobre la complexitat dels diagrames de Voronoi d'ordre k d'un conjunt de seus generalitzades en un poliedre sense pesos.