885 resultados para Sistema de extracción de información


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Se presenta a los docentes la estructura y contenidos de la Ley que regula el sistema educativo, así como información a los padres y a los alumnos sobre las diferentes opciones, alternativas e itinerarios académicos, todo ello fundamentado en la normativa legal emanada del Ministerio de Educación y Cultura, con el objeto de permitir un acercamiento a la Ley de Ordenación General del Sistema Educativo (LOGSE) por parte de todos los miembros de la comunidad educativa. Se expone de forma esquemática la organización general de los centros educativos, con las competencias que corresponden a cada uno de los diferentes órganos de los mismos; de igual forma se presenta la estructura de las diversas etapas educativas, de Infantil a Bachillerato; se desarrollan algunos de los aspectos del currículo de las diversas etapas: atención a la diversidad, integración, sistema de evaluación, orientación y tutoría, etc.; la información sobre las enseñanzas de régimen general se cierra con el capítulo dedicado a la formación profesional; el siguiente se dedica a las enseñanzas de régimen especial: enseñanzas artísticas y enseñanzas de idiomas, etc; a continuación se abordan los estudios a distancia y la educación de personas adultas y, finalmente, se expone la normativa para la prueba de acceso a la Universidad y los diversos caminos de acceso a los estudios universitarios.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La calidad de energía eléctrica incluye la calidad del suministro y la calidad de la atención al cliente. La calidad del suministro a su vez se considera que la conforman dos partes, la forma de onda y la continuidad. En esta tesis se aborda la continuidad del suministro a través de la localización de faltas. Este problema se encuentra relativamente resuelto en los sistemas de transmisión, donde por las características homogéneas de la línea, la medición en ambos terminales y la disponibilidad de diversos equipos, se puede localizar el sitio de falta con una precisión relativamente alta. En sistemas de distribución, sin embargo, la localización de faltas es un problema complejo y aún no resuelto. La complejidad es debida principalmente a la presencia de conductores no homogéneos, cargas intermedias, derivaciones laterales y desbalances en el sistema y la carga. Además, normalmente, en estos sistemas sólo se cuenta con medidas en la subestación, y un modelo simplificado del circuito. Los principales esfuerzos en la localización han estado orientados al desarrollo de métodos que utilicen el fundamental de la tensión y de la corriente en la subestación, para estimar la reactancia hasta la falta. Como la obtención de la reactancia permite cuantificar la distancia al sitio de falta a partir del uso del modelo, el Método se considera Basado en el Modelo (MBM). Sin embargo, algunas de sus desventajas están asociadas a la necesidad de un buen modelo del sistema y a la posibilidad de localizar varios sitios donde puede haber ocurrido la falta, esto es, se puede presentar múltiple estimación del sitio de falta. Como aporte, en esta tesis se presenta un análisis y prueba comparativa entre varios de los MBM frecuentemente referenciados. Adicionalmente se complementa la solución con métodos que utilizan otro tipo de información, como la obtenida de las bases históricas de faltas con registros de tensión y corriente medidos en la subestación (no se limita solamente al fundamental). Como herramienta de extracción de información de estos registros, se utilizan y prueban dos técnicas de clasificación (LAMDA y SVM). Éstas relacionan las características obtenidas de la señal, con la zona bajo falta y se denominan en este documento como Métodos de Clasificación Basados en el Conocimiento (MCBC). La información que usan los MCBC se obtiene de los registros de tensión y de corriente medidos en la subestación de distribución, antes, durante y después de la falta. Los registros se procesan para obtener los siguientes descriptores: a) la magnitud de la variación de tensión ( dV ), b) la variación de la magnitud de corriente ( dI ), c) la variación de la potencia ( dS ), d) la reactancia de falta ( Xf ), e) la frecuencia del transitorio ( f ), y f) el valor propio máximo de la matriz de correlación de corrientes (Sv), cada uno de los cuales ha sido seleccionado por facilitar la localización de la falta. A partir de estos descriptores, se proponen diferentes conjuntos de entrenamiento y validación de los MCBC, y mediante una metodología que muestra la posibilidad de hallar relaciones entre estos conjuntos y las zonas en las cuales se presenta la falta, se seleccionan los de mejor comportamiento. Los resultados de aplicación, demuestran que con la combinación de los MCBC con los MBM, se puede reducir el problema de la múltiple estimación del sitio de falta. El MCBC determina la zona de falta, mientras que el MBM encuentra la distancia desde el punto de medida hasta la falta, la integración en un esquema híbrido toma las mejores características de cada método. En este documento, lo que se conoce como híbrido es la combinación de los MBM y los MCBC, de una forma complementaria. Finalmente y para comprobar los aportes de esta tesis, se propone y prueba un esquema de integración híbrida para localización de faltas en dos sistemas de distribución diferentes. Tanto los métodos que usan los parámetros del sistema y se fundamentan en la estimación de la impedancia (MBM), como aquellos que usan como información los descriptores y se fundamentan en técnicas de clasificación (MCBC), muestran su validez para resolver el problema de localización de faltas. Ambas metodologías propuestas tienen ventajas y desventajas, pero según la teoría de integración de métodos presentada, se alcanza una alta complementariedad, que permite la formulación de híbridos que mejoran los resultados, reduciendo o evitando el problema de la múltiple estimación de la falta.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo de este proyecto es la continuación del desarrollo de una plataforma web bajo el sistema WebRTC que, integrada en el ámbito académico, proporcionase un servicio en tiempo real de compartición de información tanto a alumnos como a profesores. Entre esta información posible a compartir, además de mensajes y la propia videollamada que resulta la base de la plataforma, se pueden compartir explicaciones en una pizarra, videos o presentaciones que ayuden en la interacción entre los integrantes de la plataforma. Mientras que la base de la plataforma se encontraba implementada, el sistema no resultaba útil y funcional en dicho estado debido a la multitud de errores y fallos que ocurrían durante su funcionamiento en el sistema de intercambio de información entre los módulos que componen el sistema. Por ello, el objetivo de este trabajo es introducirse en esas capas, rediseñar dicho sistema de intercambio de información entre los diferentes actores que forman parte de la plataforma e implementarlo, logrando así un producto usable para un potencial cliente a partir de este punto y abierto a futuras mejores partiendo de este estado. Para ello además de la tecnología WebRTC, se han incluido funcionalidades con Javascript, Node.JS, jQuery o Socket.IO entre otras APIs. A partir de este sistema y de estas tecnologías, un profesor puede crear un aula virtual, seleccionar los derechos que les proporciona a sus alumnos en la misma y realizar una clase por dicha plataforma sin apenas diferencia a una presencial. Pero no se limita sólo a eso, sino que pueden realizarse tutorías, debates o reuniones entre compañeros de departamento para preparar asignaturas o exámenes. Lo cual genera multitud de posibilidades, no sólo en el ámbito académico, sino fuera de él, para reuniones en empresas, cursos online… En definitiva, con la base de funcionalidades ya implementada previamente y la adición del objetivo de este trabajo de fin de grado que finaliza esas funcionalidades y rediseña e implementa el sistema de intercambio de información para que la plataforma sea 100% usable sin los problemas que el usuario se podía encontrar anteriormente, se obtiene una plataforma con un gran potencial académico con la que los usuarios, bajo la base de la videollamada, podrán encontrar un ambiente de compartición de información como si estuviesen en el mismo lugar físico.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Parte de la investigación biomédica actual se encuentra centrada en el análisis de datos heterogéneos. Estos datos pueden tener distinto origen, estructura, y semántica. Gran cantidad de datos de interés para los investigadores se encuentran en bases de datos públicas, que recogen información de distintas fuentes y la ponen a disposición de la comunidad de forma gratuita. Para homogeneizar estas fuentes de datos públicas con otras de origen privado, existen diversas herramientas y técnicas que permiten automatizar los procesos de homogeneización de datos heterogéneos. El Grupo de Informática Biomédica (GIB) [1] de la Universidad Politécnica de Madrid colabora en el proyecto europeo P-medicine [2], cuya finalidad reside en el desarrollo de una infraestructura que facilite la evolución de los procedimientos médicos actuales hacia la medicina personalizada. Una de las tareas enmarcadas en el proyecto P-medicine que tiene asignado el grupo consiste en elaborar herramientas que ayuden a usuarios en el proceso de integración de datos contenidos en fuentes de información heterogéneas. Algunas de estas fuentes de información son bases de datos públicas de ámbito biomédico contenidas en la plataforma NCBI [3] (National Center for Biotechnology Information). Una de las herramientas que el grupo desarrolla para integrar fuentes de datos es Ontology Annotator. En una de sus fases, la labor del usuario consiste en recuperar información de una base de datos pública y seleccionar de forma manual los resultados relevantes. Para automatizar el proceso de búsqueda y selección de resultados relevantes, por un lado existe un gran interés en conseguir generar consultas que guíen hacia resultados lo más precisos y exactos como sea posible, por otro lado, existe un gran interés en extraer información relevante de elevadas cantidades de documentos, lo cual requiere de sistemas que analicen y ponderen los datos que caracterizan a los mismos. En el campo informático de la inteligencia artificial, dentro de la rama de la recuperación de la información, existen diversos estudios acerca de la expansión de consultas a partir de retroalimentación relevante que podrían ser de gran utilidad para dar solución a la cuestión. Estos estudios se centran en técnicas para reformular o expandir la consulta inicial utilizando como realimentación los resultados que en una primera instancia fueron relevantes para el usuario, de forma que el nuevo conjunto de resultados tenga mayor proximidad con los que el usuario realmente desea. El objetivo de este trabajo de fin de grado consiste en el estudio, implementación y experimentación de métodos que automaticen el proceso de extracción de información trascendente de documentos, utilizándola para expandir o reformular consultas. De esta forma se pretende mejorar la precisión y el ranking de los resultados asociados. Dichos métodos serán integrados en la herramienta Ontology Annotator y enfocados a la fuente de datos de PubMed [4].---ABSTRACT---Part of the current biomedical research is focused on the analysis of heterogeneous data. These data may have different origin, structure and semantics. A big quantity of interesting data is contained in public databases which gather information from different sources and make it open and free to be used by the community. In order to homogenize thise sources of public data with others which origin is private, there are some tools and techniques that allow automating the processes of integration heterogeneous data. The biomedical informatics group of the Universidad Politécnica de Madrid cooperates with the European project P-medicine which main purpose is to create an infrastructure and models to facilitate the transition from current medical practice to personalized medicine. One of the tasks of the project that the group is in charge of consists on the development of tools that will help users in the process of integrating data from diverse sources. Some of the sources are biomedical public data bases from the NCBI platform (National Center for Biotechnology Information). One of the tools in which the group is currently working on for the integration of data sources is called the Ontology Annotator. In this tool there is a phase in which the user has to retrieve information from a public data base and select the relevant data contained in it manually. For automating the process of searching and selecting data on the one hand, there is an interest in automatically generating queries that guide towards the more precise results as possible. On the other hand, there is an interest on retrieve relevant information from large quantities of documents. The solution requires systems that analyze and weigh the data allowing the localization of the relevant items. In the computer science field of the artificial intelligence, in the branch of information retrieval there are diverse studies about the query expansion from relevance feedback that could be used to solve the problem. The main purpose of this studies is to obtain a set of results that is the closer as possible to the information that the user really wants to retrieve. In order to reach this purpose different techniques are used to reformulate or expand the initial query using a feedback the results that where relevant for the user, with this method, the new set of results will have more proximity with the ones that the user really desires. The goal of this final dissertation project consists on the study, implementation and experimentation of methods that automate the process of extraction of relevant information from documents using this information to expand queries. This way, the precision and the ranking of the results associated will be improved. These methods will be integrated in the Ontology Annotator tool and will focus on the PubMed data source.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Comunicación presentada en las IV Jornadas TIMM, Torres (Jaén), 7-8 abril 2011.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los métodos para Extracción de Información basados en la Supervisión a Distancia se basan en usar tuplas correctas para adquirir menciones de esas tuplas, y así entrenar un sistema tradicional de extracción de información supervisado. En este artículo analizamos las fuentes de ruido en las menciones, y exploramos métodos sencillos para filtrar menciones ruidosas. Los resultados demuestran que combinando el filtrado de tuplas por frecuencia, la información mutua y la eliminación de menciones lejos de los centroides de sus respectivas etiquetas mejora los resultados de dos modelos de extracción de información significativamente.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Existe una cantidad enorme de información en Internet acerca de incontables temas, y cada día esta información se expande más y más. En teoría, los programas informáticos podrían beneficiarse de esta gran cantidad de información disponible para establecer nuevas conexiones entre conceptos, pero esta información a menudo aparece en formatos no estructurados como texto en lenguaje natural. Por esta razón, es muy importante conseguir obtener automáticamente información de fuentes de diferentes tipos, procesarla, filtrarla y enriquecerla, para lograr maximizar el conocimiento que podemos obtener de Internet. Este proyecto consta de dos partes diferentes. En la primera se explora el filtrado de información. La entrada del sistema consiste en una serie de tripletas proporcionadas por la Universidad de Coimbra (ellos obtuvieron las tripletas mediante un proceso de extracción de información a partir de texto en lenguaje natural). Sin embargo, debido a la complejidad de la tarea de extracción, algunas de las tripletas son de dudosa calidad y necesitan pasar por un proceso de filtrado. Dadas estas tripletas acerca de un tema concreto, la entrada será estudiada para averiguar qué información es relevante al tema y qué información debe ser descartada. Para ello, la entrada será comparada con una fuente de conocimiento online. En la segunda parte de este proyecto, se explora el enriquecimiento de información. Se emplean diferentes fuentes de texto online escritas en lenguaje natural (en inglés) y se extrae información de ellas que pueda ser relevante al tema especificado. Algunas de estas fuentes de conocimiento están escritas en inglés común, y otras están escritas en inglés simple, un subconjunto controlado del lenguaje que consta de vocabulario reducido y estructuras sintácticas más simples. Se estudia cómo esto afecta a la calidad de las tripletas extraídas, y si la información obtenida de fuentes escritas en inglés simple es de una calidad superior a aquella extraída de fuentes en inglés común.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La organización del conocimiento en el contexto de las Ciencias de la Información tiene como esencia la información y el conocimiento debidamente documentado o registrado. La organización del conocimiento como proceso, envuelve tanto la descripción física como de los contenidos de los objetos informacionales. Y el producto de ese proceso descriptivo es la representación de los atributos de un objeto o conjunto de objetos. Las representaciones son construidas por lenguajes elaborados específicamente para los objetivos de la organización en los sistemas de información. Lenguajes que se subdividen en lenguajes que describen el documento (el soporte físico del objeto) y lenguajes que describen la información (los contenidos).A partir de esta premisa la siguiente investigación tiene como objetivo general analizarlos sistemas de Gestión de Información y Conocimiento Institucional principalmente los que proponen utilizar el Currículum Vitae del profesor como única fuente de información, medición y representación de la información y el conocimiento de una organización. Dentro delos principales resultados se muestra la importancia de usar el currículo personal como fuente de información confiable y normalizada; una síntesis de los principales sistemas curriculares que existen a nivel internacional y regional; así como el gráfico del modelo de datos del caso de estudio; y por último, la propuesta del uso de las ontologías como principal herramienta para la organización semántica de la información en un sistema de gestión de información y conocimiento.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Hoy en día la cantidad de información de la que el mundo dispone es inmensa y la gran mayoría está al alcance de un click gracias a las tecnologías de la información. Muchos de los recursos que existen en Internet están escritos a mano por personas y para personas, pero este hecho tiene muchas limitaciones, como el idioma, el contenido, las expresiones en la comunicación o la disposición de la información en el texto. Todos estos factores influyen en el lector permitiendo entender mejor o peor los conceptos, relaciones e ideas que se expresan. Un ejemplo de un recurso muy utilizado a día de hoy es Wikipedia, que cuenta con más de cinco millones de artículos en inglés y más de un millón en otros doce idiomas entre los cuales se encuentran el castellano, el francés y el alemán. Por otro lado, existen otros recursos que aportan información de otras formas más interesantes desde el punto de vista de la informática, como pueden ser ConceptNet o WordNet. Las ventajas que ofrecen este tipo de recursos son que no disponen de varios lenguajes, es decir el conocimiento está unificado en uno solo, no tienen estructura de texto y se puede automatizar más fácilmente la inserción de nueva información, lo que se traduce en un crecimiento más rápido del conocimiento. Este tipo de recursos son ideales para su uso en aplicaciones informáticas gracias a que no es necesario un proceso de extracción de información de la fuente. Sin embargo, este tipo de información no está pensada para la lectura por parte de un humano, ya que se enfrentaría a muchos datos de golpe y sin un orden lógico para la comprensión, además de carecer de la conjugación propia o traducción a un idioma concreto. Este trabajo tiene como objetivo principal partir de un recurso de información no legible ni manejable por humanos e ideado para el uso por computadoras, y dar lugar a una interpretación de esta información que permita la lectura y comprensión en lenguaje natural por personas. Podemos verlo como un trabajo que posibilita y facilita el entendimiento Máquina-Hombre. Para ello se hace uso de un sistema de generación de lenguaje natural, inteligencia artificial y de la creatividad computacional. Además, este trabajo forma parte de un proyecto mayor, del que hablaremos en la sección 2.5, en el que se generan nuevos conceptos a partir de otros. El papel que desempeña esta aplicación permite describir los nuevos conceptos generados y poder entenderlos. A la hora de abordar el problema de la generación de texto podemos encontrar varias formas de atacar la cuestión, y todas las soluciones se pueden considerar como válidas. Se implementarán sistemas de diferente complejidad y naturaleza, como generadores básicos de textos o generadores con planificación y otras soluciones comunes en este campo como el uso de plantillas y el estudio de las propiedades de los textos generados por los humanos. Por esta razón, en este trabajo se desarrollarán varios métodos y se valorarán según ciertos criterios como la claridad del texto, su organización, o si se ha hecho un buen uso de la gramática o la ortografía. Como objetivos secundarios de este proyecto podemos remarcar la generación de un servicio web que permita que esté disponible la aplicación para su uso, y aporte valor tanto al mundo de la investigación como al del conocimiento. También se valora la semejanza a los generados por humanos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La presente investigación está orientada a un Modelo de Sistema de Control Interno Orientado a Resultados en la Municipalidad de Santo Domingo, Departamento de San Vicente para el Período 2012 – 2015, con el objeto de contribuir en los aspectos metodológicos y técnicos; donde la creación de herramientas administrativas, políticas, guías y lineamientos ayudará al control interno para obtener los mejores resultados orientados todos en beneficio de las comunidades que conforman este importante Municipio, así mismo se apoyará al uso más eficiente de los recursos y mejorar servicios en la Municipalidad, los cuales se deberán transformar en obras económicas y sociales. Para recolectar la información, se tomó un enfoque de diagnóstico en los cinco componentes del Control Interno detallados posteriormente; a su vez, fueron utilizadas diferentes técnicas como la observación directa, la encuesta, que fue dirigida a los Empleados Administrativos y Miembros del Concejo en la Municipalidad y la entrevista que se dirigió a la Alcaldesa de la Municipalidad, todos éstos, con el propósito de identificar y conocer las deficiencias y discrepancias en la Municipalidad dando como resultado las siguientes conclusiones: Ambiente de Control: Los Manuales que se utilizan en la Municipalidad, el Concejo Municipal no les ha dado la respectiva revisión y actualización ya que debe de ser cada año y la última fecha que se realizó es el año 2009; asimismo las Normas Técnicas de Control Interno de la Municipalidad cada dos años se revisan y actualizan lo cual se realizó en el año 2007. Valoración de Riesgos: Se observa la carencia de señalización adecuada, salidas de emergencia y carteles en lugares visibles, asimismo se observó la inexistencia de un botiquín que esté disponible en caso de emergencia dentro de la Alcaldía. Actividades de Control: La documentación de los expedientes de los proyectos que se realizan se encuentra incompleta. Información y Comunicación: Falta de un sistema de comunicación e información que esté plasmado en un documento formal y que esté bien definido con sus respectivas políticas, instrucciones, medios, y sobre todo que sea correctamente divulgado en todas las áreas de la Municipalidad. Monitoreo: Las evaluaciones de desempeño que se realizan al personal de la Municipalidad no se han llevado a cabo en los períodos establecidos. No se realizan reuniones periódicas con el personal. Realizado el diagnóstico, con la finalidad de mejorar el desempeño de las actividades concernientes al Control Interno en la Municipalidad se hace necesario el diseño de un Modelo que comprende los siguientes documentos: Manual de Organización Manual de Descripción de Cargos Manual de Procedimientos Guía para la Prevención de Riesgos en el Lugar de Trabajo Procedimiento: Guardar Documentación en Expediente de Proyectos Políticas de Comunicación y Lineamientos para Presentar Informes Manual de Evaluación del Desempeño Programación de la Evaluación de Desempeño Indicadores Financieros para la Evaluación Municipal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[EU]Proiektu honen helburua, Makina eta Motor Termiko sailean dagoen aire girotu, aireztatze eta berogailu sistema elikatzen duen makinaren analisi bat egitea da. Makina behar duen bezala lan egiten duen eta bulegoetan airearen kalitatea bermatzen baden ikusiko dugu. Hortaz, testu honek aurreko egoerak betetzen diren edo ez argituko du eta ezezko kasua izatekotan funtzionamendu normalera bueltatzeko aukerak proposatuko dira. Horretarako neurketak bai bulegoetan egingo dira eta baita makinan ere. Datu hauek (tenperatuak, emariak, hezetasuna, eta abar…) Excel horri batean gordeko dira gero taulak lortzeko eta errazago identifikatzeko non dauden arazoak. Lana hurrengo eran egituratu da: Sistemaren sarrera eta deskribapena. Neurketak egiteko metodologia eta sistemaren analisia. Konklusioak, informazio iturriak eta eranskinak.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el presente trabajo de fin de grado, se va analizar e interpretar la generación de los residuos sólidos para el periodo 2004-2011, siendo la finalidad de este trabajo, evidenciar si se cumple la hipótesis de la curva de Kuznets para los residuos sólidos en Bizkaia para el año 2005 y conocer en qué fase de la U invertida se encuentra Bizkaia. Los datos utilizados son provenientes de Udalmap. Udalmap es un sistema integrado que contiene información socio-económicos. El resultado obtenido fue, que no existe evidencia que se cumpla la hipótesis curva de Kuznets Ambiental (CKA), después de analizar la variable dependiente, junto con las variables explicativas PIB per cápita, número de establecimientos de minoristas, número de contenedores de residuos domésticos, vidrio, papel y ropa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta guía pretende ser un instrumento para todas las personas interesadas y que de una u otra manera conforman la comunidad educativa; en ella se han incluido todas las formaciones que existen en la ciudad, las ayudas que pueden obtenerse, así como la relación de servicios complementarios y de apoyo a la educación que pueden encontrarse. La guía se organiza en once apartados en los que se van desgranando cuestiones que afectan al sistema educativo: LOGSE, la educación de personas adultas, la universidad, la admisión en los centros, las ayudas y subvenciones, los servicios municipales para la comunidad educativa o la participación. De forma descriptiva se va desglosando además, información sobre la admisión en centros sostenidos por fondos públicos, los servicios de información y asesoramiento, las formas de participación en la comunidad educativa y un amplio directorio.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

SAGA (System for Automated Geographic Analysis) es un SIG libre con capacidades para el manejo y análisis de información tanto vectorial como ráster, con un especial enfoque en esta última. Asimismo, es su enfoque analítico el que constituye su característica más destacable, siendo una herramienta de primer orden para la extracción de información a partir de todo tipo de capas de datos georeferenciados. (...)