892 resultados para Sistemas de información ambiental


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La segmentación automática del sistema fluvial con base geomorfológica puede ser una herramienta útil en la restauración de ríos. Tradicionalmente el criterio experto permitía identificar tramos fluviales homogéneos; sin embargo, existen métodos automáticos más objetivos y fiables favorecidos por avances en las técnicas de computación, en las tecnologías de sistemas de información geográfica y en la calidad de la información espacial. Se han aplicado métodos de segmentación automática a respuestas univariantes y multivariantes, basados en técnicas permutacionales y de randomnización multi-respuesta sobre variables geomorfológicas sistemáticamente extraídas con la ayuda de sistemas de información geográfica. Se muestra la utilidad de esta herramienta en distintas fases de un proyecto de restauración, como son: la caracterización del contexto geomorfológico, la diagnosis del efecto de presiones sobre el sistema y la identificación de tramos preferentes para su conservación. Las técnicas descritas se han aplicado al río Porma (Cuenca del Duero, León) regulado desde 1968.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La consolidación de las grandes infraestructuras para la Computación Distribuida ha resultado en una plataforma de Computación de Alta Productividad que está lista para grandes cargas de trabajo. Los mejores exponentes de este proceso son las federaciones grid actuales. Por otro lado, la Computación Cloud promete ser más flexible, utilizable, disponible y simple que la Computación Grid, cubriendo además muchas más necesidades computacionales que las requeridas para llevar a cabo cálculos distribuidos. En cualquier caso, debido al dinamismo y la heterogeneidad presente en grids y clouds, encontrar la asignación ideal de las tareas computacionales en los recursos disponibles es, por definición un problema NP-completo, y sólo se pueden encontrar soluciones subóptimas para estos entornos. Sin embargo, la caracterización de estos recursos en ambos tipos de infraestructuras es deficitaria. Los sistemas de información disponibles no proporcionan datos fiables sobre el estado de los recursos, lo cual no permite la planificación avanzada que necesitan los diferentes tipos de aplicaciones distribuidas. Durante la última década esta cuestión no ha sido resuelta para la Computación Grid y las infraestructuras cloud establecidas recientemente presentan el mismo problema. En este marco, los planificadores (brokers) sólo pueden mejorar la productividad de las ejecuciones largas, pero no proporcionan ninguna estimación de su duración. La planificación compleja ha sido abordada tradicionalmente por otras herramientas como los gestores de flujos de trabajo, los auto-planificadores o los sistemas de gestión de producción pertenecientes a ciertas comunidades de investigación. Sin embargo, el bajo rendimiento obtenido con estos mecanismos de asignación anticipada (early-binding) es notorio. Además, la diversidad en los proveedores cloud, la falta de soporte de herramientas de planificación y de interfaces de programación estandarizadas para distribuir la carga de trabajo, dificultan la portabilidad masiva de aplicaciones legadas a los entornos cloud...

Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Como enfoque global, se ha considerado que en la realización del lenguaje cooperan simultáneamente distintos órganos del cuerpo con sus correspondientes funciones; por tanto, el lenguaje es objeto de análisis desde diversas áreas científicas. Lo que nos ha inducido a abordar en nuestro trabajo algunos detalles significativos de distintos ámbitos de estudio. El objetivo principal ha sido analizar por qué la lectura de las noticias, en los medios audiovisuales, difieren ostensiblemente del lenguaje natural. Esa diferencia es percibida no sólo por la extraña entonación y segmentación errada de unidades fonológicas o sintácticas o por la acentuación impropia de palabras átonas, sino también por las diferentes características en los parámetros de la fonación. Para ello era preciso conocer los más importantes mecanismos del lenguaje espontáneo y, a partir de ese conocimiento, examinar qué elementos sufren alteración o desaparecen en el acto de la lectura con respecto al habla natural. La lectura es un acto en el que no intervienen los mecanismos biológicos innatos del ser humano, habitualmente presentes en el habla. En el habla, el pensamiento genera la palabra. Sin embargo, en la lectura, la palabra está ya escrita y por tanto no hay un proceso simultaneo con el pensamiento. Además, el mensaje que recibe el lector a través del grafismo y de los formatos en que se inscriben, constituye un elemento diferenciador del proceso natural. Los indicadores que recibe el lector son: elemento plano del papel y elemento lineal sin curvas de la escritura; formas que se transmiten instintivamente en la fonación. Y aunque en la lectura intervienen los órganos de fonación, no así otros muchos componentes de la movilidad corporal del habla como los brazos, las manos y los músculos del rostro, que son los que dirigen el sentido de la entonación y del ritmo...

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los deslizamientos de ladera son un problema importante en la región de los valles interandinos de Bolivia. Este estudio analiza la susceptibilidad o predisposición al movimiento de ladera de los municipios de Guanay, Teoponte y Tipuani, situados en el departamento de La Paz, Bolivia. La metodología aplicada es la Analityc Hierarchy/Network Process, o método AHP. Tras su aplicación en un Sistema de Información Geográfica, este método, devuelve valores de susceptibilidad bastante fiables. Las conclusiones que se extraen de este análisis ponen de relieve la necesidad de realizar estudios de detalle en algunas zonas de los tres municipios al haber lugares con una Muy Alta y Alta susceptibilidad al movimiento de ladera, que, además, interfieren con zonas pobladas y con caminos y carreteras principales que son importantes para la articulación social de la región.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La historia clínica electrónica se ha convertido actualmente en el elemento fundamental de los sistemas de documentación clínica. Con el paso de los años se han producido grandes avances en las tecnologías de los sistemas de información electrónica que han mejorado la capacidad de almacenamiento, de procesamiento y de representación de la información clínica. Sin embargo, uno de los principales problemas de registro electrónico sigue siendo mejorar la eficiencia de estos sistemas a la hora de introducir los datos de salud de los pacientes. Este trabajo pretende comparar la eficiencia de estos sistemas en la gestión diaria de una consulta monográfica de Suelo Pélvico en un Servicio de Medicina Física y Rehabilitación...

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este artículo presentamos COMPENDIUM, una herramienta de generación de resúmenes de textos modular. Esta herramienta se compone de un módulo central con cinco etapas bien diferenciadas: i) análisis lingüístico; ii) detección de redundancia; iii) identificación del tópico; iv) detección de relevancia; y v) generación del resumen, y una serie de módulos adicionales que permiten incrementar las funcionalidades de la herramienta permitiendo la generación de distintos tipos de resúmenes, como por ejemplo orientados a un tema concreto. Realizamos una evaluación exhaustiva en dos dominios distintos (noticias de prensa y documentos sobre lugares turísticos) y analizamos diferentes tipos de resúmenes generados con COMPENDIUM (mono-documento, multi-documento, genéricos y orientados a un tema). Además, comparamos nuestro sistema con otros sistemas de generación de resúmenes actuales. Los resultados que se obtienen demuestran que la herramienta COMPENDIUM es capaz de generar resúmenes competitivos para los distintos tipos de resúmenes propuestos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El análisis de textos de la Web 2.0 es un tema de investigación relevante hoy en día. Sin embargo, son muchos los problemas que se plantean a la hora de utilizar las herramientas actuales en este tipo de textos. Para ser capaces de medir estas dificultades primero necesitamos conocer los diferentes registros o grados de informalidad que podemos encontrar. Por ello, en este trabajo intentaremos caracterizar niveles de informalidad para textos en inglés en la Web 2.0 mediante técnicas de aprendizaje automático no supervisado, obteniendo resultados del 68 % en F1.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper we present the enrichment of the Integration of Semantic Resources based in WordNet (ISR-WN Enriched). This new proposal improves the previous one where several semantic resources such as SUMO, WordNet Domains and WordNet Affects were related, adding other semantic resources such as Semantic Classes and SentiWordNet. Firstly, the paper describes the architecture of this proposal explaining the particularities of each integrated resource. After that, we analyze some problems related to the mappings of different versions and how we solve them. Moreover, we show the advantages that this kind of tool can provide to different applications of Natural Language Processing. Related to that question, we can demonstrate that the integration of semantic resources allows acquiring a multidimensional vision in the analysis of natural language.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El proyecto Araknion tiene como objetivo general dotar al español y al catalán de una infraestructura básica de recursos lingüísticos para el procesamiento semántico de corpus en el marco de la Web 2.0 sean de origen oral o escrito.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo general de este proyecto se centra en el estudio, desarrollo y experimentación de diferentes técnicas y sistemas basados en Tecnologías del Lenguaje Humano (TLH) para el desarrollo de la próxima generación de sistemas de procesamiento inteligente de la información digital (modelado, recuperación, tratamiento, comprensión y descubrimiento) afrontando los actuales retos de la comunicación digital. En este nuevo escenario, los sistemas deben incorporar capacidades de razonamiento que descubrirán la subjetividad de la información en todos sus contextos (espacial, temporal y emocional) analizando las diferentes dimensiones de uso (multilingualidad, multimodalidad y registro).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Proyecto emergente centrado en la detección e interpretación de metáforas con métodos no supervisados. Se presenta la caracterización del problema metafórico en Procesamiento del Lenguaje Natural, los fundamentos teóricos del proyecto y los primeros resultados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tesis doctoral con mención europea en procesamiento del lenguaje natural realizada en la Universidad de Alicante por Ester Boldrini bajo la dirección del Dr. Patricio Martínez-Barco. El acto de defensa de la tesis tuvo lugar en la Universidad de Alicante el 23 de enero de 2012 ante el tribunal formado por los doctores Manuel Palomar (Universidad de Alicante), Dr. Paloma Moreda (UA), Dr. Mariona Taulé (Universidad de Barcelona), Dr. Horacio Saggion (Universitat Pompeu Fabra) y Dr. Mike Thelwall (University of Wolverhampton). Calificación: Sobresaliente Cum Laude por unanimidad.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper outlines the approach adopted by the PLSI research group at University of Alicante in the PASCAL-2006 second Recognising Textual Entailment challenge. Our system is composed of several components. On the one hand, the first component performs the derivation of the logic forms of the text/hypothesis pairs and, on the other hand, the second component provides us with a similarity score given by the semantic relations between the derived logic forms. In order to obtain this score we apply several measures of similitude and relatedness based on the structure and content of WordNet.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The present is marked by the availability of large volumes of heterogeneous data, whose management is extremely complex. While the treatment of factual data has been widely studied, the processing of subjective information still poses important challenges. This is especially true in tasks that combine Opinion Analysis with other challenges, such as the ones related to Question Answering. In this paper, we describe the different approaches we employed in the NTCIR 8 MOAT monolingual English (opinionatedness, relevance, answerness and polarity) and cross-lingual English-Chinese tasks, implemented in our OpAL system. The results obtained when using different settings of the system, as well as the error analysis performed after the competition, offered us some clear insights on the best combination of techniques, that balance between precision and recall. Contrary to our initial intuitions, we have also seen that the inclusion of specialized Natural Language Processing tools dealing with Temporality or Anaphora Resolution lowers the system performance, while the use of topic detection techniques using faceted search with Wikipedia and Latent Semantic Analysis leads to satisfactory system performance, both for the monolingual setting, as well as in a multilingual one.