885 resultados para PROYECTOS DE INVESTIGACIÓN – PROCESAMIENTO DE DATOS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este estudio se analiza la producción científica en agricultura y cambio climático en América Latina y el Caribe, a partir de información derivada de la base de datos bibliométrica Scopus, durante el período 1990-2012. SU principal objetivo es incluir en las agendas de investigación y desarrollo e innovación agrícola temas vinculados con la identificación de las mejores alternativas en el sector agrícola para la adaptación al cambio climático, para la reducción de gases de efecto invernadero y para la captura de estos. A partir de estadísticas descriptivas se presentan comparaciones con la producción científica global en agricultura y en agricultura y cambio climático, se analizan tendencias globales y regionales en los volúmenes de producción, así como en materia de colaboración y de multidisciplinariedad. Y utilizando técnicas de análisis de redes se examinan tendencias en colaboración y multidisciplinariedad a nivel subregional (Región Sur, Mesoamérica y Región Andina) y para el agregado regional, a partir de una base de datos creada específicamente para dicho propósito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Selección y lectura de material bibliográfico: con respecto a esta actividad se puede decir que la misma acompañó - y acompaña todo el proceso de trabajo. La particularidad para el desarrollo de la misma estuvo dada en la prioridad establecida por el equipo de trabajo en cuanto a los términos o palabras claves sobre las cuales se profundizaría la lectura para la posterior elaboración conceptual que guiaría el trabajo. Se consideraron las siguientes: Familia, Ciudadanía y Participación; completándose en un segundo momento Proyecto Político y Políticas Sociales; Recopilación documental: dada la continuidad en la línea de investigación presentada tercera etapa de la misma - se retomaron las fuentes documentales de tipo secundarias consideradas desde la primera de ellas, lo que implicó una revisión rigurosa de: archivos públicos, programas y proyectos, circulares, notas, memorándum; junto a las producciones logradas en las investigaciones que antecedieron a la presente. Dicha revisión se centró puntualmente en la primera dimensión enunciada en el Proyecto que remite a las Políticas Sociales de Familia contemplando para ello: por un lado el tipo de cobertura y por el otro las formas de participación previstas en ellas, la relación establecida tanto para con la población objeto como con el tipo de cobertura; Diseño de la muestra: como se desprende del ítem anterior, los criterios estipulados para iniciar la tarea tuvieron que ver con la selección de las dimensiones a trabajar durante el primer año del proyecto, dándose prioridad a la que viabilizaba la tarea desde las fuentes secundarias de información. Manteniéndose la vinculación con áreas de pertenencia: salud, educación, vivienda, etc. Manteniéndose la lógica de estructuración dada a lo largo de la investigación; Procesamiento de la información: el tratamiento de la misma se efectuó mediante el agrupamiento de los datos a partir de considerar: agenda pública provincial por períodos de años, áreas, líneas de políticas, beneficiarios; Elaboración del Informe de avance: del mismo participaron los integrantes del equipo de trabajo, a partir de la selección de un área de gobierno específica y sus respectivas políticas sociales de familia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Cumbre Mundial de la Sociedad de la Información y el Conocimiento (Ginebra 2003/Túnez 2005) establece que, entre otros importantes puntos, en el documento final firmado por más de 190 presidentes de los cinco continentes el derecho a la información, no sólo en lo que se refiere al acceso sino también el derecho a expresarse libremente. Por otro lado asume la necesidad de desarrollar infraestructuras, políticas públicas y de estado que aseguren los beneficios del desarrollo tecnológico, no sólo dentro de los limites del mercado sino también en educación y cultura. La necesidad de abordar el desarrollo y crecimiento de las TICs y la posibilidad de acortar la brecha tecnológica, como un paso más para acortar la brecha económica y social en todo el mundo, es un desafío que no sólo deben asumir los gobiernos o tecnólogos pro o contra el avance tecnológico, sino también docentes, investigadores y la sociedad en general. Asumir algunas tecnologías como nuevos medios de comunicación, narrativas multimediales y lenguajes integrados en un único soporte y permitirá no sólo reflexionar sobre las TICs en forma particular sino también pensarlas como una herramienta útil para promover nuevas y necesarias reflexiones con una participación amplia; asegurando el pluralismo y la democratización de la información que estas tecnologías han publicitado desde su lanzamiento, pero que sólo a través de programas de investigación y desarrollo de gobiernos, universidades y Sociedad Civil podrán ser realidad. El presente proyecto, se relaciona en forma directa con la investigación anterior de este grupo: “Medios Audiovisuales en Soporte Telemáticos para la Educación. Cine, Video y TV: Estampas de la Crisis"; profundizando en esta etapa las formas de divulgación del mismo y sobre todo generando una reflexión sobre el papel de las TICs en nuestra sociedad actual y definiendo estrategias que mejoren el acceso y la producción de información en forma masiva, plural, democrática y con altos niveles de participación ciudadana. El proyecto se enmarca en el tipo de actividad orientada al desarrollo experimental. Su objetivo es el relevamiento teórico, la producción audiovisual digital y la difusión masiva por redes y medios telemáticos de la problemática cotidiana social y cultural con que se expresa la crisis que vive nuestro país, región y provincia, con el fin de plasmar imágenes y contenidos de gran perdurabilidad por su registro digital, orientados a la generación de espacios para la reflexión y el replanteo teórico crítico acerca de lo que nos sucedió y sucede, sobre todo dentro de espacios educativos, culturales y de la Sociedad Civil, con el fin de aportar ideas, escenarios posibles y proyectos a la Sociedad y el momento que nos toca vivir. Ser parte de una hipótesis que remite al mundo de las imágenes y al desarrollo de las TICs como modo de registro y difusión esencial para testimoniar y reflexionar sobre la crisis actual y el papel progresista y democratizador que pueden jugar las nuevas tecnologías en la promoción de espacios físicos y virtuales para el reforzamiento de la ciudadanía plena. La metodología se establece a través de tres momentos diferentes: 1- Relevamiento teórico, a través de encuestas cuanti-cualitativas, entrevistas, análisis de casos y seguimiento de la información económica, política, social y cultural de los últimos años. 2- El tratamiento de la información audiovisual, en soportes digitales, seguirá los pasos metodológicos propios del proceso de pre-producción, producción y post-producción específico de una realización audiovisual. 3- La difusión a través de redes y medios telemáticos de los productos obtenidos y el seguimiento de los procesos dinámicos (sincrónicos y asincrónicos) de participación, intercambio de ideas, reflexiones y propuestas a través de internet y sus herramientas (foros y chats), videoconferencias, aulas virtuales, etc. Como resultado final, se espera obtener un conjunto de producciones en soportes digitales on y off-line con el fin de promover escenarios de debate, reflexión y propuestas dentro de ámbitos educativos (polimodal y superior) ONGs., OSC y espacios públicos y privados. Para la consecución de su objetivo, metodología y resultado la Universidad Nacional de Cuyo y la Facultad de Ciencias Políticas y Sociales, cuentan como centro de desarrollo e investigación en TICs con el Centro de Información (CICUNC), uno de los proyectos institucionales más importantes y adelantados tecnológicamente para la comunicación y la educación en el contexto de las Universidades Nacionales y uno de los centros tecnológicos y de producción de contenidos más avanzado del país y de América Latina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo presenta las actividades realizadas por el denominado Grupo Métricas encargado del desarrollo de uno de los objetivos específicos del proyecto Investigación y Desarrollo en Repositorios Institucionales: aplicaciones y experiencias en universidades de la región bonaerense (PICTO-2010-0149 - 2012/2013). Dicho objetivo contempla el estudio y análisis de métricas de uso de objetos digitales en Repositorios Institucionales para la definición de un marco de referencia que pueda aplicarse en el contexto nacional. Se resumen aquí los principales resultados obtenidos detallando, en primer término, las conclusiones a las que se arribó luego de realizar el relevamiento de iniciativas y proyectos internacionales. Luego, se describe el conjunto de indicadores básicos a ser calculados y su agrupación por grado de complejidad. En tercer término, se explicitan las principales decisiones que se tomaron en torno al desarrollo de un aplicativo de recolección y procesamiento de datos de uso, y se justifica la definición de los requerimientos que se realizó. Finalmente, se concluye con las perspectivas que este tipo de proyectos demandará en el futuro

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo presenta las actividades realizadas por el denominado Grupo Métricas encargado del desarrollo de uno de los objetivos específicos del proyecto Investigación y Desarrollo en Repositorios Institucionales: aplicaciones y experiencias en universidades de la región bonaerense (PICTO-2010-0149 - 2012/2013). Dicho objetivo contempla el estudio y análisis de métricas de uso de objetos digitales en Repositorios Institucionales para la definición de un marco de referencia que pueda aplicarse en el contexto nacional. Se resumen aquí los principales resultados obtenidos detallando, en primer término, las conclusiones a las que se arribó luego de realizar el relevamiento de iniciativas y proyectos internacionales. Luego, se describe el conjunto de indicadores básicos a ser calculados y su agrupación por grado de complejidad. En tercer término, se explicitan las principales decisiones que se tomaron en torno al desarrollo de un aplicativo de recolección y procesamiento de datos de uso, y se justifica la definición de los requerimientos que se realizó. Finalmente, se concluye con las perspectivas que este tipo de proyectos demandará en el futuro

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo presenta las actividades realizadas por el denominado Grupo Métricas encargado del desarrollo de uno de los objetivos específicos del proyecto Investigación y Desarrollo en Repositorios Institucionales: aplicaciones y experiencias en universidades de la región bonaerense (PICTO-2010-0149 - 2012/2013). Dicho objetivo contempla el estudio y análisis de métricas de uso de objetos digitales en Repositorios Institucionales para la definición de un marco de referencia que pueda aplicarse en el contexto nacional. Se resumen aquí los principales resultados obtenidos detallando, en primer término, las conclusiones a las que se arribó luego de realizar el relevamiento de iniciativas y proyectos internacionales. Luego, se describe el conjunto de indicadores básicos a ser calculados y su agrupación por grado de complejidad. En tercer término, se explicitan las principales decisiones que se tomaron en torno al desarrollo de un aplicativo de recolección y procesamiento de datos de uso, y se justifica la definición de los requerimientos que se realizó. Finalmente, se concluye con las perspectivas que este tipo de proyectos demandará en el futuro

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La determinación del origen de un material utilizado por el hombre en la prehistoria es de suma importancia en el ámbito de la arqueología. En los últimos años, los estudios de procedencia han utilizado técnicas que suelen ser muy precisas pero con el inconveniente de ser metodologías de carácter destructivo. El fenómeno de la minería a gran escala es una de las características que acompaña al Neolítico, de ahí que la revolución correspondiente a este periodo sea una de las etapas más importantes para la humanidad. El yacimiento arqueológico de Casa Montero es una mina de sílex neolítica ubicada en la Península Ibérica, de gran importancia por su antigüedad y su escala productiva. Este sitio arqueológico corresponde a una cantera de explotación de rocas silícicas desarrollada en el periodo neolítico en la que solamente se han encontrado los desechos de la extracción minera, lo cual incrementa la variabilidad de las muestras analizadas, de las que se desconoce su contexto económico, social y cultural. Es de gran interés arqueológico saber por qué esos grupos neolíticos explotaban de forma tan intensiva determinados tipos de material y cuál era el destino de la cadena productiva del sílex. Además, por ser una excavación de rescate, que ha tenido que procesar varias toneladas de material, en un tiempo relativamente corto, requiere de métodos expeditivos de clasificación y manejo de dicho material. Sin embargo,la implementación de cualquier método de clasificación debe evitar la alteración o modificación de la muestra,ya que,estudios previos sobre caracterización de rocas silícicas tienen el inconveniente de alterar parcialmente el objeto de estudio. Por lo que el objetivo de esta investigación fue la modelización del registro y procesamiento de datos espectrales adquiridos de rocas silícicas del yacimiento arqueológico de Casa Montero. Se implementó la metodología para el registro y procesamiento de datos espectrales de materiales líticos dentro del contexto arqueológico. Lo anterior se ha conseguido con la aplicación de modelos de análisis espectral, algoritmos de suavizado de firmas espectrales, reducción de la dimensionalidad de las características y la aplicación de métodos de clasificación, tanto de carácter vectorial como raster. Para la mayoría de los procedimientos se ha desarrollado una aplicación informática validada tanto por los propios resultados obtenidos como comparativamente con otras aplicaciones. Los ensayos de evaluación de la metodología propuesta han permitido comprobar la eficacia de los métodos. Por lo que se concluye que la metodología propuesta no solo es útil para materiales silícicos, sino que se puede generalizar en aquellos procesos donde la caracterización espectral puede ser relevante para la clasificación de materiales que no deban ser alterados, además, permite aplicarla a gran escala, dado que los costes de ejecución son mínimos si se comparan con los de métodos convencionales. Así mismo, es de destacar que los métodos propuestos, representan la variabilidad del material y permiten relacionarla con el estado del yacimiento, según su contenido respecto de las tipologías de la cadena operativa. ABSTRACT: The determination of the origin of a material used by man in prehistory is very important in the field of archaeology. In recent years the provenance studies have used techniques that tend to be very precise but with the drawback of being destructive methodologies. The phenomenon of mining on a large scale is a feature that accompanies the Neolithic period; the Neolithic revolution is one of the most important periods of humanity. The archaeological site of Casa Montero is a Neolithic flint mine located in the Iberian Peninsula of great importance for its antiquity and its scale. This archaeological site corresponds to a quarry exploitation of silicic rocks developed in the Neolithic period, in which only found debris from mining, which increases the variability of the samples analyzed, including their economic, social and cultural context is unknown. It is of great archaeological interest to know why these Neolithic groups exploited as intensive certain types of material and what the final destination of flint was in the productive chain. In addition, being an excavation of rescue that had to process several tons of material in a relatively short time requires expeditious methods of classification and handling of the material. However, the implementation of any method of classification should avoid the alteration or modification of the sample, since previous studies on characterization of silicic rocks have the disadvantage of destroying or partially modify the object of study. So the objective of this research wasthe modeling of the registration and processing of acquired spectral data of silicic rocks of the archaeological site of Casa Montero. The methodology implemented for modeling the registration and processing of existing spectral data of lithic materials within the archaeological context, was presented as an alternative to the conventional classification methods (methods destructive and expensive) or subjective methods that depend on the experience of the expert. The above has been achieved with the implementation of spectral analysis models, smoothing of spectral signatures and the dimensionality reduction algorithms. Trials of validation of the proposed methodology allowed testing the effectiveness of the methods in what refers to the spectral characterization of siliceous materials of Casa Montero. Is remarkable the algorithmic contribution of the signal filtering, improve of quality and reduction of the dimensionality, as well the proposal of using raster structures for efficient storage and analysis of spectral information. For which it is concluded that the proposed methodology is not only useful for siliceous materials, but it can be generalized in those processes where spectral characterization may be relevant to the classification of materials that must not be altered, also allows to apply it on a large scale, given that the implementation costs are minimal when compared with conventional methods.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los avances en el hardware permiten disponer de grandes volúmenes de datos, surgiendo aplicaciones que deben suministrar información en tiempo cuasi-real, la monitorización de pacientes, ej., el seguimiento sanitario de las conducciones de agua, etc. Las necesidades de estas aplicaciones hacen emerger el modelo de flujo de datos (data streaming) frente al modelo almacenar-para-despuésprocesar (store-then-process). Mientras que en el modelo store-then-process, los datos son almacenados para ser posteriormente consultados; en los sistemas de streaming, los datos son procesados a su llegada al sistema, produciendo respuestas continuas sin llegar a almacenarse. Esta nueva visión impone desafíos para el procesamiento de datos al vuelo: 1) las respuestas deben producirse de manera continua cada vez que nuevos datos llegan al sistema; 2) los datos son accedidos solo una vez y, generalmente, no son almacenados en su totalidad; y 3) el tiempo de procesamiento por dato para producir una respuesta debe ser bajo. Aunque existen dos modelos para el cómputo de respuestas continuas, el modelo evolutivo y el de ventana deslizante; éste segundo se ajusta mejor en ciertas aplicaciones al considerar únicamente los datos recibidos más recientemente, en lugar de todo el histórico de datos. En los últimos años, la minería de datos en streaming se ha centrado en el modelo evolutivo. Mientras que, en el modelo de ventana deslizante, el trabajo presentado es más reducido ya que estos algoritmos no sólo deben de ser incrementales si no que deben borrar la información que caduca por el deslizamiento de la ventana manteniendo los anteriores tres desafíos. Una de las tareas fundamentales en minería de datos es la búsqueda de agrupaciones donde, dado un conjunto de datos, el objetivo es encontrar grupos representativos, de manera que se tenga una descripción sintética del conjunto. Estas agrupaciones son fundamentales en aplicaciones como la detección de intrusos en la red o la segmentación de clientes en el marketing y la publicidad. Debido a las cantidades masivas de datos que deben procesarse en este tipo de aplicaciones (millones de eventos por segundo), las soluciones centralizadas puede ser incapaz de hacer frente a las restricciones de tiempo de procesamiento, por lo que deben recurrir a descartar datos durante los picos de carga. Para evitar esta perdida de datos, se impone el procesamiento distribuido de streams, en concreto, los algoritmos de agrupamiento deben ser adaptados para este tipo de entornos, en los que los datos están distribuidos. En streaming, la investigación no solo se centra en el diseño para tareas generales, como la agrupación, sino también en la búsqueda de nuevos enfoques que se adapten mejor a escenarios particulares. Como ejemplo, un mecanismo de agrupación ad-hoc resulta ser más adecuado para la defensa contra la denegación de servicio distribuida (Distributed Denial of Services, DDoS) que el problema tradicional de k-medias. En esta tesis se pretende contribuir en el problema agrupamiento en streaming tanto en entornos centralizados y distribuidos. Hemos diseñado un algoritmo centralizado de clustering mostrando las capacidades para descubrir agrupaciones de alta calidad en bajo tiempo frente a otras soluciones del estado del arte, en una amplia evaluación. Además, se ha trabajado sobre una estructura que reduce notablemente el espacio de memoria necesario, controlando, en todo momento, el error de los cómputos. Nuestro trabajo también proporciona dos protocolos de distribución del cómputo de agrupaciones. Se han analizado dos características fundamentales: el impacto sobre la calidad del clustering al realizar el cómputo distribuido y las condiciones necesarias para la reducción del tiempo de procesamiento frente a la solución centralizada. Finalmente, hemos desarrollado un entorno para la detección de ataques DDoS basado en agrupaciones. En este último caso, se ha caracterizado el tipo de ataques detectados y se ha desarrollado una evaluación sobre la eficiencia y eficacia de la mitigación del impacto del ataque. ABSTRACT Advances in hardware allow to collect huge volumes of data emerging applications that must provide information in near-real time, e.g., patient monitoring, health monitoring of water pipes, etc. The data streaming model emerges to comply with these applications overcoming the traditional store-then-process model. With the store-then-process model, data is stored before being consulted; while, in streaming, data are processed on the fly producing continuous responses. The challenges of streaming for processing data on the fly are the following: 1) responses must be produced continuously whenever new data arrives in the system; 2) data is accessed only once and is generally not maintained in its entirety, and 3) data processing time to produce a response should be low. Two models exist to compute continuous responses: the evolving model and the sliding window model; the latter fits best with applications must be computed over the most recently data rather than all the previous data. In recent years, research in the context of data stream mining has focused mainly on the evolving model. In the sliding window model, the work presented is smaller since these algorithms must be incremental and they must delete the information which expires when the window slides. Clustering is one of the fundamental techniques of data mining and is used to analyze data sets in order to find representative groups that provide a concise description of the data being processed. Clustering is critical in applications such as network intrusion detection or customer segmentation in marketing and advertising. Due to the huge amount of data that must be processed by such applications (up to millions of events per second), centralized solutions are usually unable to cope with timing restrictions and recur to shedding techniques where data is discarded during load peaks. To avoid discarding of data, processing of streams (such as clustering) must be distributed and adapted to environments where information is distributed. In streaming, research does not only focus on designing for general tasks, such as clustering, but also in finding new approaches that fit bests with particular scenarios. As an example, an ad-hoc grouping mechanism turns out to be more adequate than k-means for defense against Distributed Denial of Service (DDoS). This thesis contributes to the data stream mining clustering technique both for centralized and distributed environments. We present a centralized clustering algorithm showing capabilities to discover clusters of high quality in low time and we provide a comparison with existing state of the art solutions. We have worked on a data structure that significantly reduces memory requirements while controlling the error of the clusters statistics. We also provide two distributed clustering protocols. We focus on the analysis of two key features: the impact on the clustering quality when computation is distributed and the requirements for reducing the processing time compared to the centralized solution. Finally, with respect to ad-hoc grouping techniques, we have developed a DDoS detection framework based on clustering.We have characterized the attacks detected and we have evaluated the efficiency and effectiveness of mitigating the attack impact.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) one of the large mammals most commonly hit by vehicles on the Spanish road network and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we describe Fénix, a data model for exchanging information between Natural Language Processing applications. The format proposed is intended to be flexible enough to cover both current and future data structures employed in the field of Computational Linguistics. The Fénix architecture is divided into four separate layers: conceptual, logical, persistence and physical. This division provides a simple interface to abstract the users from low-level implementation details, such as programming languages and data storage employed, allowing them to focus in the concepts and processes to be modelled. The Fénix architecture is accompanied by a set of programming libraries to facilitate the access and manipulation of the structures created in this framework. We will also show how this architecture has been already successfully applied in different research projects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo se plantea y se analiza la posibilidad de aplicar un modelo de evaluación formativa a través de un aprendizaje basado en proyectos en asignaturas con una elevada asignación de créditos prácticos, de los nuevos grados de las universidades. Este modelo se basa en el desarrollo de proyectos de investigación tutelados y la evaluación continua de los estudiantes, los cuales deberían desarrollar tanto competencias específicas de la disciplina, como competencias genéricas orientadas a su inserción profesional en el mercado laboral. Con el modelo de evaluación formativa a través de un aprendizaje basado en proyectos que se realizar en este trabajo, un estudiante ha desarrollado, a lo largo de una asignatura práctica de laboratorio, la cual tiene un número considerable de horas dentro del laboratorio (al menos 3 créditos CTS), un “proyecto” determinado con unos objetivos muy concretos que suponen el desarrollo de diversas competencias. Con el término “proyecto”, se incluye una serie de actividades coordinadas e interconectadas, de carácter tanto teórico como práctico, con unos objetivos específicos, que pretenden potenciar el aprendizaje de conocimiento y habilidades en el estudiante, de forma que resulte de gran ayuda en su desarrollo, realización personal, y en su futuro profesional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La TV Digital ha tenido en estos últimos años una gran expansión en todo el mundo (en algunos países ya se está implementando el "apagón analógico", luego del cual toda transmisión televisiva será digital) y con una creciente cobertura en toda Latinoamérica debido a las políticas activas que en los últimos años han llevado a cabo los gobiernos (por ejemplo, el sistema de TDA Televisión Digital Abierta de Argentina tiene una cobertura actual superior al 80% de la población). Esta expansión se debe a que esta tecnología permite no sólo una mejor calidad de imagen sino también una experiencia de usuario-televidente mucho más rica gracias a que el sistema puede transmitir y procesar datos, además del video y el sonido, y permite interacciones más complejas que la TV tradicional o analógica. Sin embargo, y a pesar de su alcance cada vez más masivo, las grandes ventajas de la TV Digital no están siendo aún explotadas en todo su potencial. Esto se debe, según los estudios realizados, a dos razones principales: (1) no se ha encontrado aún un modelo de negocios superador de la TV tradicional que aproveche la interacción del usuario-televidente (el cual, generalmente por desconocimiento, tampoco exige mayor complejidad y riqueza en su interacción con la TV) y (2) no hay suficientes recursos humanos adecuadamente formados que puedan desarrollar productos que exploten la compleja interacción entre el producto de TV (serie, unitario, película, documental) y el software (que permite el procesamiento de los datos y la interacción con el usuario-televidente) para generar producciones innovadoras en el campo televisivo. El Centro Tecnológico Comunitario de la Municipalidad de Nono (CTC Nono) nos ha solicitado ser recipiente de actividades de extensión que apunten a subsanar específicamente esta segunda causa, la falta de recursos humanos que puedan apropiarse de esta tecnología. A diferencia de muchos otros Centros Tecnológicos Comunitarios, el CTC Nono pudo continuar funcionando durante estos 14 años gracias a la capacidad de sus dirigentes de adaptar permanentemente sus objetivos y su forma de funcionamiento. EL CTC Nono, como tal, comenzó siendo un centro de alfabetización informática y de acceso popular a los servicios TIC básicos, para llegar a ser hoy un activo centro generador de programas de TV regional por un lado y de desarrollos de software por otro. Sin embargo, la característica principal que ha permanecido inmutable a lo largo de estos años es la de ser un centro de atracción, contención y aprendizaje abierto para todos los vecinos con inquietudes productivas y artísticas. Es por ello que, concientes de la enorme potencialidad y alcance de la TV Digital, es que el CTC Nono realiza esta demanda de transferencia que implica proveer conocimiento teórico y práctico para el desarrollo de programas interactivos de TV Digital a grupos multidisciplinarios (de programadores, artistas y productores de TV) de toda la zona de Traslasierra que les permita expandir su producción a esta nueva tecnología de difusión masiva. Es de esperarse que de los cursos, talleres y actividades de seguimiento de proyectos, se podrán obtener productos innovadores que aprovechen todos los beneficios que brinda la TV Digital, llevando el polo de desarrollo de TV generado gracias al CTC Nono a una nueva etapa, de expansión y uso de esta novedosa tecnología.