998 resultados para mundo real
Resumo:
Frente a la narratología estructuralista, una subdisciplina relativamente unificada, la nueva narratología se constituye como un proyecto interdisciplinario integrado por posturas heterogéneas que focalizan en procesos abiertos y dinámicos en lugar de productos estáticos. Entre estos nuevos acercamientos narratológicos, la teoría de los mundos posibles presenta, como característica específica frente a otras corrientes relacionadas con alguna forma de orientación contextualista, un alto grado de teorización que ha conducido en los últimos tiempos a profundizar en la pregunta ineludible sobre qué es lo relevante de una narración y qué rasgos particulares definen a la ficcionalidad. Esta moderna semántica construccional de la ficción resulta una herramienta muy productiva para la interpretación de cualquier tipo de texto, incluidos los textos medievales. En contraste con acercamientos ad hoc, la semántica ficcional concibe los textos literarios como sistemas semióticos para construir (generar la existencia de) mundos ficcionales, paralelos al mundo real aunque autónomos. "Mundo ficcional" es un concepto macroestructural y como tal proporciona un marco general para interpretar semánticamente los constituyentes particulares del texto literario
Resumo:
O trabalho a ser apresentado neste evento é fruto da pesquisa de doutorado da participante, que analisa os oito livros de terror mais vendidos no Brasil, no período de 1980 a 2007. O suporte teórico metodológico que sustenta as análises do corpus é a semiótica greimasiana. Seu objetivo é expor como o discurso se configura, provocando o efeito de sentido do medo nos textos. Para definir o terror, utiliza-se a teoria de Lovecraft (2008), segundo a qual o gênero se manifesta quando um elemento sobrenatural aparece no mundo real, causando medo. Nao há convivência de dois mundos, mas apenas existe o mundo real, com o sobrenatural inserido nele. Nesta vertente da literatura do medo, os textos sao configurados seguindo uma linha discursiva semelhante, conforme analisa a teoria semiótica, com temas, figuras e estruturas que confluem para o seguinte foco: provocar o medo no leitor. Atualmente, a literatura de terror tem conquistado um espaço cada vez maior no mercado editorial brasileiro. Entre tantos conceitos que a permeiam, é preciso considerar que, na medida em que o texto literário se apodera destes temores, demonstra o alerta, a denúncia, proporcionando o alívio da tensao cotidiana do ser humano que, ao pegar uma obra, coloca-se na funçao social de leitor. Esta é uma das hipóteses que justificam a grande vendagem atual de obras de terror. Segundo Bordini (1987), as histórias de terror definem-se pelo efeito irracional que produzem sobre o leitor. E incumbência da semiótica mostrar como este efeito irracional é transformado em discurso. Para este evento, propoe-se definir o terror, situando-o numa linha em que atuaram escritores como Edgar Allan Poe (1840) e Hawthorne (1851), e explicitar como o discurso deste tipo de literatura se configura, fazendo com que o efeito de sentido do medo saia das folhas do livro e atinja seu leitor
Resumo:
El narrador de Todas las almas (1989) es un intelectual que sabe manipular no sólo las reglas de la sociedad inglesa sino también las que rigen la maquinaria de la ficción: sabe que está refiriendo una historia a un lector a quien no le importa engañar. Es un narrador sin nombre, profesor de literatura, que escribe su historia por temor a que ésta desaparezca de su mente y a quedarse sin recuerdos. Curiosamente, tiene mucho de escritor: es reflexivo, tiene preocupaciones metaliterarias, maneja los recursos del humor, de la parodia, de la ironía; juega diestramente con la incorporación del mundo real dentro de la ficción.
Resumo:
O trabalho a ser apresentado neste evento é fruto da pesquisa de doutorado da participante, que analisa os oito livros de terror mais vendidos no Brasil, no período de 1980 a 2007. O suporte teórico metodológico que sustenta as análises do corpus é a semiótica greimasiana. Seu objetivo é expor como o discurso se configura, provocando o efeito de sentido do medo nos textos. Para definir o terror, utiliza-se a teoria de Lovecraft (2008), segundo a qual o gênero se manifesta quando um elemento sobrenatural aparece no mundo real, causando medo. Nao há convivência de dois mundos, mas apenas existe o mundo real, com o sobrenatural inserido nele. Nesta vertente da literatura do medo, os textos sao configurados seguindo uma linha discursiva semelhante, conforme analisa a teoria semiótica, com temas, figuras e estruturas que confluem para o seguinte foco: provocar o medo no leitor. Atualmente, a literatura de terror tem conquistado um espaço cada vez maior no mercado editorial brasileiro. Entre tantos conceitos que a permeiam, é preciso considerar que, na medida em que o texto literário se apodera destes temores, demonstra o alerta, a denúncia, proporcionando o alívio da tensao cotidiana do ser humano que, ao pegar uma obra, coloca-se na funçao social de leitor. Esta é uma das hipóteses que justificam a grande vendagem atual de obras de terror. Segundo Bordini (1987), as histórias de terror definem-se pelo efeito irracional que produzem sobre o leitor. E incumbência da semiótica mostrar como este efeito irracional é transformado em discurso. Para este evento, propoe-se definir o terror, situando-o numa linha em que atuaram escritores como Edgar Allan Poe (1840) e Hawthorne (1851), e explicitar como o discurso deste tipo de literatura se configura, fazendo com que o efeito de sentido do medo saia das folhas do livro e atinja seu leitor
Resumo:
El narrador de Todas las almas (1989) es un intelectual que sabe manipular no sólo las reglas de la sociedad inglesa sino también las que rigen la maquinaria de la ficción: sabe que está refiriendo una historia a un lector a quien no le importa engañar. Es un narrador sin nombre, profesor de literatura, que escribe su historia por temor a que ésta desaparezca de su mente y a quedarse sin recuerdos. Curiosamente, tiene mucho de escritor: es reflexivo, tiene preocupaciones metaliterarias, maneja los recursos del humor, de la parodia, de la ironía; juega diestramente con la incorporación del mundo real dentro de la ficción.
Resumo:
Frente a la narratología estructuralista, una subdisciplina relativamente unificada, la nueva narratología se constituye como un proyecto interdisciplinario integrado por posturas heterogéneas que focalizan en procesos abiertos y dinámicos en lugar de productos estáticos. Entre estos nuevos acercamientos narratológicos, la teoría de los mundos posibles presenta, como característica específica frente a otras corrientes relacionadas con alguna forma de orientación contextualista, un alto grado de teorización que ha conducido en los últimos tiempos a profundizar en la pregunta ineludible sobre qué es lo relevante de una narración y qué rasgos particulares definen a la ficcionalidad. Esta moderna semántica construccional de la ficción resulta una herramienta muy productiva para la interpretación de cualquier tipo de texto, incluidos los textos medievales. En contraste con acercamientos ad hoc, la semántica ficcional concibe los textos literarios como sistemas semióticos para construir (generar la existencia de) mundos ficcionales, paralelos al mundo real aunque autónomos. "Mundo ficcional" es un concepto macroestructural y como tal proporciona un marco general para interpretar semánticamente los constituyentes particulares del texto literario
Resumo:
El propósito del presente trabajo es mostrar las ventajas de la planificación por proyectos y su implementación en las clases de niños y adolescentes de lenguas extranjeras. Esta planificación se enmarca en lo que se denomina CLIL -aprendizaje integrado de lengua y contenido - el cual comprende el aprendizaje de contenido a través de una lengua extranjera y el aprendizaje de ésta a partir del contenido. (Dam,S. British Council, 2006). CLIL se implementa por medio de la resolución de tareas a partir de un tópico como hilo conductor. Los proyectos ofrecen la posibilidad de introducir el mundo real en la clase teniendo en cuenta los intereses de los alumnos creando así un ambiente rico para su participación en una amplia variedad de eventos discursivos en L2 y el desarrollo efectivo y eficaz de la lengua. (Cameron, 2001) En cuanto a su implementación creemos importante la inclusión en los proyectos de tareas de tercera generación para fomentar el desarrollo de conciencia intercultural, pensamiento critico y uso creativo de la lengua. Por último se presentarán ejemplos de temas de proyectos y tareas de tercera generación para diferentes grupos etáreos las cuales facilitan no sólo el desarrollo de la competencia comunicativa sino también el desarrollo global de la personalidad y el pensamiento crítico
Resumo:
Los proyectos de infraestructuras lineales son implantados en el territorio, y la información geográfica de estos proyectos tiene la capacidad de representar la forma, dimensiones y ubicación de estas infraestructuras, así como los límites de las diferentes propiedades que atraviesa. Esta información geográfica ayuda al entendimiento de la afección de la instalación sobre las diferentes propiedades inmuebles, y por otro lado permite cuantificar automáticamente, la magnitud de cada tipo de afección y así utilizarse como mecanismo de notificación formal a los propietarios de las parcelas afectadas. En este trabajo se presenta cómo se ha integrado en el flujo de trabajo de Red Eléctrica de España (REE), las tareas relacionadas con el cálculo de afecciones de las nuevas instalaciones de Alta Tensión, permitiendo visualizar los proyectos mediante: un visor WMS, un globo 3D mediante KML, o como un conjunto de reseñas gráficas de cada parcela. Estas soluciones han permitido optimizar los procesos de cálculo de afecciones y la generación de las Relaciones de Bienes y Derechos (RBD) afectados en distintos formatos: gráficos o alfanuméricos e interactivos 2D y 3D, multiplicándose las posibilidades de automatización y visualización, y produciendo un acercamiento entre el mundo real y el mundo virtual. Linear infrastructure projects are implemented in the territory, and geographic information of these projects has the ability to represent the shape, size and location of these infrastructures, and the limits of the different properties it crosses. This geographic information helps understanding the affection of the installation on different properties, and to automatically quantifies the magnitude of each type of affection and well used as a mechanism to formally notify owners of affected parcels. In this paper we present how the tasks related to the affection calculation of new high-voltage installations is integrated into the workflow of Red Eléctrica de España (REE), allowing to publish and then to see the projects over internet in a standardized way by: WMS viewer, a 3D globe using KML, or review a set of graphs of each parcel. These solutions have allowed us to optimize the processes of calculation of affection and the generation of the Assets and Rights (RBD) affected document across different formats or alphanumeric graphics and interactive 2D and 3D, multiplying the possibilities of automation and visualization, and producing an approach between the real and the virtual world.
Resumo:
After the extraordinary spread of the World Wide Web during the last fifteen years, engineers and developers are pushing now the Internet to its next border. A new conception in computer science and networks communication has been burgeoning during roughly the last decade: a world where most of the computers of the future will be extremely downsized, to the point that they will look like dust at its most advanced prototypes. In this vision, every single element of our “real” world has an intelligent tag that carries all their relevant data, effectively mapping the “real” world into a “virtual” one, where all the electronically augmented objects are present, can interact among them and influence with their behaviour that of the other objects, or even the behaviour of a final human user. This is the vision of the Internet of the Future, which also draws ideas of several novel tendencies in computer science and networking, as pervasive computing and the Internet of Things. As it has happened before, materializing a new paradigm that changes the way entities interrelate in this new environment has proved to be a goal full of challenges in the way. Right now the situation is exciting, with a plethora of new developments, proposals and models sprouting every time, often in an uncoordinated, decentralised manner away from any standardization, resembling somehow the status quo of the first developments of advanced computer networking, back in the 60s and the 70s. Usually, a system designed after the Internet of the Future will consist of one or several final user devices attached to these final users, a network –often a Wireless Sensor Network- charged with the task of collecting data for the final user devices, and sometimes a base station sending the data for its further processing to less hardware-constrained computers. When implementing a system designed with the Internet of the Future as a pattern, issues, and more specifically, limitations, that must be faced are numerous: lack of standards for platforms and protocols, processing bottlenecks, low battery lifetime, etc. One of the main objectives of this project is presenting a functional model of how a system based on the paradigms linked to the Internet of the Future works, overcoming some of the difficulties that can be expected and showing a model for a middleware architecture specifically designed for a pervasive, ubiquitous system. This Final Degree Dissertation is divided into several parts. Beginning with an Introduction to the main topics and concepts of this new model, a State of the Art is offered so as to provide a technological background. After that, an example of a semantic and service-oriented middleware is shown; later, a system built by means of this semantic and service-oriented middleware, and other components, is developed, justifying its placement in a particular scenario, describing it and analysing the data obtained from it. Finally, the conclusions inferred from this system and future works that would be good to be tackled are mentioned as well. RESUMEN Tras el extraordinario desarrollo de la Web durante los últimos quince años, ingenieros y desarrolladores empujan Internet hacia su siguiente frontera. Una nueva concepción en la computación y la comunicación a través de las redes ha estado floreciendo durante la última década; un mundo donde la mayoría de los ordenadores del futuro serán extremadamente reducidas de tamaño, hasta el punto que parecerán polvo en sus más avanzado prototipos. En esta visión, cada uno de los elementos de nuestro mundo “real” tiene una etiqueta inteligente que porta sus datos relevantes, mapeando de manera efectiva el mundo “real” en uno “virtual”, donde todos los objetos electrónicamente aumentados están presentes, pueden interactuar entre ellos e influenciar con su comportamiento el de los otros, o incluso el comportamiento del usuario final humano. Ésta es la visión del Internet del Futuro, que también toma ideas de varias tendencias nuevas en las ciencias de la computación y las redes de ordenadores, como la computación omnipresente y el Internet de las Cosas. Como ha sucedido antes, materializar un nuevo paradigma que cambia la manera en que las entidades se interrelacionan en este nuevo entorno ha demostrado ser una meta llena de retos en el camino. Ahora mismo la situación es emocionante, con una plétora de nuevos desarrollos, propuestas y modelos brotando todo el rato, a menudo de una manera descoordinada y descentralizada lejos de cualquier estandarización, recordando de alguna manera el estado de cosas de los primeros desarrollos de redes de ordenadores avanzadas, allá por los años 60 y 70. Normalmente, un sistema diseñado con el Internet del futuro como modelo consistirá en uno o varios dispositivos para usuario final sujetos a estos usuarios finales, una red –a menudo, una red de sensores inalámbricos- encargada de recolectar datos para los dispositivos de usuario final, y a veces una estación base enviando los datos para su consiguiente procesado en ordenadores menos limitados en hardware. Al implementar un sistema diseñado con el Internet del futuro como patrón, los problemas, y más específicamente, las limitaciones que deben enfrentarse son numerosas: falta de estándares para plataformas y protocolos, cuellos de botella en el procesado, bajo tiempo de vida de las baterías, etc. Uno de los principales objetivos de este Proyecto Fin de Carrera es presentar un modelo funcional de cómo trabaja un sistema basado en los paradigmas relacionados al Internet del futuro, superando algunas de las dificultades que pueden esperarse y mostrando un modelo de una arquitectura middleware específicamente diseñado para un sistema omnipresente y ubicuo. Este Proyecto Fin de Carrera está dividido en varias partes. Empezando por una introducción a los principales temas y conceptos de este modelo, un estado del arte es ofrecido para proveer un trasfondo tecnológico. Después de eso, se muestra un ejemplo de middleware semántico orientado a servicios; después, se desarrolla un sistema construido por medio de este middleware semántico orientado a servicios, justificando su localización en un escenario particular, describiéndolo y analizando los datos obtenidos de él. Finalmente, las conclusiones extraídas de este sistema y las futuras tareas que sería bueno tratar también son mencionadas.
Resumo:
El objetivo del PFC es el diseño e implementación de una aplicación que funcione como osciloscopio, analizador de espectro y generador de funciones virtual, todo dentro de la misma aplicacion. Mediante una tarjeta de adquisición de datos tomaremos muestras de señales del mundo real (sistema analógico) para generar datos que puedan ser manipulados por un ordenador (sistema digital). Con esta misma tarjeta también se podrán generar señales básicas, tales como señales senoidales, cuadradas.... y además se ha añadido la funcionalidad de generar señales moduladas en frecuencia, señales tipo Chirp (usadas comúnmente tanto en aplicaciones sonar y radar, como en transmisión óptica) o PRN (ruido pseudo-aleatorio que consta de una secuencia determinista de pulsos que se repite cada periodo, usada comúnmente en receptores GPS), como también señales ampliamente conocidas como el ruido blanco Gaussiano o el ruido blanco uniforme. La aplicación mostrará con detalle las señales adquiridas y analizará de diversas maneras esas señales. Posee la función de enventanado de los tipos de ventana mas comunes, respuesta en frecuencia, transformada de Fourier, etc. La configuración es elegida por el usuario en un entorno amigable y de visualización atractiva. The objective of the PFC is the design and implementation of an application that works as oscilloscope, spectrum analyzer and virtual signal generator, all within the same application. Through a data acquisition card, the user can take samples of real-world signals (analog system) to generate data that can be manipulated by a computer (digital system). This same card can also generate basic signals, such as sine waves, square waves, sawtooth waves.... and further has added other functionalities as frequency modulated signals generation, Chirp signals type generation (commonly used in both sonar and radar applications, such as optical transmission) or PRN (pseudo-random noise sequence comprising a deterministic pulse that repeats every period, commonly used in GPS receivers). It also can generate widely known as Gaussian white noise signals or white noise uniform signals. The application will show in detail the acquired signals and will analyze these signals in different ways selected by the user. Windowing function has the most common window types, frequency response, Fourier transform are examples of what kind of analyzing that can be processed. The configuration is chosen by the user throught friendly and attractive displays and panels.
Resumo:
El cine ha sido pionero del gusto artístico, de la moda y, en ocasiones, de nuevas imágenes arquitectónicas. Piénsese, por ejemplo, en la ciudad futurista de Fritz Lang para Metrópolis (1926), o en la arquitectura aerodinámica del film Things to Come (1936). Sin embargo, la traslación de esas imágenes al mundo real no siempre fue inmediata. Una de las pocas excepciones son las películas musicales americanas de los años treinta, que dejaron su huella en la arquitectura d los dancing o salas de fiesta. Tal es el caso del Casablanca Dancing-Salón de té, una obra de Gutiérrez Soto hoy desaparecida.
Resumo:
In recent years, applications in domains such as telecommunications, network security or large scale sensor networks showed the limits of the traditional store-then-process paradigm. In this context, Stream Processing Engines emerged as a candidate solution for all these applications demanding for high processing capacity with low processing latency guarantees. With Stream Processing Engines, data streams are not persisted but rather processed on the fly, producing results continuously. Current Stream Processing Engines, either centralized or distributed, do not scale with the input load due to single-node bottlenecks. Moreover, they are based on static configurations that lead to either under or over-provisioning. This Ph.D. thesis discusses StreamCloud, an elastic paralleldistributed stream processing engine that enables for processing of large data stream volumes. Stream- Cloud minimizes the distribution and parallelization overhead introducing novel techniques that split queries into parallel subqueries and allocate them to independent sets of nodes. Moreover, Stream- Cloud elastic and dynamic load balancing protocols enable for effective adjustment of resources depending on the incoming load. Together with the parallelization and elasticity techniques, Stream- Cloud defines a novel fault tolerance protocol that introduces minimal overhead while providing fast recovery. StreamCloud has been fully implemented and evaluated using several real word applications such as fraud detection applications or network analysis applications. The evaluation, conducted using a cluster with more than 300 cores, demonstrates the large scalability, the elasticity and fault tolerance effectiveness of StreamCloud. Resumen En los útimos años, aplicaciones en dominios tales como telecomunicaciones, seguridad de redes y redes de sensores de gran escala se han encontrado con múltiples limitaciones en el paradigma tradicional de bases de datos. En este contexto, los sistemas de procesamiento de flujos de datos han emergido como solución a estas aplicaciones que demandan una alta capacidad de procesamiento con una baja latencia. En los sistemas de procesamiento de flujos de datos, los datos no se persisten y luego se procesan, en su lugar los datos son procesados al vuelo en memoria produciendo resultados de forma continua. Los actuales sistemas de procesamiento de flujos de datos, tanto los centralizados, como los distribuidos, no escalan respecto a la carga de entrada del sistema debido a un cuello de botella producido por la concentración de flujos de datos completos en nodos individuales. Por otra parte, éstos están basados en configuraciones estáticas lo que conducen a un sobre o bajo aprovisionamiento. Esta tesis doctoral presenta StreamCloud, un sistema elástico paralelo-distribuido para el procesamiento de flujos de datos que es capaz de procesar grandes volúmenes de datos. StreamCloud minimiza el coste de distribución y paralelización por medio de una técnica novedosa la cual particiona las queries en subqueries paralelas repartiéndolas en subconjuntos de nodos independientes. Ademas, Stream- Cloud posee protocolos de elasticidad y equilibrado de carga que permiten una optimización de los recursos dependiendo de la carga del sistema. Unidos a los protocolos de paralelización y elasticidad, StreamCloud define un protocolo de tolerancia a fallos que introduce un coste mínimo mientras que proporciona una rápida recuperación. StreamCloud ha sido implementado y evaluado mediante varias aplicaciones del mundo real tales como aplicaciones de detección de fraude o aplicaciones de análisis del tráfico de red. La evaluación ha sido realizada en un cluster con más de 300 núcleos, demostrando la alta escalabilidad y la efectividad tanto de la elasticidad, como de la tolerancia a fallos de StreamCloud.
Resumo:
La falta de información es un escenario más que habitual en la utilización de conjuntos de datos. En las aplicaciones del mundo real existen múltiples causas – errores o fallos de los sensores cuando se trabaja con equipos automáticos, desconocimiento o falta de interés por parte de los responsables de introducir la información, negativas por parte de los informantes a responder a preguntas sobre temas comprometidos en encuestas … – que pueden originarlo. Como consecuencia de ello, el procesamiento de los valores ausentes es, en la práctica, uno de los trabajos que más tiempo consumen en los proyectos de minería de datos y aprendizaje automático [109] y se estima que alrededor del 60% de los esfuerzos se destinan al mismo [23]. Aunque la ausencia puede producirse en cualquier tipo de datos, sean éstos numéricos o categóricos, nos vamos a centrar en los últimos a causa de algunas peculiaridades que merece la pena estudiar. Y hablaremos indistintamente de ausencia de información, valores ausentes, falta de respuesta, datos parcialmente observados o falta de datos, pues en cualquiera de estas formas aparece citado el problema. Las técnicas para afrontarlo se vienen desarrollando ya desde hace tiempo [135], [6] y existen numerosas referencias en la literatura, sobre todo acerca de la falta de respuesta 6 en encuestas [32], [79]. Sin embargo, en el ámbito del aprendizaje automático es en los últimos años cuando se ha convertido en un área de investigación dinámica, con frecuentes aportaciones [94]. Los dos puntos de vista, el estadístico y el del aprendizaje automático, consideran el problema en formas bien diferentes y tienen distintos objetivos, lo que origina, a su vez, discrepancias en la clasificación de las técnicas y en los criterios para su evaluación. Por un lado, el enfoque estadístico paramétrico tradicional considera el conjunto de datos como una muestra, resultado de la extracción aleatoria de una población con una distribución probabilística. Bajo este supuesto, el objetivo es obtener algunos de los parámetros que caracterizan esa distribución – la media, la moda, la correlación entre variables, etc. – calculándose los correspondientes estimadores como funciones de los datos de la muestra. La ausencia de datos es, aquí, un problema de estimación que se afronta desde diferentes perspectivas. Por su parte, en el ámbito de los procedimientos de aprendizaje automático existen múltiples técnicas que pueden utilizarse para tratar los datos ausentes mediante su sustitución por valores obtenidos a partir de los datos observados: redes neuronales, árboles de decisión, etc. Cuando los datos que faltan son categóricos, se pueden utilizar técnicas específicas como los procedimientos de clasificación: las categorías a asignar coinciden con los distintos valores posibles del atributo que tiene falta de información. Pueden utilizarse métodos supervisados y no supervisados. En el primer caso, cuando existe más de un atributo con falta de datos, el aprendizaje se realiza sucesiva y separadamente para cada uno, lo que significa que la tarea ha de repetirse tantas veces como atributos con valores ausentes hay en el conjunto de datos [72]. El inicio de los trabajos de esta tesis ha estado principalmente motivado en la necesidad de mejorar los resultados obtenidos al tratar de resolver problemas de falta de 7 información de variables categóricas en sondeos de opinión utilizando los procedimientos que la literatura considera como el estado del arte en ese ámbito. Se ha encontrado, así, que muchos de los métodos que se proponen tienen hipótesis de funcionamiento que están muy lejos de las situaciones reales que se encuentran en la práctica y, además, las soluciones existentes han avanzado frecuentemente en direcciones no adecuadas, sin replantear los fundamentos básicos. Esto ha conducido de una forma natural a probar métodos propios de otro ámbito como es el aprendizaje automático, para lo que ha sido necesario, en ocasiones, proponer modificaciones de algunos procedimientos ya existentes de modo que pudieran aceptar como entradas el tipo de datos que estos sondeos de opinión manejan. Como resultado, y en el caso concreto de un tipo específico de redes neuronales, se ha diseñado una nueva arquitectura y un nuevo algoritmo de funcionamiento que se presentan aquí como aportación más novedosa de este estudio.
Resumo:
Analysis of river flow using hydraulic modelling and its implications in derived environ-mental applications are inextricably connected with the way in which the river boundary shape is represented. This relationship is scale-dependent upon the modelling resolution which in turn determines the importance of a subscale performance of the model and the way subscale (surface and flow) processes are parameterised. Commonly, the subscale behaviour of the model relies upon a roughness parameterisation whose meaning depends on the dimensionality of the hydraulic model and the resolution of the topographic represen¬tation scale. This latter is, in turn, dependent on the resolution of the computational mesh as well as on the detail of measured topographic data. Flow results are affected by this interactions between scale and subscale parameterisation according to the dimensionality approach. The aim of this dissertation is the evaluation of these interactions upon hy¬draulic modelling results. Current high resolution topographic source availability induce this research which is tackled using a suitable roughness approach according to each di¬mensionality with the purpose of the interaction assessment. A 1D HEC-RAS model, a 2D raster-based diffusion-wave model with a scale-dependent distributed roughness parame-terisation and a 3D finite volume scheme with a porosity algorithm approach to incorporate complex topography have been used. Different topographic sources are assessed using a 1D scheme. LiDAR data are used to isolate the mesh resolution from the topographic content of the DEM effects upon 2D and 3D flow results. A distributed roughness parameterisation, using a roughness height approach dependent upon both mesh resolution and topographic content is developed and evaluated for the 2D scheme. Grain-size data and fractal methods are used for the reconstruction of topography with microscale information, required for some applications but not easily available. Sensitivity of hydraulic parameters to this topographic parameterisation is evaluated in a 3D scheme at different mesh resolu¬tions. Finally, the structural variability of simulated flow is analysed and related to scale interactions. Model simulations demonstrate (i) the importance of the topographic source in a 1D models; (ii) the mesh resolution approach is dominant in 2D and 3D simulations whereas in a 1D model the topographic source and even the roughness parameterisation impacts are more critical; (iii) the increment of the sensitivity to roughness parameterisa-tion in 1D and 2D schemes with detailed topographic sources and finer mesh resolutions; and (iv) the topographic content and microtopography impact throughout the vertical profile of computed 3D velocity in a depth-dependent way, whereas 2D results are not affected by topographic content variations. Finally, the spatial analysis shows that the mesh resolution controls high resolution model scale results, roughness parameterisation control 2D simulation results for a constant mesh resolution; and topographic content and micro-topography variations impacts upon the organisation of flow results depth-dependently in a 3D scheme. Resumen La topografía juega un papel fundamental en la distribución del agua y la energía en los paisajes naturales (Beven and Kirkby 1979; Wood et al. 1997). La simulación hidráulica combinada con métodos de medición del terreno por teledetección constituyen una poderosa herramienta de investigación en la comprensión del comportamiento de los flujos de agua debido a la variabilidad de la superficie sobre la que fluye. La representación e incorporación de la topografía en el esquema hidráulico tiene una importancia crucial en los resultados y determinan el desarrollo de sus aplicaciones al campo medioambiental. Cualquier simulación es una simplificación de un proceso del mundo real, y por tanto el grado de simplificación determinará el significado de los resultados simulados. Este razonamiento es particularmente difícil de trasladar a la simulación hidráulica donde aspectos de la escala tan diferentes como la escala de los procesos de flujo y de representación del contorno son considerados conjuntamente incluso en fases de parametrización (e.g. parametrización de la rugosidad). Por una parte, esto es debido a que las decisiones de escala vienen condicionadas entre ellas (e.g. la dimensionalidad del modelo condiciona la escala de representación del contorno) y por tanto interaccionan en sus resultados estrechamente. Y por otra parte, debido a los altos requerimientos numéricos y computacionales de una representación explícita de alta resolución de los procesos de flujo y discretización de la malla. Además, previo a la modelización hidráulica, la superficie del terreno sobre la que el agua fluye debe ser modelizada y por tanto presenta su propia escala de representación, que a su vez dependerá de la escala de los datos topográficos medidos con que se elabora el modelo. En última instancia, esta topografía es la que determina el comportamiento espacial del flujo. Por tanto, la escala de la topografía en sus fases de medición y modelización (resolución de los datos y representación topográfica) previas a su incorporación en el modelo hidráulico producirá a su vez un impacto que se acumulará al impacto global resultante debido a la escala computacional del modelo hidráulico y su dimensión. La comprensión de las interacciones entre las complejas geometrías del contorno y la estructura del flujo utilizando la modelización hidráulica depende de las escalas consideradas en la simplificación de los procesos hidráulicos y del terreno (dimensión del modelo, tamaño de escala computacional y escala de los datos topográficos). La naturaleza de la aplicación del modelo hidráulico (e.g. habitat físico, análisis de riesgo de inundaciones, transporte de sedimentos) determina en primer lugar la escala del estudio y por tanto el detalle de los procesos a simular en el modelo (i.e. la dimensionalidad) y, en consecuencia, la escala computacional a la que se realizarán los cálculos (i.e. resolución computacional). Esta última a su vez determina, el detalle geográfico con que deberá representarse el contorno acorde con la resolución de la malla computacional. La parametrización persigue incorporar en el modelo hidráulico la cuantificación de los procesos y condiciones físicas del sistema natural y por tanto debe incluir no solo aquellos procesos que tienen lugar a la escala de modelización, sino también aquellos que tienen lugar a un nivel subescalar y que deben ser definidos mediante relaciones de escalado con las variables modeladas explícitamente. Dicha parametrización se implementa en la práctica mediante la provisión de datos al modelo, por tanto la escala de los datos geográficos utilizados para parametrizar el modelo no sólo influirá en los resultados, sino también determinará la importancia del comportamiento subescalar del modelo y el modo en que estos procesos deban ser parametrizados (e.g. la variabilidad natural del terreno dentro de la celda de discretización o el flujo en las direcciones laterales y verticales en un modelo unidimensional). En esta tesis, se han utilizado el modelo unidimensional HEC-RAS, (HEC 1998b), un modelo ráster bidimensional de propagación de onda, (Yu 2005) y un esquema tridimensional de volúmenes finitos con un algoritmo de porosidad para incorporar la topografía, (Lane et al. 2004; Hardy et al. 2005). La geometría del contorno viene definida por la escala de representación topográfica (resolución de malla y contenido topográfico), la cual a su vez depende de la escala de la fuente cartográfica. Todos estos factores de escala interaccionan en la respuesta del modelo hidráulico a la topografía. En los últimos años, métodos como el análisis fractal y las técnicas geoestadísticas utilizadas para representar y analizar elementos geográficos (e.g. en la caracterización de superficies (Herzfeld and Overbeck 1999; Butler et al. 2001)), están promoviendo nuevos enfoques en la cuantificación de los efectos de escala (Lam et al. 2004; Atkinson and Tate 2000; Lam et al. 2006) por medio del análisis de la estructura espacial de la variable (e.g. Bishop et al. 2006; Ju et al. 2005; Myint et al. 2004; Weng 2002; Bian and Xie 2004; Southworth et al. 2006; Pozd-nyakova et al. 2005; Kyriakidis and Goodchild 2006). Estos métodos cuantifican tanto el rango de valores de la variable presentes a diferentes escalas como la homogeneidad o heterogeneidad de la variable espacialmente distribuida (Lam et al. 2004). En esta tesis, estas técnicas se han utilizado para analizar el impacto de la topografía sobre la estructura de los resultados hidráulicos simulados. Los datos de teledetección de alta resolución y técnicas GIS también están siendo utilizados para la mejor compresión de los efectos de escala en modelos medioambientales (Marceau 1999; Skidmore 2002; Goodchild 2003) y se utilizan en esta tesis. Esta tesis como corpus de investigación aborda las interacciones de esas escalas en la modelización hidráulica desde un punto de vista global e interrelacionado. Sin embargo, la estructura y el foco principal de los experimentos están relacionados con las nociones espaciales de la escala de representación en relación con una visión global de las interacciones entre escalas. En teoría, la representación topográfica debe caracterizar la superficie sobre la que corre el agua a una adecuada (conforme a la finalidad y dimensión del modelo) escala de discretización, de modo que refleje los procesos de interés. La parametrización de la rugosidad debe de reflejar los efectos de la variabilidad de la superficie a escalas de más detalle que aquellas representadas explícitamente en la malla topográfica (i.e. escala de discretización). Claramente, ambos conceptos están físicamente relacionados por un
Resumo:
La amplia difusión de los dispositivos móviles en el mercado actual ha puesto al alcance de la mano, altas capacidades de cómputo y diversidad de sensores. Esto ha posibilitado el auge de la Realidad Aumentada, lo cuál busca superponer información al mundo real con el fin de enriquecerlo para un fin determinado. Este trabajo presenta un estado de la cuestión sobre esta área de investigación y se centra específicamente en la Realidad Aumentada en espacios interiores. Uno de los principales problemas de este escenario es el de obtener la posición del usuario y utilizar esta información durante el proceso de Realidad Aumentada, este problema y las soluciones propuestas han sido descritas y evaluadas en el presente documento. Sin embargo, este trabajo da un paso fuera del ámbito teórico al construir un prototipo de Realidad Aumentada en Interiores, el cual implementa diversos aspectos tratados en el estado de la cuestión para un dominio de aplicación concreto, esta implementación permitió por una parte identificar las falencias de los elementos actualmente propuestos para posicionamiento en interiores y por otra parte detectar y afrontar otros problemas técnicos en el desarrollo de este tipo de aplicaciones. Toda esta experiencia es descrita en este documento con el fin que sirva de guía para futuros trabajos en el área.