937 resultados para Descripciones y viajes de India


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pedro Antonio de la Puente es seud. de Antonio Ponz y Piquer

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el archivo de la Fundación Casa de Ganaderos se custodia documentación desde la fundación de esta institución en 1218. Aunque no conservan mapas ni descripciones de las cabañeras (nombre que se designa en Aragón a las cañadas) de Aragón y al ser una cofradía adscrita al término de Zaragoza se tienen datos sobre privilegios y derechos en todo Aragón. Especialmente relevante son las mojonaciones del término de Zaragoza. De su estudio geográfico y geomorfológico se deducen interesantes conclusiones de la trashumancia transterminante tan propia del Reino de Aragón y Navarra y el valle del Ebro. Sobre dichas bases pecuarias se entreve la formación y evolución de las redes de comunicaciones rodadas nacidas durante los siglos XVIII y XIX ante el declive de la industria ganadera española. Su marcado carácter apegado a las características geomorfológicas y su evolución y transformación son objeto de este trabajo

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ampliación de software dedicado al análisis de imágenes mediante la introducción de nuevas opciones en el procesamiento de video digital, mejoras en la interacción con el usuario. Para ello se ha estudiado el funcionamiento de la aplicación, integrando el lenguaje Python como herramienta de gestión y ejecución de la aplicación. En esta parte de la aplicación se ha integrado: - Traducción de la UI a una versión castellana. - Modificación y eliminación de cualquier filtro añadido para el procesamiento de video, no únicamente el último. - Descripciones de puntero y en la barra de estado de elementos de la aplicación. - Iconos en la barra de herramientas de los filtros añadidos más importantes. Por la otra parte, la del tratamiento digital de video, Avisynth se dispone como el eje de estudio, el cuál ejecuta sobre lenguaje de bajo nivel (C++) las operaciones pertinentes a través de librerías de enlace dinámico o *.dll. Las nuevas funcionalidades son: Convolución matricial, filtro de media adaptativa, DCT, ajustes de video generales, en formato RGB o YUV, rotaciones, cambios de perspectiva y filtrado en frecuencia. ABSTRACT. Improvement about a digital image processing software, creating new options in digital video processing or the user interaction. For this porpuse, we have integrated the application language,Python, as the tool to the application management and execution. In this part of the application has been integrated: - Translation of the UI: Spanish version. - Modifying and removing any added filter for video processing, not just the last. - Descriptions for the pointer and the status bar of the application. - New icons on the toolbar of the most important filters added. On the other hand, Avisynth was used tool for the digital video processing, which runs on low-level language (C ++) for a quickly and to improve the video operations. The new introduced filters are: Matrix Convolution, adaptive median filter, DCT, general video settings on RGB or YUV format, rotations, changes in perspective and frequency filtering.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El pasado mes de Diciembre tuvimos el privilegio de ser invitados por el RVO holandés (organismo homólogo al Instituto de Comercio Exterior –ICEX- español) a participar en un recorrido de una semana por los Países Bajos bajo el lema “El sector lácteo holandés: Presente y futuro”. En este recorrido, magníficamente organizado por Peter Stoel, de la Netherlands Enterprise Agency, participamos 25 personas, de 19 países diferentes, vinculadas a distintos medios de prensa y televisión relacionados con el sector agrario. Ello dio pie a un intenso intercambio de experiencias y conocimientos, pues la procedencia de los participantes fue realmente diversa; Argentina, Bélgica, Brasil, China, Corea, Croacia, España, Estonia, India, Kenia, Letonia, Lituania, México, Pakistán, Polonia, Rumanía, Serbia, Sri Lanka, Sudáfrica y Turquía.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo nos proponemos enfrentar el enfoque del debate en el Congreso "el dibujo de los viajes de arquitecto" con "Augmented Environment" por las nuevas tecnologías de la información y la comunicación (TIC), la consideración del tiempo como la variable principal y la movilidad en un mundo globalizado. En este entorno, se revisa el concepto de "viaje" como una experiencia formativa en arquitectura y el "dibujo" se compara con el concepto de "aprender de las imágenes".

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En septiembre de 1668 el arquitecto y pintor Pier Maria Baldi emprendía un recorrido por España como miembro de la comitiva que acompañaba al príncipe Cosme de Médicis en su viaje por varios países de Europa. Baldi dibujó más de un centenar de vistas de los pueblos y ciudades de la península Ibérica que señalan las etapas y jalonan la trayectoria seguida. Evidentemente, no era el primer extranjero que deambulaba con el lápiz por territorio español. Hacía poco más de un siglo que el pintor y dibujante flamenco Anton van den Wyngaerde había recorrido parte de España por encargo de Felipe II para dejar constancia de la impronta de sus posesiones urbanas. En sucesivos viajes y con un esfuerzo que hoy puede parecernos sorprendente, dibujó más de 60 ciudades, con la intención de expresar sintéticamente su semblante. A pesar de las diferencias entre ambas colecciones de dibujos, de los distintos recorridos efectuados y del tiempo que las separa, las dos son una magnífica crónica gráfica del estado de los lugares que visitaron sus autores. Y además, permiten analizar la evolución de determinadas configuraciones urbanas en el transcurso de un siglo. Sin olvidar este atrayente objetivo, el propósito fundamental de la comunicación es presentar el análisis comparado de las imágenes de las ciudades que fueron destinos comunes en ambos viajes, atendiendo a los recursos, intenciones y cualidades para expresar la forma y estructura urbanas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objeto de estudio es cotejar dos tipos opuestos de asentamientos en la India: La vivienda social masiva de nueva construcción, y los asentamientos históricos dentro de la ciudad amurallada

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo se ha centrado en la búsqueda y análisis de técnicas de saneamiento y depuración que proporcionen soluciones a poblaciones pequeñas, que por su situación económica o de desarrollo, carecen de estos servicios básicos. Es bien conocido los problemas que genera la falta de acceso al saneamiento básico en contextos de subdesarrollo, agravado en numerosos casos, por los incrementos en la dotación de agua sin introducir las infraestructuras para el tratamiento de las aguas residuales. Esta situación incide directamente sobre la salud de las personas y del medioambiente. Afortunadamente existen Organismos Internacionales y Agencias de Desarrollo y de Medioambiente, que intervienen directamente en estos temas. Los problemas no sólo se presentan en los llamados países en vías de desarrollo, sino que se ha comprobado que también afecta a poblaciones pequeñas con escasos recursos, del mundo más desarrollado. Muchas han sido las técnicas utilizadas con gran éxito en programas de cooperación, pero algunas han fracasado por pérdida de funcionalidad, por errores de diseño, por rápido deterioro de los materiales, o simplemente por falta de adaptabilidad al terreno o no previsión de controles y mantenimiento. La solución a estos eventos pasa por la innovación tanto tecnológica como de gestión, sin olvidar la componente socioeconómica y cultural. Tomar conciencia de un buen diseño adaptado a las características del terreno y de la población, evitaría fracasos por colapso, por falta de mantenimiento, de financiación etc. Por otra parte, se considera necesaria la implementación de programas educativos que incluyan mejoras en los hábitos higiénicos y el conocimiento de las infraestructuras que permitan a la población de destino, adquirir una formación sobre las propias instalaciones, su uso, su mantenimiento y conservación. El desarrollo y mejora de las técnicas de saneamiento y depuración requiere una continuidad en las investigaciones que facilite la adaptación de las instalaciones ya existentes a las diferentes coyunturas que puedan presentarse, garantizando su funcionamiento a largo plazo. Las técnicas denominadas “no convencionales” se caracterizan por ser soluciones económicas y sostenibles, que en algunos casos, requieren poco mantenimiento e incluso éste puede realizarse por personal no especializado, esto es, por los propios usuarios del servicio. Concretamente en el presente trabajo se ha llevado a cabo una revisión general de las tipologías conocidas, tanto convencionales como no convencionales y de su posible aplicación en función de la población de destino, con especial incidencia en las poblaciones más desfavorecidas. Una vez realizada, se han seleccionado las técnicas de saneamiento y depuración no convencionales por el interés personal en las poblaciones con mayores dificultades socioeconómicas. Se han estudiado distintas situaciones en diferentes países y contextos Nicaragua, Ecuador, India y España. Es en esta última, donde se han tenido más facilidades para la obtención de datos y análisis de los mismos, concretamente de la instalación del municipio de Fabara en la provincia de Zaragoza, situado en el Bajo Aragón. ABSTRACT The focus of this project lies on the research and analysis of sanitation and waste water treatment techniques able to provide solutions to small settlements which lack such basic services out of economic or underdevelopment reasons. The problems generated by the absence of access to basic sanitation services in underdevelopment contexts are well known, and many cases can be found where increase of water provision doesn’t involve installation of waste water treatment infrastructures. This situation has a direct impact on people’s health and also on the environment. Fortunately, there are International Organizations and Development Agencies which act directly on these matters. These problems don’t only occur in so called developing countries, as it has been confirmed that small settlements with scarce resources in the more developed world can also be affected. Many techniques have been successfully used in cooperation programs, but also some of them have failed due to loss of functionality, design mistakes, rapid material deterioration, or simply site inadequacy or lack of control and maintenance precautions. The solution to these incidents requires technological as well as management innovation, regarding for all cases the socioeconomic and cultural factors. The awareness of a good design, adapted to the site and population characteristics, would prevent from failures due to collapse, lack of maintenance, funding, etc. Furthermore, the implementation of education programs for improving hygienic habits and for transmitting the understanding of the infrastructures is considered necessary for allowing the aimed population to gain proper knowledge on their own infrastructure, its use, maintenance and preservation. The improvement of sanitation and waste water treatment techniques requires a continuous process of investigation, in order to adapt the existing infrastructure to the different situations that may come up, being able to ensure its long-term functioning. The so called non conventional techniques are characterized by being economic and sustainable solutions, requiring in some cases low maintenance, conducted even by non specialized personnel, that is, by the users themselves. In the present project a general overview of the already developed typologies has been carried out, taking into account the conventional as well as the non conven tional techniques and their possible application according to the aimed population, regarding especially the most underprivileged settlements. Thereupon, out of interest for the settlements with most socioeconomic difficulties, the non conventional sanitation and waste water techniques have been selected. A variety of situations in different countries and contexts has been examined, specifically in Nicaragua, Ecuador, India and Spain. The latest has proven easier for data collection and analysis, focusing finally on the existing infrastructure in the village of Fabara, province of Zaragoza, in the Bajo Aragón.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El concepto de algoritmo es básico en informática, por lo que es crucial que los alumnos profundicen en él desde el inicio de su formación. Por tanto, contar con una herramienta que guíe a los estudiantes en su aprendizaje puede suponer una gran ayuda en su formación. La mayoría de los autores coinciden en que, para determinar la eficacia de una herramienta de visualización de algoritmos, es esencial cómo se utiliza. Así, los estudiantes que participan activamente en la visualización superan claramente a los que la contemplan de forma pasiva. Por ello, pensamos que uno de los mejores ejercicios para un alumno consiste en simular la ejecución del algoritmo que desea aprender mediante el uso de una herramienta de visualización, i. e. consiste en realizar una simulación visual de dicho algoritmo. La primera parte de esta tesis presenta los resultados de una profunda investigación sobre las características que debe reunir una herramienta de ayuda al aprendizaje de algoritmos y conceptos matemáticos para optimizar su efectividad: el conjunto de especificaciones eMathTeacher, además de un entorno de aprendizaje que integra herramientas que las cumplen: GRAPHs. Hemos estudiado cuáles son las cualidades esenciales para potenciar la eficacia de un sistema e-learning de este tipo. Esto nos ha llevado a la definición del concepto eMathTeacher, que se ha materializado en el conjunto de especificaciones eMathTeacher. Una herramienta e-learning cumple las especificaciones eMathTeacher si actúa como un profesor virtual de matemáticas, i. e. si es una herramienta de autoevaluación que ayuda a los alumnos a aprender de forma activa y autónoma conceptos o algoritmos matemáticos, corrigiendo sus errores y proporcionando pistas para encontrar la respuesta correcta, pero sin dársela explícitamente. En estas herramientas, la simulación del algoritmo no continúa hasta que el usuario introduce la respuesta correcta. Para poder reunir en un único entorno una colección de herramientas que cumplan las especificaciones eMathTeacher hemos creado GRAPHs, un entorno ampliable, basado en simulación visual, diseñado para el aprendizaje activo e independiente de los algoritmos de grafos y creado para que en él se integren simuladores de diferentes algoritmos. Además de las opciones de creación y edición del grafo y la visualización de los cambios producidos en él durante la simulación, el entorno incluye corrección paso a paso, animación del pseudocódigo del algoritmo, preguntas emergentes, manejo de las estructuras de datos del algoritmo y creación de un log de interacción en XML. Otro problema que nos planteamos en este trabajo, por su importancia en el proceso de aprendizaje, es el de la evaluación formativa. El uso de ciertos entornos e-learning genera gran cantidad de datos que deben ser interpretados para llegar a una evaluación que no se limite a un recuento de errores. Esto incluye el establecimiento de relaciones entre los datos disponibles y la generación de descripciones lingüísticas que informen al alumno sobre la evolución de su aprendizaje. Hasta ahora sólo un experto humano era capaz de hacer este tipo de evaluación. Nuestro objetivo ha sido crear un modelo computacional que simule el razonamiento del profesor y genere un informe sobre la evolución del aprendizaje que especifique el nivel de logro de cada uno de los objetivos definidos por el profesor. Como resultado del trabajo realizado, la segunda parte de esta tesis presenta el modelo granular lingüístico de la evaluación del aprendizaje, capaz de modelizar la evaluación y generar automáticamente informes de evaluación formativa. Este modelo es una particularización del modelo granular lingüístico de un fenómeno (GLMP), en cuyo desarrollo y formalización colaboramos, basado en la lógica borrosa y en la teoría computacional de las percepciones. Esta técnica, que utiliza sistemas de inferencia basados en reglas lingüísticas y es capaz de implementar criterios de evaluación complejos, se ha aplicado a dos casos: la evaluación, basada en criterios, de logs de interacción generados por GRAPHs y de cuestionarios de Moodle. Como consecuencia, se han implementado, probado y utilizado en el aula sistemas expertos que evalúan ambos tipos de ejercicios. Además de la calificación numérica, los sistemas generan informes de evaluación, en lenguaje natural, sobre los niveles de competencia alcanzados, usando sólo datos objetivos de respuestas correctas e incorrectas. Además, se han desarrollado dos aplicaciones capaces de ser configuradas para implementar los sistemas expertos mencionados. Una procesa los archivos producidos por GRAPHs y la otra, integrable en Moodle, evalúa basándose en los resultados de los cuestionarios. ABSTRACT The concept of algorithm is one of the core subjects in computer science. It is extremely important, then, for students to get a good grasp of this concept from the very start of their training. In this respect, having a tool that helps and shepherds students through the process of learning this concept can make a huge difference to their instruction. Much has been written about how helpful algorithm visualization tools can be. Most authors agree that the most important part of the learning process is how students use the visualization tool. Learners who are actively involved in visualization consistently outperform other learners who view the algorithms passively. Therefore we think that one of the best exercises to learn an algorithm is for the user to simulate the algorithm execution while using a visualization tool, thus performing a visual algorithm simulation. The first part of this thesis presents the eMathTeacher set of requirements together with an eMathTeacher-compliant tool called GRAPHs. For some years, we have been developing a theory about what the key features of an effective e-learning system for teaching mathematical concepts and algorithms are. This led to the definition of eMathTeacher concept, which has materialized in the eMathTeacher set of requirements. An e-learning tool is eMathTeacher compliant if it works as a virtual math trainer. In other words, it has to be an on-line self-assessment tool that helps students to actively and autonomously learn math concepts or algorithms, correcting their mistakes and providing them with clues to find the right answer. In an eMathTeacher-compliant tool, algorithm simulation does not continue until the user enters the correct answer. GRAPHs is an extendible environment designed for active and independent visual simulation-based learning of graph algorithms, set up to integrate tools to help the user simulate the execution of different algorithms. Apart from the options of creating and editing the graph, and visualizing the changes made to the graph during simulation, the environment also includes step-by-step correction, algorithm pseudo-code animation, pop-up questions, data structure handling and XML-based interaction log creation features. On the other hand, assessment is a key part of any learning process. Through the use of e-learning environments huge amounts of data can be output about this process. Nevertheless, this information has to be interpreted and represented in a practical way to arrive at a sound assessment that is not confined to merely counting mistakes. This includes establishing relationships between the available data and also providing instructive linguistic descriptions about learning evolution. Additionally, formative assessment should specify the level of attainment of the learning goals defined by the instructor. Till now, only human experts were capable of making such assessments. While facing this problem, our goal has been to create a computational model that simulates the instructor’s reasoning and generates an enlightening learning evolution report in natural language. The second part of this thesis presents the granular linguistic model of learning assessment to model the assessment of the learning process and implement the automated generation of a formative assessment report. The model is a particularization of the granular linguistic model of a phenomenon (GLMP) paradigm, based on fuzzy logic and the computational theory of perceptions, to the assessment phenomenon. This technique, useful for implementing complex assessment criteria using inference systems based on linguistic rules, has been applied to two particular cases: the assessment of the interaction logs generated by GRAPHs and the criterion-based assessment of Moodle quizzes. As a consequence, several expert systems to assess different algorithm simulations and Moodle quizzes have been implemented, tested and used in the classroom. Apart from the grade, the designed expert systems also generate natural language progress reports on the achieved proficiency level, based exclusively on the objective data gathered from correct and incorrect responses. In addition, two applications, capable of being configured to implement the expert systems, have been developed. One is geared up to process the files output by GRAPHs and the other one is a Moodle plug-in set up to perform the assessment based on the quizzes results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis analiza el resultado de tratar con una plancha caliente la superficie de un estuco de cal, en estado fresco. El estuco a fuego –nombre que recibe la técnica actualmente en desuso- fue muy valorada en un pasado relativamente reciente, de forma que actualmente aparece ciertamente mitificada y sin caracterizar, habiéndose perdido prácticamente su técnica de ejecución. En el capítulo 1 se exponen las hipótesis y objetivos de la investigación realizada, y el e interés y oportunidad de la tesis. En el capítulo 2 se analizan los antecedentes y usos históricos de los estucos, con especial dedicación a los de cal y más concretamente los “planchados” o "al fuego", que son el tema central de esta tesis. Tras un detallado análisis de la bibliografía actual y de la época, se exponen las contradicciones que sobre este acabado se deducen de los diferentes autores consultados. También se sitúa cronológicamente la técnica, en un intento siempre difícil de poner límites a un proceso continuo. Se propone finalmente una técnica de ejecución que, tomando las descripciones más coherentes y creíbles, y mejor contrastadas de los diferentes autores, recupera la técnica perdida, lo que se prueba mediante las correspondientes "ejecuciones piloto". En el capítulo 3 se expone la metodología experimental seguida para caracterizar el efecto de la aplicación de la plancha caliente sobre el estuco de cal: en primer lugar se recuperará en taller el proceso de ejecución a partir de la bibliografía revisada, tomando las descripciones más coherentes y mejor contrastadas de los diferentes autores; posteriormente, se analiza el único caso conocido de esta técnica en el que ha sido posible sacar probetas; a continuación se contrastarán ambas informaciones con objeto de validar el proceso llevado a cabo; por último se proponen los ensayos realizados a las muestras de laboratorio hechas con la técnica recuperada y comparada con el caso real. En el capítulo 4 se lleva a la práctica lo desarrollado en el capítulo anterior, principalmente para determinar los posibles cambios en la superficie acabada, así como en su absorción de agua, brillo, dureza, y porosidad superficial del estuco. Los resultados obtenidos son objeto de análisis y de comparación. Toda la información estudiada hace posible las conclusiones que aparecen el capítulo 5 y que delimitan claramente el efecto que provoca el uso de la plancha caliente sobre el acabado en varios aspectos: economía en el proceso, mejora de los efectos de imitación de mármol y aumento de las propiedades físicas solicitadas a un revestimiento continuo de estas características. Termina el capítulo proponiendo unas cuestiones como futuras líneas de desarrollo de la investigación. ABSTRACT This thesis analyzes the result of dealing with a hot iron the surface of a plaster of lime, fresh state. The stucco fire-name receiving the technique in disuse today- was highly valued in the relatively recent past, so now certainly appears mystified and uncharacterized, having almost lost his playing technique. In Chapter 1 the assumptions and objectives of the research are presented, and the interest and opportunity of the thesis. In chapter 2 the background and historical uses of stucco, with particular attention to the lime and more specifically the "pressed" or "Fire", which are the focus of this thesis are discussed. After a detailed analysis of the current literature and the time, the contradictions that this finish is derived from the different authors consulted are exposed. Also it is situated chronologically the technique, in an always difficult to set limits to a continuous attempt. A technique of execution, taking the most consistent and credible descriptions, and better contrasting of different authors, recovers lost art, which is proved by the corresponding "pilot runs" was finally proposed. In Chapter 3 the experimental methodology to characterize the effect of the application of the hot iron on the lime stucco is exposed: first workshop will recover in the implementation process from the literature reviewed, taking the most consistent descriptions and better contrasted different authors; then it is analyzed the only known case in which this technique has been possible to take samples; then both information will be compared in order to validate the process undertaken; Finally tests performed at the laboratory samples made with the technique recovered and compared with the real case are proposed. Chapter 4 takes practice what it was developed in the previous chapter, mainly to determine possible changes in the finished surface as well as water absorption, gloss, hardness, surface porosity from the stucco. The results are analyzed and compared. All information makes possible to study the conclusions that appear on Chapter 5 and clearly define the effect caused by the use of the hot iron on the finish in several aspects: economy in the process, enhancing the effects of marble imitation and increased physical properties applied to a continuous coating of these features. Chapter finalizes proposing some issues and future lines of research and development.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo se ha centrado en la investigación de soluciones para automatizar la tarea del enriquecimiento de fuentes de datos sobre redes de sensores con descripciones lingüísticas, con el fin de facilitar la posterior generación de textos en lenguaje natural. El uso de descripciones en lenguaje natural facilita el acceso a los datos a una mayor diversidad de usuarios y, como consecuencia, permite aprovechar mejor las inversiones en redes de sensores. En el trabajo se ha considerado el uso de bases de datos abiertas para abordar la necesidad de disponer de un gran volumen y diversidad de conocimiento geográfico. Se ha analizado también el enriquecimiento de datos dentro de enfoques metodológicos de curación de datos y métodos de generación de lenguaje natural. Como resultado del trabajo, se ha planteado un método general basado en una estrategia de generación y prueba que incluye una forma de representación y uso del conocimiento heurístico con varias etapas de razonamiento para la construcción de descripciones lingüísticas de enriquecimiento de datos. En la evaluación de la propuesta general se han manejado tres escenarios, dos de ellos para generación de referencias geográficas sobre redes de sensores complejas de dimensión real y otro para la generación de referencias temporales. Los resultados de la evaluación han mostrado la validez práctica de la propuesta general exhibiendo mejoras de rendimiento respecto a otros enfoques. Además, el análisis de los resultados ha permitido identificar y cuantificar el impacto previsible de diversas líneas de mejora en bases de datos abiertas. ABSTRACT This work has focused on the search for solutions to automate the task of enrichment sensor-network-based data sources with textual descriptions, so as to facilitate the generation of natural language texts. Using natural language descriptions facilitates data access to a wider range of users and, therefore, allows better leveraging investments in sensor networks. In this work we have considered the use of open databases to address the need for a large volume and diversity of geographical knowledge. We have also analyzed data enrichment in methodological approaches and data curation methods of natural language generation. As a result, it has raised a general method based on a strategy of generating and testing that includes a representation using heuristic knowledge with several stages of reasoning for the construction of linguistic descriptions of data enrichment. In assessing the overall proposal three scenarios have been addressed, two of them in the environmental domain with complex sensor networks and another real dimension in the time domain. The evaluation results have shown the validity and practicality of our proposal, showing performance improvements over other approaches. Furthermore, the analysis of the results has allowed identifying and quantifying the expected impact of various lines of improvement in open databases.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este proyecto fin de grado presenta dos herramientas, Papify y Papify-Viewer, para medir y visualizar, respectivamente, las prestaciones a bajo nivel de especificaciones RVC-CAL basándose en eventos hardware. RVC-CAL es un lenguaje de flujo de datos estandarizado por MPEG y utilizado para definir herramientas relacionadas con la codificación dedeo. La estructura de los programas descritos en RVC-CAL se basa en unidades funcionales llamadas actores, que a su vez se subdividen en funciones o procedimientos llamados acciones. ORCC (Open RVC-CAL Compiler) es un compilador de código abierto que utiliza como entrada descripciones RVC-CAL y genera a partir de ellas código fuente en un lenguaje dado, como por ejemplo C. Internamente, el compilador ORCC se divide en tres etapas distinguibles: front-end, middle-end y back-end. La implementación de Papify consiste en modificar la etapa del back-end del compilador, encargada de la generación de código, de modo tal que los actores, al ser traducidos a lenguaje C, queden instrumentados con PAPI (Performance Application Programing Interface), una herramienta utilizada como interfaz a los registros contadores de rendimiento (PMC) de los procesadores. Además, también se modifica el front-end para permitir identificar cierto tipo de anotaciones en las descripciones RVC-CAL, utilizadas para que el diseñador pueda indicar qué actores o acciones en particular se desean analizar. Los actores instrumentados, además de conservar su funcionalidad original, generan una serie de ficheros que contienen datos sobre los distintos eventos hardware que suceden a lo largo de su ejecución. Los eventos incluidos en estos ficheros son configurables dentro de las anotaciones previamente mencionadas. La segunda herramienta, Papify-Viewer, utiliza los datos generados por Papify y los procesa, obteniendo una representación visual de la información a dos niveles: por un lado, representa cronológicamente la ejecución de la aplicación, distinguiendo cada uno de los actores a lo largo de la misma. Por otro lado, genera estadísticas sobre la cantidad de eventos disparados por acción, actor o núcleo de ejecución y las representa mediante gráficos de barra. Ambas herramientas pueden ser utilizadas en conjunto para verificar el funcionamiento del programa, balancear la carga de los actores o la distribución por núcleos de los mismos, mejorar el rendimiento y diagnosticar problemas. ABSTRACT. This diploma project presents two tools, Papify and Papify-Viewer, used to measure and visualize the low level performance of RVC-CAL specifications based on hardware events. RVC-CAL is a dataflow language standardized by MPEG which is used to define video codec tools. The structure of the applications described in RVC-CAL is based on functional units called actors, which are in turn divided into smaller procedures called actions. ORCC (Open RVC-CAL Compiler) is an open-source compiler capable of transforming RVC-CAL descriptions into source code in a given language, such as C. Internally, the compiler is divided into three distinguishable stages: front-end, middle-end and back-end. Papify’s implementation consists of modifying the compiler’s back-end stage, which is responsible for generating the final source code, so that translated actors in C code are now instrumented with PAPI (Performance Application Programming Interface), a tool that provides an interface to the microprocessor’s performance monitoring counters (PMC). In addition, the front-end is also modified in such a way that allows identification of a certain type of annotations in the RVC-CAL descriptions, allowing the designer to set the actors or actions to be included in the measurement. Besides preserving their initial behavior, the instrumented actors will also generate a set of files containing data about the different events triggered throughout the program’s execution. The events included in these files can be configured inside the previously mentioned annotations. The second tool, Papify-Viewer, makes use of the files generated by Papify to process them and provide a visual representation of the information in two different ways: on one hand, a chronological representation of the application’s execution where each actor has its own timeline. On the other hand, statistical information is generated about the amount of triggered events per action, actor or core. Both tools can be used together to assert the normal functioning of the program, balance the load between actors or cores, improve performance and identify problems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente Tesis muestra una visión en conjunto de la evolución de la cartografía geológica en España desde sus orígenes hasta el año 1864, cuando aparecieron, de forma simultánea, los dos mapas geológicos completos de España. El estudio se divide en doce capítulos. El primero es una introducción, con los objetivos y metodología del trabajo, así como en los antecedentes de estos trabajos. El segundo capítulo aborda la representación temprana del paisaje y de los elementos geológicos, desde las piedras grabadas de Abauntz, de hace 13.000 años, que se han interpretado como un mapa geomorfológico y de recursos naturales o el mapa con el volcán Çatalhöyuc en Turquía de 6.600 a.C., hasta las primeras representaciones cartográficas que surgieron con el desarrollo de las primigenias sociedades urbanas. El Papiro de Turín es un mapa del 1.150 a.C. con contenido geológico real que muestra con precisión la distribución geográfica de los distintos tipos de roca en la que se incluye información sobre minería. El tercer capítulo trata sobre cómo se establecieron las bases para la representación científica de la superficie terrestre en el Mundo clásico. Se hace un somero repaso a como se desarrollaron sus concepciones filosóficas sobre la naturaleza y de la cartografía en la Antigua Grecia y el Imperio Romano. En el cuarto capítulo se sintetiza la evolución de los conceptos cartográficos en el mundo medieval, desde las interpretaciones teológicas del mundo en los mapamundis en O-T de Las Etimologías del siglo VIII, o los Beatos, al nacimiento de una representación cartográfica verdaderamente científica en los siglos XIII y XIV, como son los portulanos, destacando el especial interés de la "Escuela Mallorquina". En el quinto capítulo se estudia el Renacimiento y la Edad Moderna, incidiendo en la importancia de la cartografía en los viajes de los descubrimientos, que marcan el mayor avance conceptual en la comprensión de la Tierra. La carta de Juan de la Cosa (1500) es la primera representación de América y además es el primer exponente de la cartografía producida por la Casa de la Contratación de Sevilla. Se presta especial atención a la representación de fenómenos volcánicos, con el ejemplo de las observaciones geológicas que realizó Gonzalo Fernández de Oviedo (1478-1557), en las que se encuentran varios croquis sobre los volcanes de Nicaragua. Finalmente, se estudian las representaciones del subsuelo en la minería, que en esa época inauguraron un nuevo lenguaje pictórico, y las técnicas y saberes mineros en el ámbito hispanoamericano. El capítulo sexto es muy amplio, estudia el contexto científico internacional donde nacieron los primeros mapas geológicos, desde los primeros cortes geológicos realizados a principios del siglo XVIII, hasta el primer mapa geológico del mundo de Amí Boué (1843). En este estudio se estudian también los distintos avances científicos que se fueron produciendo y que permitieron que se levantaran los mapas geológicos. Se analiza la importancia del desarrollo de la cartografía topográfica, que permitió que se pudieran representar distintos elementos geológicos sobre ellos, dando lugar a los primeros mapas temáticos, como por ejemplo, el mapa de los recursos mineros del obispado de Salzburgo (1716). Se dedica un amplio capítulo a la influencia de la Academia de Minas de Freiberg, dónde Abraham G. Werner (1749-1817) impartía clases. Werner sistematizó los materiales geológicos que componen el edificio terrestre dividiéndolo en grandes unidades, de este modo se sentaron las bases que propiciaron la representación cartográfica. A partir de este momento se levantaron un buen número de mapas geognósticos. A principios del siglo XIX, las teorías de Werner empezaron a perder aceptación internacional, incluso entre sus discípulos, como Leopold von Buch (1774-1853) que desarrolló una teoría sobre el levantamiento de las montañas a partir del empuje causado por intrusiones ígneas. Desde la historiografía de la cartografía geológica, se considera un hito la aparición del mapa geológico de Inglaterra, Gales y Escocia, Smith (1815), sin embargo, desde el punto de vista conceptual, el mapa de Cuvier y Brogniart (1808) representa un verdadero mapa geológico con un claro relato histórico. Después se repasan las distintas ideas sobre los mecanismos orogénicos, en especial las de Élie de Beaumont, que ejercieron una gran influencia entre los geólogos de nuestro país. A continuación se trata la figura de Lyell y el desarrollo del actualismo. Finalmente se analiza el primer mapa geológico del mundo, obra de Boué (1843). El capítulo séptimo trata sobre las primeras representaciones gráficas de la Geología española que tuvieron lugar en la época del Reformismo Borbónico. Se empieza con un repaso al estado de la Geología en España en esa época a la que sigue un estudio de los principales hitos en la representación cartográfica con indicaciones geológicas. De este modo se analizan los escasos planos mineros realizados en América que representen los filones, los cortes mineros de Guadalcanal y Cazalla de Hoppensack, (1796) y la utilización de la cartografía en la remediación de los desastres naturales. Los cortes geológicos de Teruel al Collado de la Plata, Herrgen y Thalacker (1800), suponen la primera descripción moderna de un terreno que se realizó en España. A continuación, se menciona la importancia de las cartografías geognósticas, financiadas por la Corona española, realizadas en los Alpes por Carlos de Gimbernat a principios del siglo XIX. Por último, se estudian los caracteres geológicos de los planos para la investigación del carbón en Mallorca, de Taverns (1811). El capítulo octavo constituye el núcleo principal de la presente tesis, y se ha titulado la Época Histórica de la Geología española, en el que se estudian el desarrollo de la cartografía geológica en nuestro país, en el periodo comprendido entre la promulgación de la Ley de Minas de 1825, hasta la constitución de la Carta Geológica de Madrid y General del Reino, en 1849. Se hace primero un repaso a las circunstancias políticas del país, a continuación se sintetiza el estado de la Geología en España en dicho periodo, las instituciones, y las publicaciones. Después se estudia la contribución de los autores extranjeros al conocimiento de la Geología en España, como Charpentier, que en su mapa de los Pirineos está cartografiando parte del territorio español, o Leopold von Buch, Lyell, Silvertop, Cook, Haussmann, entre otros. A continuación se estudia ya la cartografía de distintas cuencas mineras o regiones de España. Se analizan los mapas por separado, estudiando las memorias que las acompañan y la biografía de sus autores. Se empieza por las tempranas contribuciones con estudios de las cuencas carboníferas en los que ya se encuentran cortes geológicos formales. Se incide con mucho mayor detalle en el análisis de las tres cartografías geológicas que aparecieron simultáneamente hacia 1834: las de La Mármora en Baleares, de Le Play en Extremadura y de Schulz en Galicia, tres productos muy distintos, pero que fueron los pilares fundantes de esta disciplina en España. Por una parte, la primera tiene un interés exclusivamente científico, mientras que las otras dos, se enmarcan en un proyecto de cartografía geológica nacional, de un carácter más aplicado. A continuación se aborda el estudio del conjunto de cartografías que van apareciendo sobre la Geología de España, empezando por la de Naranjo (1841) en Burgos, de Collette (1848) en Vizcaya, de Prado (1848) en el Noreste de León; Rodríguez (1849) en Teruel y de Luxan (1850) en el Suroeste de España. La última parte del capítulo analiza dos cartografías (todavía parciales) del conjunto del país, que aparecieron en Alemania hacia 1850: la de Ezquerra (1851) y la de Willkomm (1852). El capítulo noveno trata sobre la institucionalización de la cartografía geológica en España, que se inicia con la fundación de una comisión, en 1849, para levantar el mapa geológico del Reino. Durante este periodo, de todas formas, la Comisión sufrió diversos avatares, aunque, en resumen se puede considerar que se produjeron tres proyectos de cartografía: el primero es la serie de cartografías geológicas provinciales a escala 1:400.000, que se iniciaron con la de Madrid; el segundo son los estudios de cuencas carboníferas, gracias a los cuales se levantaron mapas geológicos en Sant Joan de les Abadeses, Maestre, (1855) y el Norte de la provincia de Palencia, Prado (1861), el tercero y último es el mapa geológico general de España, Maestre (1865). De todas formas, en este periodo también aparecieron cartografías geológicas realizadas por la Dirección General de Minas. El hito cartográfico final de esta tesis es doble, entre 1864 y 1865, se publicaron, por fin, dos mapas geológico completos de España: el de Verneuil y Collomb (1864) y el de Maestre (1865). Finalmente, en el décimo y último capítulo se analizan en conjunto todas las producciones cartográficas que se han ido estudiando a lo largo del trabajo y se exponen, a modo de conclusiones, las principales aportaciones de esta Tesis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El período de la Historia comprendido entre 1570 y 1620 nos ha dejado un importante conjunto de documentos relacionados con la construcción naval en la Península Ibérica. En una época convulsa en la que los reinos de España y Portugal se aglutinaron bajo una misma Corona, surgen una serie de manuscritos, libros y leyes que reflejan la creciente preocupación de la sociedad por el tema naval. Entre sus páginas encontramos las descripciones del proceso constructivo de los buques que sus autores consideraban más significativos para las demandas que se planteaban en ese momento. Este proceso que combinaba generación de formas y construcción del buque provenía de una secular tradición nacida en el Mediterráneo. Mediante reglas geométricas sencillas, el constructor naval trazaba las secciones centrales y el perfil de la nao, quedando los extremos de la misma (hasta más de la mitad de la eslora) a su buen hacer y experiencia. Las herramientas informáticas de generación de superficies mediante NURBs (Non- Uniform Rational B-spline) permiten reconstruir las formas de los navíos reproduciendo con fiabilidad las carenas de los mismos a partir de los documentos de la época. Mediante un estudio detallado de interpretación de los textos y transcribiendo los procesos, llegamos a obtener con un buen grado de precisión las carenas de los buques descritos en sus páginas. A partir de ahí y mediante el análisis cualitativo y cuantitativo de los parámetros obtenidos es posible valorar si las soluciones representadas por los barcos respondían a las preguntas planteadas por sus autores , la influencia de factores externos a la construcción naval tales como las regulaciones del Estado o identificar su relación con el germen y la expansión de la teoría que ha determinado los efectos de la Ciencia en la Arquitectura Naval. Comenzando por la nao veneciana de 1550, heredera de la secular tradición constructiva mediterránea, hasta llegar a las Reales Ordenanzas promulgadas en 1618, se reproducen hasta nueve carenas a partir de otros tantos documentos, se dibujan sus planos de formas y se exportan para su análisis hidrostático. El trabajo requiere la realización de otros estudios en paralelo necesarios para entender aquellos factores que formaron parte del desarrollo tecnológico naval como son, las unidades de medida en uso en los astilleros, los distintos sistemas de arqueo impuestos por la Corona y la representación de los diferentes instrumentos geométricos de modificación de los parámetros de diseño. A lo largo del trabajo se dan respuesta a interrogantes planteados por la arqueología en relación con el desarrollo de la arquitectura naval poniendo en evidencia que durante este período quedaron establecidos los fundamentos teórico-prácticos de lo que más adelante se convirtió en la ciencia de la ingeniería naval y se plantean nuevos retos para aquellos que deseen continuar la apasionante tarea de la investigación científica de nuestra historia. ABSTRACT The period of the History comprised between 1570 and 1620 has left an important set of shipbuilding documents in the Iberian Peninsula. In a turbulent time in which the kingdoms of Spain and Portugal were ruled under the same Crown, manuscripts, books and laws that reflect the growing concern of society for the naval theme arose. We found among their pages shipbuilding process descriptions of the more relevant vessels that responded to claims that arose at that time. This process brought together hull generation and shipbuilding and came from a secular tradition born in the Mediterranean. By means of simple geometric rules, the shipbuilder traced the central sections and profile of the ship, leaving the ends thereof (almost half of the length) to its good performance and experience. 3D computer modelling software by NURBs (Non-Uniform Rational B-spline) surfaces helps to reconstruct ships hulls from contemporary documents. Through a detailed texts interpretation and transcription processes, we manage to reach with a good degree of accuracy the ship hulls described in its pages. From there and through qualitative and quantitative analysis of the parameters obtained we can assess whether the solutions represented by ships gave response to the questions raised by the authors, the influence of external factors such as shipbuilding state regulations or identify their relationship to the origin and expansion of the theory that has determined the effects of Science in Naval Architecture. From the 1550 Venetian nao, inheritor of the secular Mediterranean building tradition, to the Royal Ordinances enacted in 1618, as nine hulls are reproduced, their line drawings are traced and exported for analysis hydrostatic. Further studies are needed to understand the factors that were part of shipbuilding technology development as the units of measure in use in shipyards, the different official regulations for calculating ship tonnage and the different geometric instruments to amend the design parameters. The work gives response to questions raised by archaeology in relation to the development of naval architecture highlighting that during this period were established the theoretical and practical foundations of what later became the science of naval engineering and raising new challenges for those wishing to continue the exciting task of scientific research of our History.