857 resultados para Sitio y caída de Tenochtitlan
Resumo:
Los Territorios Específicos condicionados socioambiental y/o físicoculturalmente son sistematizados en base a sus cualidades éticas y estéticas en su sentido filosófico y formal respectivamente. Los mismos surgen como entidades orgánicamente integradas a nivel de las prácticas culturales en función de una performatividad autopoiética con gradientes y resonancias ampliamente debatidas académicamente y/o, a través de producciones específicas de las artes visuales contemporáneas. La Cartografía Estética propuesta se conforma de un corpus de obras plásticas y teóricas que, en la trayectoria expositiva abordada para este estudio, conforman una constelación de ejes temáticos y procedimentales en vinculación a los modos de producción en artes visuales. Estos nódulos o modos de hacer en artes visuales, se integran en una fascinante e interesante red epistemológica que, a la luz de las obras de arte seleccionadas son transparentadas no sólo en su complejidad epistémica sino que también son confrontados a interesantes gestos y guiños visuales a modo de cita y figuras conceptuales que en sentido moebiano remisionan formas de inscripción de obra y de la legibilidad de la misma conformando un alfabeto visual contemporáneo indispensable a la hora de pensar y entender la producción artística del último siglo en general y de las artes visuales latinoamericanas y chilenas en particular, todas ellas conforman una panorámica global en lo que hoy se conoce y divulga como arte actual. La unidad espacial abordada como Territorios Específicos se constituyen críticamente por conformar zonas y áreas marginales, espacios residuales y limítrofes, a la vez que contenedores y contenido de resistencia asistémica facilitado por un desinterés administrativo consecuente a su calidad de margen residual naturalizado y sus contenidos subyacentes. Metodológicamente, esta investigación ha sido cuidadosamente sistematizada a partir de herramientas de análisis y medición provenientes de las ciencias sociales y otras más afín a las de la ingeniería como arquitectura y urbanismo y de otras ciencias fronterizas de las biofísicas como la arqueología, etnografía y antropología, adaptadas todas a un interesantísimo protocolo instrumental replicable para las artes visuales. Este compendio procedimental comprende acciones de arte de sitio específico realizadas en una franja costera de 30 kilómetros que abarca desde la ciudad de Valdivia hasta 'La Reserva de Curiñanco' en la recientemente inaugurada XIV Región de Los Ríos en Chile. Estas acciones son confrontadas y tensionadas tanto a nivel de la crítica especializada como de sus afluentes epistemológicos colindantes con las ciencias humanas, donde, este corpus de obra contemporáneas, curatorías, proyectos de sitio y debates especializados, aportan considerablemente a la construcción de futuros posibles no solo de las artes visuales en particular y de las ciencias humanas en general, sino que además conllevan un debate ineludible para el desafío implicado en el debate territorio/globalización
Resumo:
Los Territorios Específicos condicionados socioambiental y/o físicoculturalmente son sistematizados en base a sus cualidades éticas y estéticas en su sentido filosófico y formal respectivamente. Los mismos surgen como entidades orgánicamente integradas a nivel de las prácticas culturales en función de una performatividad autopoiética con gradientes y resonancias ampliamente debatidas académicamente y/o, a través de producciones específicas de las artes visuales contemporáneas. La Cartografía Estética propuesta se conforma de un corpus de obras plásticas y teóricas que, en la trayectoria expositiva abordada para este estudio, conforman una constelación de ejes temáticos y procedimentales en vinculación a los modos de producción en artes visuales. Estos nódulos o modos de hacer en artes visuales, se integran en una fascinante e interesante red epistemológica que, a la luz de las obras de arte seleccionadas son transparentadas no sólo en su complejidad epistémica sino que también son confrontados a interesantes gestos y guiños visuales a modo de cita y figuras conceptuales que en sentido moebiano remisionan formas de inscripción de obra y de la legibilidad de la misma conformando un alfabeto visual contemporáneo indispensable a la hora de pensar y entender la producción artística del último siglo en general y de las artes visuales latinoamericanas y chilenas en particular, todas ellas conforman una panorámica global en lo que hoy se conoce y divulga como arte actual. La unidad espacial abordada como Territorios Específicos se constituyen críticamente por conformar zonas y áreas marginales, espacios residuales y limítrofes, a la vez que contenedores y contenido de resistencia asistémica facilitado por un desinterés administrativo consecuente a su calidad de margen residual naturalizado y sus contenidos subyacentes. Metodológicamente, esta investigación ha sido cuidadosamente sistematizada a partir de herramientas de análisis y medición provenientes de las ciencias sociales y otras más afín a las de la ingeniería como arquitectura y urbanismo y de otras ciencias fronterizas de las biofísicas como la arqueología, etnografía y antropología, adaptadas todas a un interesantísimo protocolo instrumental replicable para las artes visuales. Este compendio procedimental comprende acciones de arte de sitio específico realizadas en una franja costera de 30 kilómetros que abarca desde la ciudad de Valdivia hasta 'La Reserva de Curiñanco' en la recientemente inaugurada XIV Región de Los Ríos en Chile. Estas acciones son confrontadas y tensionadas tanto a nivel de la crítica especializada como de sus afluentes epistemológicos colindantes con las ciencias humanas, donde, este corpus de obra contemporáneas, curatorías, proyectos de sitio y debates especializados, aportan considerablemente a la construcción de futuros posibles no solo de las artes visuales en particular y de las ciencias humanas en general, sino que además conllevan un debate ineludible para el desafío implicado en el debate territorio/globalización
Resumo:
Tabla de contenidos: Los precursores: casticistas y románticos (1828-1838). Sarmiento: la polémica con Bello y la reforma ortográfica (1841-1870). La intervención de la Real Academia en América (1870-1880). Academias correspondientes y diccionarios (1889-1892). Contra el purismo: de Lenz a Cuervo (1893-1900). Polémicas en torno a las tesis segregacionistas de Abeille y Cuervo (1900-1903). Del viraje de Unamuno a la tesis de la escisión moral, de Menéndez Pidal (1903-1918). Primeras periodizaciones: Costa Alvarez, Quesada y Rojas (1922-1923). La querella al irrumpir el Instituto de Filología (1923-1927). Fin de un ciclo: apogeo y caída (1927-1928).
Resumo:
El presente trabajo tiene como objetivo conocer el perfil psicológico de los deportistas universitarios colimenses y analizar si existen diferencias significativas entre practicantes de modalidades individuales y colectivas. Así mismo, se pretende encontrar los perfiles de riesgo para los deportistas. Se trata de un estudio transversal, basado en una muestra no probabilística de 122 alumnos de la Licenciatura en Educación Física y Deporte de la Universidad de Colima, en México. Utilizando como instrumento de medida el cuestionario "Características Psicológicas Relacionadas con el Rendimiento Deportivo" (CPRD), en la versión adaptada para deportistas mexicanos. El cuestionario mide control de estrés, motivación, cohesión de equipo, influencia de la evaluación del rendimiento y habilidad mental. Entre los principales hallazgos, se encontraron siete perfiles de riesgo, ordenados según un gradiente de necesidad de intervención por medio de la definición de puntos de corte, para todas y cada una de las subescalas. Se encontró que, casi un 40 de los deportistas se encuentran en algún perfil de riesgo, de los cuales 6,6 se encontraban en el perfil menor, y un 4,1 en el perfil de riesgo máximo.
Resumo:
Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.
Resumo:
El campo de las redes de sensores inalámbricas ha cobrado gran importancia en esta última década ya que se han abierto diversas líneas de investigación con el fin de poder llevar a la práctica los conceptos y definiciones que envuelven el potencial de esta tecnología, y que está llamada a ser el futuro en la adquisición de datos de cualquier entorno físico de aplicación, mediante una herramienta basada en la autogestión y desatención durante largos periodos de tiempo, capacidad de tomar muestras cuando sea necesario a través de nodos sensores que se caractericen por el ahorro de energía y que puedan ser capaces de trabajar de forma autónoma durante meses, y que el carácter inalámbrico de la red a desplegar facilite las tareas de instalación y mantenimiento. Ello requiere que las condiciones para que una red de sensores inalámbrica sea la forma más viable de monitorizar un determinado entorno se base en ciertos requisitos de diseño, como lo es la baja tasa de transferencia de datos por parte de los nodos (estos deben ser capaces de transmitir la información recolectada desde los sensores y luego permanecer dormidos hasta una nueva adquisición), hardware enfocado al bajo consumo de energía con el fin de evitar cambios en la fuente de energía (baterías) durante largos periodos de tiempo, adaptabilidad al entorno de aplicación, flexibilidad y escalabilidad de la red si la aplicación hace necesario la inclusión de nuevos nodos o la modificación de los ya existentes, sin que ello suponga mayores dificultades en su desarrollo e implementación. El Centro de Electrónica industrial de la Universidad Politécnica de Madrid se incluye dentro de este último grupo, donde se ha diseñado una completa plataforma hardware para redes de sensores inalámbricas, con el fin de investigar las potencialidades, dificultades y retos que supone el realizar un despliegue de nodos inalámbricos en cumplimiento de características primordiales como autonomía, flexibilidad y escalabilidad de la red, además de la autogestión de los dispositivos que forman parte de ella. El presente trabajo de investigación se centra en cubrir estas necesidades, por lo que su principal objetivo es la creación de una plataforma de integración hardware-software que permita explotar todas las potencialidades de la arquitectura Cookies a través de una herramienta que facilite el despliegue, control y mantenimiento de una red de sensores inalámbrica, con el fin último de contar con un sistema total para el prototipado rápido de aplicaciones, soporte de pruebas de nuevos desarrollos y la posibilidad de implementación de dicha plataforma en cualquier entorno real, siendo sólo necesario realizar pequeños ajustes desde el más alto nivel de abstracción para que el sistema sea capaz de adaptarse por sí solo. Para cumplir tales propósitos y lograr una completa integración del sistema conjunto, ha sido necesario fijar principalmente tres líneas de trabajo que se enmarcan dentro de los objetivos específicos del presente proyecto, las cuales se detallan a continuación: Bibliotecas Software modulares: Basada en la filosofía de modularidad y flexibilidad de la plataforma hardware, se hace imprescindible primeramente contar con una plataforma software para el control de todos y cada uno de los elementos que componen al nodo Cookie, a partir de bloques funcionales que permitan gestionar desde el núcleo de procesamiento principal todas las características de la plataforma. Esto permitirá asegurar el control de los recursos hardware y facilitar la utilización de la plataforma desde un nivel más alto de abstracción, sólo con la configuración de parámetros estandarizados para el funcionamiento de la misma. Perfil de aplicación Cookies: Después de contar con bloques software que permitan controlar las características de bajo nivel del nodo inalámbrico, es necesario crear una herramienta para la estandarización de la forma en la que se comunican los dispositivos a nivel de aplicación, con el fin de gestionar las características y atributos de los nodos sensores de forma remota y facilitar el entendimiento entre ellos. Para ello, es necesario fijar ciertas directivas y reglas que permitan homogeneizar la gestión de tareas asociadas a los nodos Cookies, a través del diseño de un perfil de aplicación. Testbed para redes de sensores: Como resultado de las dos líneas anteriores de trabajo, la idea es contar con un instrumento que permita realizar pruebas reales haciendo uso de la plataforma de integración HW-SW, a partir de la gestión de todas las características y potencialidades que ofrece el perfil de aplicación creado y así facilitar el desarrollo de prototipos para aplicaciones basadas en redes de sensores inalámbricas, de forma rápida y eficiente. En este sentido, la idea es contar con un banco de pruebas basado en un despliegue de nodos Cookies que pueda ser controlado desde un ordenador central a través de una interfaz de usuario, desde el cual se lleva a cabo la monitorización y actuación sobre la red inalámbrica. Con el fin de lograr todos los objetivos planteados, ha sido necesario realizar un exhaustivo estudio de la plataforma hardware descrita anteriormente con el fin de conocer la forma en la que interactúan cada uno de los elementos incluidos en los nodos, así como la arquitectura y filosofía de los mismos, para poder llevar a cabo la integración con el software y, como se verá más adelante, realizar ajustes en el hardware para poder implementar correctamente las funcionalidades diseñadas. Por otro lado, ha sido necesario analizar las características de la especificación ZigBee y, sobre todo, las propiedades que posee el módulo de comunicaciones que incluye la plataforma hardware, el ETRX2, con el fin de poder realizar una configuración y gestión adecuada de los nodos a través de la red inalámbrica, aprovechando las posibilidades y recursos que ofrece dicho módulo.
Resumo:
La investigación trata de mostrar cuatro acciones habitualmente empleadas al proyectar arquitectura. La tesis narra el discurso que construyen cuatro acciones como mecanismos optimizadores, fundamentales, activos y necesarios cuando creamos nuevos proyectos. En este trabajo se estudian en profundidad cuatro acciones optimizadoras a través de numerosos casos de estudio. Se estudia también la presencia de estas acciones en otros campos creativos, como la biología, el arte, la literatura, la filosofía, la matemática o la psicología de la creatividad. Se busca qué tienen en común estas cuatro acciones y se indaga sobre la posible narración que construyen entre ellas. La mayor parte de los textos que constituyen este trabajo se escriben en un formato próximo al del ensayo, empleando tiempos verbales presentes evitando los tiempos verbales pretéritos o imperfectos para potenciar la acción a través el estilo narrativo. La investigación se ha realizado a partir de fuentes bibliográficas existentes en numerosas bibliotecas. Se han llevado a cabo estudios de campo realizados a través de entrevistas personales a interlocutores expertos, no sólo de teoría arquitectónica sino también de prácticas constructivas, así como visitas a lugares íntimamente relacionados con el tema de investigación. Se ha completado el estudio de casos con ejercicios prácticos realizados por el autor de esta tesis, para profundizar con la propia investigación por empatía con los autores estudiados. La investigación bibliográfica principal se ha desarrollado en las bibliotecas de la Universidad Politécnica de Madrid, de la Universidad de Alicante, de la Universidad Autónoma de Madrid, de la Universidad Europea de Madrid, de la Universidad Camilo José Cela, de la Universidad Complutense de Madrid, de la Columbia University, de la Harvard University, de la Delft University, de Heidelberg University, de la Biblioteca Central de Madrid y de la Regional de Murcia, así como de la del COAMU. También se ha utilizado recursos bibliográficos propios. La metodología utilizada muestra desde diferentes perspectivas el problema de las acciones optimizadoras, desde obras artísticas, pasando por ejemplos de arquitectura construida hasta ejercicios puramente intelectuales. La acumulación ha sido el método de obtención de conocimiento de esta tesis. Se han acumulado conocimientos y posteriormente se ha profundizado, reflexionando sobre los datos que se han ido obteniendo. Al profundizar se enlazan unas pruebas con otras, hilando y ensamblándolas en un discurso que hace continuo y coherente la aparición de cada caso estudiado. Estas entidades probatorias son acciones que han sido aplicadas frecuentemente por distintas generaciones de autores que proyectan utilizando alguna de estas cuatro acciones. Partimos de una extensa bibliografía general y de otra específica. A través de citas e imágenes se muestra el repertorio de objetos y textos estudiados. Los casos de estudio seleccionados exponen los efectos que produce cada acción en el ejercicio del proyectar. Se ha estudiado la necesidad de cada acción en todas y cada una de las partes del ciclo creativo del proyecto, tanto en prácticas imaginadas como en construidas, de los autores que proyectan. Se citan y se interpretan las descripciones de biólogos, sociólogos, antropólogos, psicólogos, escritores, artistas, arquitectos, matemáticos, ingenieros, físicos, médicos y filósofos en los cuales estas acciones se encuentran conscientemente incorporadas en su procedimiento de proyectar y de pensar. Por último, hemos obtenido unos resultados adecuados a la metodología empleada y a los objetivos planteados gracias a la acumulación y clasificación de pruebas. Los resultados se exponen a modo de discursos conclusivos con un intencionado carácter abierto que despliega nuevas posibles nuevas vías de investigación entorno a los temas estudiados. ABSTRACT. The research seeks to show four commonly used actions in designing architecture. Thesis recounts the speech that built four actions like optimizer, fundamental, active and necessary mechanisms when we create new projects. In this work it studies in depth four optimizer actions through numerous case studies. Also, it considers the presence of these actions in other creative fields, such as biology, art, literature, philosophy, mathematics or psychology of creativity. It is intended what these four actions have in common and it explores the possible narrative constructed among them. Most of the texts that constitute this work are written in a format close to the essay, using present tenses avoiding past or imperfect tenses of enhancing the action through the narrative style. Research has been done from literature sources available in numerous libraries. Field studies have been carried out through personal interviews with expert speakers, not just of architectonic theory but also from constructive practices, as well as visits to sites closely related to the research topic. case studies with practical exercises conducted by the author of this thesis has been completed, to deepen with the own research by empathy with the studied authors. Main bibliographical investigation has been developed in the libraries of UPM, UA, UAM, UEM, the CJC, the UCM, Columbia University, Harvard University Delft University, Heidelberg University, Madrid Central Library, Regional Murcia Library and COAMU Library. Also it has been used own bibliographical resources. Methodology shows from different perspectives the problem of optimizers actions, from art, passing through examples of architecture built up to puré intellectual exercise. Accumulation has been the method of obtaining knowledge of this thesis. it has been accumulated knowledge and later it has been deepened, reflecting on the data that have been obtained. By deepening tests are linked with other, spinning and locking into a discourse that makes continuous and consistent the development of each case study. These evidentiary entities are actions that have been frequently applied by different generations of authors who project using some of these four stocks. We leave from an extensive general bibliography and another specific one. Through quotes and pictures it shows the repertoire of objects and texts studied. The selected study cases set out the effects that each action produces in the exercise of projecting. It has studied the need of each action in every parts of creative cycle of the project, both imagined as constructed practices, by the authors who project. It is quoted and interpreted the descriptions of biologists, sociologists, anthropologists, psychologists, writers, artists, architects, mathematicians, engineers, physicists, physicians and philosophers in which these actions are consciously incorporated into his projecting and thinking procedure. Finally, we have obtained adequate results to the used methodology and to the stated objectives through the accumulation and classification of evidence. The results are presented as conclusive speeches with an intentional open character that unfolds new possible research routes around the studied topics.
Resumo:
Registro de topónimos proclives al tejo(Taxus Baccata L) en todas y cada una de las 1111 hojas del Mapa Topográfico de España MTN50. Frecuencias de las distintas formas lingüísticas en cada Comunidad Autónoma. Referencia especial a la provincia de Guadalajara.
Resumo:
Las estructuras mixtas tienen como filosofía una disposición óptima de los materiales que las forman tanto por su resistencia, aspecto constructivo, funcional y formal. Habitualmente estos materiales serán acero y hormigón que trabajan de forma solidaria gracias a la conexión dispuesta en la interfaz entre materiales y que transmite el flujo rasante entre ambos permitiendo así que la sección trabaje de un modo solidario. Tanto el hormigón como el acero, pueden formar parte de las secciones mixtas de diferentes maneras. En el caso del acero, se tratará primordialmente de acero estructural en la zona inferior de la sección, pero también se encontrará embebido en el hormigón en forma de armadura pasiva, o en forma de armaduras activas, aunque en el siguiente trabajo nos centraremos más en los casos en que la losa se refuerce mediante armadura pasiva. Además, estudiaremos casos en los que las distintas chapas que forman la sección metálica, puedan tener diferentes resistencias, tratándose entonces de secciones metálicas híbridas. Por otra parte, el hormigón no sólo estará presente en las secciones como hormigón vertido “in situ” sino que también existirán casos a los que llegaremos más adelante en el que se usen losas de hormigón prefabricado, que incluso puedan trabajar de encofrado perdido del hormigón “in situ” pasando a formar, los dos tipos, parte de la losa de hormigón bien superior o inferior según la tipología de puente empleado. La acción mixta, será estudiada en este trabajo en su aplicación en puentes y viaductos, pero también tiene una profunda aplicación en el ámbito de la edificación en base a sus peculiaridades, mínimos pesos a bajo coste, apropiada rigidez, monolitismo y arriostramiento sin fragilidad, grandes posibilidades de empleo de la prefabricación, rapidez de ejecución, mínimos cantos con bajo coste, etc. También se puede usar en una actividad creciente y cada vez de mayor importancia, como es el refuerzo de antiguas estructuras metálicas o de hormigón, al transformarlas en mixtas, aumentando así su capacidad portante. La construcción mixta ofrece las máximas posibilidades de empleo racional de los materiales básicos de la construcción moderna, a saber el hormigón y el acero, así como la creación de formas, procesos, etc., en un campo en el que a pesar de todos los logros alcanzados sigue en evolución y alcanza nuevos límites cada día.
Resumo:
En España existen un total de 14,6 millones de viviendas que requieren ser rehabilitadas, para adecuarlas a los estándares normativos, de confort y de eficiencia correspondientes al siglo XXI. El objetivo actual, tanto político como económico, es conseguir a medio plazo que este subsector movilice un volumen de recursos comparable a la obra nueva. Este objetivo requiere de la puesta en marcha de operaciones de rehabilitación a todas las escalas, y, muy particularmente, a gran escala, donde los aspectos urbanos, técnicos y sociales deben tomarse en consideración. Para que este importante subsector pueda desarrollarse en la medida deseada se han de producir ciertos cambios, algunos de importante calado, que afectan a la legislación vigente, a la gestión de las administraciones, al modelo productivo de la construcción y, como no, a la formación de los técnicos y agentes implicados. A su vez, deberá trascenderse el modelo tradicional de Rehabilitación, incorporando las nuevas políticas urbanas de Regeneración Urbana Integrada que se inician en la UE. Se habrá de atender, por consiguiente, a los requerimientos técnicos y a las líneas estratégicas que plantean todas y cada una de las escalas de intervención posibles sobre el citado medio urbano consolidado., como son: • Escala de Ciudad o Barrio, en el orden de las decenas de miles de viviendas. • Escala de Conjunto Urbano, en el orden de los cientos o miles de viviendas. • Escala de Edificio o sus Agrupaciones, en el orden de las decenas de viviendas, a desarrollar con un único proyecto arquitectónico. El medio urbano consolidado presenta, por otra parte, dos características diferenciales esenciales, como son las de encontrarse edificado y habitado, ya sea total o parcialmente. El hecho de estar físicamente consolidado obliga a un conocimiento lo más profundo posible de la edificación, urbanización,… existentes, y establece una serie de restricciones sobre las actuaciones, condicionando su diseño, construcción, estabilidad, etc.. El hecho de que exista una población residente en la pieza de ciudad sobre la que se va a intervenir es determinante a la hora de entender la necesidad de realizar cambios profundos en la formación de los agentes implicados. Las bases para la elaboración de un Programa Docente de la Rehabilitación se desprenden de forma inmediata de todo lo ya expuesto. Habrán de atenderse a los requerimientos de todas y cada una de las escalas de intervención posible sobre el medio urbano consolidado, que afectan a la obtención, con carácter trasversal de conocimientos relativos al campo del urbanismo, de la ejecución de las urbanizaciones de la rehabilitación y reconstrucción de edificios. Asimismo, habrá de contemplar los aspectos novedosos e imprescindibles para los estudios de índole técnica, como son los relativos al campo de la sociología, la educación y mediación social, el derecho, la gestión, tanto participativa como administrativa, la formación de equipos, el trabajo multidisciplinar, la comunicación y divulgación, la economía, la financiación, etc. Desde el punto vista de la programación temporal de la formación se propone una formación especializada que se imparta entre último curso de Grado y el Máster Universitario.
Resumo:
The twentieth century brought a new sensibility characterized by the discredit of cartesian rationality and the weakening of universal truths, related with aesthetic values as order, proportion and harmony. In the middle of the century, theorists such as Theodor Adorno, Rudolf Arnheim and Anton Ehrenzweig warned about the transformation developed by the artistic field. Contemporary aesthetics seemed to have a new goal: to deny the idea of art as an organized, finished and coherent structure. The order had lost its privileged position. Disorder, probability, arbitrariness, accidentality, randomness, chaos, fragmentation, indeterminacy... Gradually new terms were coined by aesthetic criticism to explain what had been happening since the beginning of the century. The first essays on the matter sought to provide new interpretative models based on, among other arguments, the phenomenology of perception, the recent discoveries of quantum mechanics, the deeper layers of the psyche or the information theories. Overall, were worthy attempts to give theoretical content to a situation as obvious as devoid of founding charter. Finally, in 1962, Umberto Eco brought together all this efforts by proposing a single theoretical frame in his book Opera Aperta. According to his point of view, all of the aesthetic production of twentieth century had a characteristic in common: its capacity to express multiplicity. For this reason, he considered that the nature of contemporary art was, above all, ambiguous. The aim of this research is to clarify the consequences of the incorporation of ambiguity in architectural theoretical discourse. We should start making an accurate analysis of this concept. However, this task is quite difficult because ambiguity does not allow itself to be clearly defined. This concept has the disadvantage that its signifier is as imprecise as its signified. In addition, the negative connotations that ambiguity still has outside the aesthetic field, stigmatizes this term and makes its use problematic. Another problem of ambiguity is that the contemporary subject is able to locate it in all situations. This means that in addition to distinguish ambiguity in contemporary productions, so does in works belonging to remote ages and styles. For that reason, it could be said that everything is ambiguous. And that’s correct, because somehow ambiguity is present in any creation of the imperfect human being. However, as Eco, Arnheim and Ehrenzweig pointed out, there are two major differences between current and past contexts. One affects the subject and the other the object. First, it’s the contemporary subject, and no other, who has acquired the ability to value and assimilate ambiguity. Secondly, ambiguity was an unexpected aesthetic result in former periods, while in contemporary object it has been codified and is deliberately present. In any case, as Eco did, we consider appropriate the use of the term ambiguity to refer to the contemporary aesthetic field. Any other term with more specific meaning would only show partial and limited aspects of a situation quite complex and difficult to diagnose. Opposed to what normally might be expected, in this case ambiguity is the term that fits better due to its particular lack of specificity. In fact, this lack of specificity is what allows to assign a dynamic condition to the idea of ambiguity that in other terms would hardly be operative. Thus, instead of trying to define the idea of ambiguity, we will analyze how it has evolved and its consequences in architectural discipline. Instead of trying to define what it is, we will examine what its presence has supposed in each moment. We will deal with ambiguity as a constant presence that has always been latent in architectural production but whose nature has been modified over time. Eco, in the mid-twentieth century, discerned between classical ambiguity and contemporary ambiguity. Currently, half a century later, the challenge is to discern whether the idea of ambiguity has remained unchanged or have suffered a new transformation. What this research will demonstrate is that it’s possible to detect a new transformation that has much to do with the cultural and aesthetic context of last decades: the transition from modernism to postmodernism. This assumption leads us to establish two different levels of contemporary ambiguity: each one related to one these periods. The first level of ambiguity is widely well-known since many years. Its main characteristics are a codified multiplicity, an interpretative freedom and an active subject who gives conclusion to an object that is incomplete or indefinite. This level of ambiguity is related to the idea of indeterminacy, concept successfully introduced into contemporary aesthetic language. The second level of ambiguity has been almost unnoticed for architectural criticism, although it has been identified and studied in other theoretical disciplines. Much of the work of Fredric Jameson and François Lyotard shows reasonable evidences that the aesthetic production of postmodernism has transcended modern ambiguity to reach a new level in which, despite of the existence of multiplicity, the interpretative freedom and the active subject have been questioned, and at last denied. In this period ambiguity seems to have reached a new level in which it’s no longer possible to obtain a conclusive and complete interpretation of the object because it has became an unreadable device. The postmodern production offers a kind of inaccessible multiplicity and its nature is deeply contradictory. This hypothetical transformation of the idea of ambiguity has an outstanding analogy with that shown in the poetic analysis made by William Empson, published in 1936 in his Seven Types of Ambiguity. Empson established different levels of ambiguity and classified them according to their poetic effect. This layout had an ascendant logic towards incoherence. In seventh level, where ambiguity is higher, he located the contradiction between irreconcilable opposites. It could be said that contradiction, once it undermines the coherence of the object, was the better way that contemporary aesthetics found to confirm the Hegelian judgment, according to which art would ultimately reject its capacity to express truth. Much of the transformation of architecture throughout last century is related to the active involvement of ambiguity in its theoretical discourse. In modern architecture ambiguity is present afterwards, in its critical review made by theoreticians like Colin Rowe, Manfredo Tafuri and Bruno Zevi. The publication of several studies about Mannerism in the forties and fifties rescued certain virtues of an historical style that had been undervalued due to its deviation from Renacentist canon. Rowe, Tafuri and Zevi, among others, pointed out the similarities between Mannerism and certain qualities of modern architecture, both devoted to break previous dogmas. The recovery of Mannerism allowed joining ambiguity and modernity for first time in the same sentence. In postmodernism, on the other hand, ambiguity is present ex-professo, developing a prominent role in the theoretical discourse of this period. The distance between its analytical identification and its operational use quickly disappeared because of structuralism, an analytical methodology with the aspiration of becoming a modus operandi. Under its influence, architecture began to be identified and studied as a language. Thus, postmodern theoretical project discerned between the components of architectural language and developed them separately. Consequently, there is not only one, but three projects related to postmodern contradiction: semantic project, syntactic project and pragmatic project. Leading these projects are those prominent architects whose work manifested an especial interest in exploring and developing the potential of the use of contradiction in architecture. Thus, Robert Venturi, Peter Eisenman and Rem Koolhaas were who established the main features through which architecture developed the dialectics of ambiguity, in its last and extreme level, as a theoretical project in each component of architectural language. Robert Venturi developed a new interpretation of architecture based on its semantic component, Peter Eisenman did the same with its syntactic component, and also did Rem Koolhaas with its pragmatic component. With this approach this research aims to establish a new reflection on the architectural transformation from modernity to postmodernity. Also, it can serve to light certain aspects still unaware that have shaped the architectural heritage of past decades, consequence of a fruitful relationship between architecture and ambiguity and its provocative consummation in a contradictio in terminis. Esta investigación centra su atención fundamentalmente sobre las repercusiones de la incorporación de la ambigüedad en forma de contradicción en el discurso arquitectónico postmoderno, a través de cada uno de sus tres proyectos teóricos. Está estructurada, por tanto, en torno a un capítulo principal titulado Dialéctica de la ambigüedad como proyecto teórico postmoderno, que se desglosa en tres, de títulos: Proyecto semántico. Robert Venturi; Proyecto sintáctico. Peter Eisenman; y Proyecto pragmático. Rem Koolhaas. El capítulo central se complementa con otros dos situados al inicio. El primero, titulado Dialéctica de la ambigüedad contemporánea. Una aproximación realiza un análisis cronológico de la evolución que ha experimentado la idea de la ambigüedad en la teoría estética del siglo XX, sin entrar aún en cuestiones arquitectónicas. El segundo, titulado Dialéctica de la ambigüedad como crítica del proyecto moderno se ocupa de examinar la paulatina incorporación de la ambigüedad en la revisión crítica de la modernidad, que sería de vital importancia para posibilitar su posterior introducción operativa en la postmodernidad. Un último capítulo, situado al final del texto, propone una serie de Proyecciones que, a tenor de lo analizado en los capítulos anteriores, tratan de establecer una relectura del contexto arquitectónico actual y su evolución posible, considerando, en todo momento, que la reflexión en torno a la ambigüedad todavía hoy permite vislumbrar nuevos horizontes discursivos. Cada doble página de la Tesis sintetiza la estructura tripartita del capítulo central y, a grandes rasgos, la principal herramienta metodológica utilizada en la investigación. De este modo, la triple vertiente semántica, sintáctica y pragmática con que se ha identificado al proyecto teórico postmoderno se reproduce aquí en una distribución específica de imágenes, notas a pie de página y cuerpo principal del texto. En la columna de la izquierda están colocadas las imágenes que acompañan al texto principal. Su distribución atiende a criterios estéticos y compositivos, cualificando, en la medida de lo posible, su condición semántica. A continuación, a su derecha, están colocadas las notas a pie de página. Su disposición es en columna y cada nota está colocada a la misma altura que su correspondiente llamada en el texto principal. Su distribución reglada, su valor como notación y su posible equiparación con una estructura profunda aluden a su condición sintáctica. Finalmente, el cuerpo principal del texto ocupa por completo la mitad derecha de cada doble página. Concebido como un relato continuo, sin apenas interrupciones, su papel como responsable de satisfacer las demandas discursivas que plantea una investigación doctoral está en correspondencia con su condición pragmática.
Resumo:
Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.
Resumo:
Esta metodología se orienta a servir de guía a profesores y entrenadores de natación, intentando contribuir con una clara delimitación de temas para facilitar una base argumental. No obstante, este trabajo pretende dejar también un amplio espacio a la prudente iniciativa e imaginación del profesor, a la que sirve de cimientos. He preferido ilustrar el texto con mayor número de dibujos que de fotografías, por creer que así se aclaran y completan mejor las explicaciones, forzosamente concisas. La sencilla sucesión de las distintas fases, separadas por guiones, permitirá al profesor formarse una idea clara de los movimientos. La elección de los ejercicios que se practicarán en cada caso es, naturalmente, competencia del profesor. El fin que persigue un método de natación es conseguir que el alumno llegue a convertirse en un nadador seguro. Esto significa que tendrá que alcanzar un grado de soltura que le permita moverse dentro del agua con la misma seguridad natural con que lo hace en tierra. “Su capacidad física mientras nade corresponderá a la capacidad física de su cuerpo fuera del agua” (P. A. SCHWIMMEN: Natación para todos. Página 7. Línea 5). Creo también que cada situación donde el alumno se ejercita, representa una experiencia concreta e individual, por lo que ni un ejercicio y aún menos una sucesión de ejercicios deben concebirse a priori. E1 alumno está constantemente imponiendo al profesor la naturaleza del ejercicio a ejecutar mediante sus reacciones y comportamiento. El ejercicio no es eficaz si en él no se demuestra un progreso tangible y tampoco es útil si no se presenta un proceso franqueable y asimilable. Es importante hacer notar en una metodología de la enseñanza de la natación que la repetición excesiva de un ejercicio puede acarrear el hastío y el aburrimiento del alumno que pretende aprender a nadar. Por ello es indispensable que cada lección y cada ejercicio vaya acompañado de una toma de conciencia de la progresión por parte del alumno y por parte del profesor. Por último, pienso que este trabajo debe ser personalizado por el que pretenda aprovechar sus conocimientos.
Resumo:
Los puertos en general, como eslabones de la cadena del transporte, son importantes plataformas logísticas donde se dan, y cada vez se darán más en el futuro, consumos energéticos importantes. El ámbito portuario reúne características especialmente favorables para la instalación de generadores de energías renovables, probablemente en exceso a los consumos de las propias instalaciones portuarias y de los procesos de transformación. El nuevo concepto de puerto verde, los arcos marítimos azules, los cambios de combustible en los propulsores de los buques y la paralización en muelles de los motores auxiliares generadores, abren un nuevo panorama energético en el sistema portuario, y de necesidades de nuevas instalaciones y servicios. Se hace necesario en la planificación estratégica portuaria de futuros planes y programas, considerar, junto al establecimiento de nuevas infraestructuras, la posibilidad de generación de energía limpia. Entre las energías renovables susceptibles de instalarse en el ámbito portuario tenemos la eólica, la solar y la undimotriz, al menos. La ubicación y características de cada puerto permitirán desarrollar un tipo u otro de energía, delimitando zonas en las que las características de dicha energía puede hacer rentable o no la instalación, para autoconsumo o incluso suministro a la red.
Resumo:
La consola portátil Nintendo DS es una plataforma de desarrollo muy presente entre la comunidad de desarrolladores independientes, con una extensa y nutrida escena homebrew. Si bien las capacidades 2D de la consola están muy aprovechadas, dado que la mayor parte de los esfuerzos de los creadores amateur están enfocados en este aspecto, el motor 3D de ésta (el que se encarga de representar en pantalla modelos tridimensionales) no lo está de igual manera. Por lo tanto, en este proyecto se tiene en vista determinar las capacidades gráficas de la Nintendo DS. Para ello se ha realizado una biblioteca de funciones en C que permite aprovechar las posibilidades que ofrece la consola en el terreno 3D y que sirve como herramienta para la comunidad homebrew para crear aplicaciones 3D de forma sencilla, dado que se ha diseñado como un sistema modular y accesible. En cuanto al proceso de renderizado se han sacado varias conclusiones. En primer lugar se ha determinado la posibilidad de asignar varias componentes de color a un mismo vértice (color material reactivo a la iluminación, color por vértice directo y color de textura), tanto de forma independiente como simultáneamente, pudiéndose utilizar para aplicar diversos efectos al modelo, como iluminación pre-calculada o simulación de una textura mediante color por vértice, ahorrando en memoria de video. Por otro lado se ha implementado un sistema de renderizado multi-capa, que permite realizar varias pasadas de render, pudiendo, de esta forma, aplicar al modelo una segunda textura mezclada con la principal o realizar un efecto de reflexión esférica. Uno de los principales avances de esta herramienta con respecto a otras existentes se encuentra en el apartado de animación. El renderizador desarrollado permite por un lado animación por transformación, consistente en la animación de mallas o grupos de vértices del modelo mediante el movimiento de una articulación asociada que determina su posición y rotación en cada frame de animación. Por otro lado se ha implementado un sistema de animación por muestreo de vértices mediante el cual se determina la posición de éstos en cada instante de la animación, generando frame a frame las poses que componen el movimiento (siendo este último método necesario cuando no se puede animar una malla por transformación). Un mismo modelo puede contener diferentes esqueletos, animados independientemente entre sí, y cada uno de ellos tener definidas varias costumbres de animación que correspondan a movimientos contextuales diferentes (andar, correr, saltar, etc). Además, el sistema permite extraer cualquier articulación para asociar su transformación a un objeto estático externo y que éste siga el movimiento de la animación, pudiendo así, por ejemplo, equipar un objeto en la mano de un personaje. Finalmente se han implementado varios efectos útiles en la creación de escenas tridimensionales, como el billboarding (tanto esférico como cilíndrico), que restringe la rotación de un modelo para que éste siempre mire a cámara y así poder emular la apariencia de un objeto tridimensional mediante una imagen plana, ahorrando geometría, o emplearlo para realizar efectos de partículas. Por otra parte se ha implementado un sistema de animación de texturas por subimágenes que permite generar efectos de movimiento mediante imágenes, sin necesidad de transformar geometría. ABSTRACT. The Nintendo DS portable console has received great interest within the independent developers’ community, with a huge homebrew scene. The 2D capabilities of this console are well known and used since most efforts of the amateur creators has been focused on this point. However its 3D engine (which handles with the representation of three-dimensional models) is not equally used. Therefore, in this project the main objective is to assess the Nintendo DS graphic capabilities. For this purpose, a library of functions in C programming language has been coded. This library allows the programmer to take advantage of the possibilities that the 3D area brings. This way the library can be used by the homebrew community as a tool to create 3D applications in an easy way, since it has been designed as a modular and accessible system. Regarding the render process, some conclusions have been drawn. First, it is possible to assign several colour components to the same vertex (material colour, reactive to the illumination, colour per vertex and texture colour), independently and simultaneously. This feature can be useful to apply certain effects on the model, such as pre-calculated illumination or the simulation of a texture using colour per vertex, providing video memory saving. Moreover, a multi-layer render system has been implemented. This system allows the programmer to issue several render passes on the same model. This new feature brings the possibility to apply to the model a second texture blended with the main one or simulate a spherical reflection effect. One of the main advances of this tool over existing ones consists of its animation system. The developed renderer includes, on the one hand, transform animation, which consists on animating a mesh or groups of vertices of the model by the movement of an associated joint. This joint determines position and rotation of the mesh at each frame of the animation. On the other hand, this tool also implements an animation system by vertex sampling, where the position of vertices is determined at every instant of the animation, generating the poses that build up the movement (the latter method is mandatory when a mesh cannot be animated by transform). A model can contain multiple skeletons, animated independently, each of them being defined with several animation customs, corresponding to different contextual movements (walk, run, jump, etc). Besides, the system allows extraction of information from any joint in order to associate its transform to a static external object, which will follow the movement of the animation. This way, any object could be equipped, for example, on the hand of a character. Finally, some useful effects for the creation of three-dimensional scenes have been implemented. These effects include billboarding (both spherical and cylindrical), which constraints the rotation of a model so it always looks on the camera's direction. This feature can provide the ability to emulate the appearance of a three-dimensional model through a flat image (saving geometry). It can also be helpful in the implementation of particle effects. Moreover, a texture animation system using sub-images has also been implemented. This system allows the generation of movement by using images as textures, without having to transform geometry.