936 resultados para Planificación de la energía


Relevância:

90.00% 90.00%

Publicador:

Resumo:

El aumento de las capacidades de interconexión de dispositivos de todo tipo está suponiendo una revolución en el campo de la prestación de servicios, tanto en la cantidad como en la variedad. Esta evolución ha puesto de manifiesto la necesidad de abordar un desarrollo tecnológico sin precedentes, donde la previsión de dispositivos interconectados e interoperando entre sí y con las personas alcanza cifras del orden de los millardos. Esta idea de un mundo de cosas interconectadas ha dado lugar a una visión que se ha dado en llamar Internet de las Cosas. Un mundo donde las cosas de cualquier tipo pueden interactuar con otras cosas, incluyendo las que forman parte de redes con recurso limitados. Y esto además conduce a la creación de servicios compuestos que superan a la suma de las partes. Además de la relevancia tecnológica, esta nueva visión enlaza con la de la Ciudad del Futuro. Un concepto que recurre a la convergencia de la energía, el transporte y las tecnologías de la información y las comunicaciones para definir una forma mediante la que lograr el crecimiento sostenible y competitivo, mejorando así la calidad de vida y abriendo el gobierno de las ciudades a la participación ciudadana. En la línea de desarrollo que permite avanzar hacia la consecución de tales objetivos, este Proyecto Fin de Carrera propone una forma de virtualizar los servicios ofrecidos por la diversidad de dispositivos que van adquiriendo la capacidad de interoperar en una red. Para ello se apoya en el uso de una capa de intermediación orientada a servicios, nSOM, desarrollada en la EUITT. Sobre esta arquitectura se proponen como objetivos el diseño y desarrollo de una pasarela de servicios que haga accesibles desde la web los recursos ofrecidos en una red de sensores; el diseño y desarrollo de un registro de dispositivos y servicios en concordancia a la propuesta de arquitectura de referencia para Internet de las Cosas; y el estudio y diseño de un marco para la composición de servicios orquestados en redes de recursos limitados. Para alcanzar estos objetivos primero se abordará un estudio del estado del arte donde se profundizará en el conocimiento de la las tecnologías para la interoperatividad entre cosas, abordando los principios de las redes inalámbricas de sensores y actuadores, las arquitecturas para las comunicaciones Máquina a Máquina e Internet de las Cosas, y la visión de la Web de las Cosas. Seguidamente se tratarán las tecnologías de red y de servicios de interés, para finalizar con un breve repaso a las tecnologías para la composición de servicios. Le seguirá una descripción detallada de la arquitectura nSOM y del diseño propuesto para este proyecto. Finalmente se propondrá un escenario sobre el que se llevarán a cabo diferentes pruebas de validación. ABSTRACT. The increasing of the capabilities of all kind of devices is causing a revolution in the field of the provision of services, both in quantity and in diversity. This situation has highlighted the need to address unprecedented technological development, where the forecast of interconnected and interoperable devices between them and human beings reaches the order of billions. And these numbers go further when the connectivity of constrained networks is taken into account. This idea of an interconnected world of things has led to a vision that has been called "The Internet of Things". It’s a vision of a world where things of any kind can interact with other things, even those in the domain of a constrained network. This also leads to the creation of new composed services that exceed the sum of the parts. Besides the technological interest, this new vision relates with the one from the Smart City. A concept that uses the convergence of the energy, the transport, and the information and communication technologies to define a way to achieve sustainable and competitive growth, improving the quality of life, and opening the governance of the cities to the participation. In the development pathway to reach these goals, this Final Degree Dissertation proposes a way for the virtualization of the services offered by the variety of devices that are reaching the ability to interoperate in a network. For this it is supported by a service oriented middleware called nSOM that has been developed at EUITT. Using this architecture the goals proposed for this project are the design and development of a service gateway that makes available the resources of a sensor network through a web interface; the design and development of a Device & Service Registry according to the reference architecture proposal for the Internet of Things; and the study and design of a composition framework for orchestrated services in constrained networks. To achieve these goals this dissertation begins with a State of the Art study where the background knowledge about the technologies in use for the interoperation of things will be settled. At first it starts talking about Wireless Sensor and Actuator Networks, the architectures for Machine-to-Machine communication and Internet of Things, and also the concepts for the Web of Things vision. Next the related network and services technologies are explored, ending with a brief review of service composition technologies. Then will follow a detailed description of the nSOM architecture, and also of the proposed design for this project. Finally a scenario will be proposed where a series of validation tests will be conducted.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La extraña, patética y dramática realidad de posguerra que se vivía en la ciudad de Londres construyó el escenario de alerta en el que el fotógrafo Nigel Henderson, el escultor Eduardo Paolozzi y los arquitectos Alison y Peter Smithson se reunieron para reflexionar acerca del papel que debían desempeñar en este fragmentado clima de emergencia.Los cuatro jóvenes se introdujeron en el mundo fronterizo entre la arquitectura y las artes plásticas para confeccionar la imagen de un contexto en el que el hombre pudiese volver a identificarse en su interior y consiguiese βdescubrirγ ese lugar donde insertar su ser βextramundanoγ. El ensamblaje como ámbito de reunión, diálogo y acuerdo fue precisamente la técnica universal que reunió a los cuatro reconstructores en ese interior de realidades complementarias desde el que decidieron liberar la energía creativa más allá de sus inventos e implicar a la sociedad en la reconstrucción del rostro por venir de su mañana. Con el objetivo de explorar la naturaleza multidisciplinar de esta cooperación, este trabajo ha ido a situarse en ese espacio de intercambio entre disciplinas, individuos y sensaciones para elaborar, transversalmente, un estudio sobre la labor conjunta que desarrolló este cuarteto a principios de los años 50 centrándose, principalmente, en la instalación Patio&Pavilion, realizada para la exposición βThis is Tomorrowγ que tuvo lugar en la Whitechapel Art Gallery de Londres en el verano de 1956.Este trabajo se ha acercado al imaginario compartido por los cuatro aprendices del ensamblaje para desvelar cómo yendo más allá de la técnica, se sumergieron en la profundidad multidimensional de la existencia del ser humano y rescataron del entrelazado de sensaciones que la componen, el deseo, el orden y el diálogo como motores para la reconstrucción de las relaciones que mantenían unidos al individuo y su Entorno como una figura total indivisible.Este trabajo ha desvelado cómo la revisión crítica y la mirada romántica hacia la brutal imagen de su día a día, impulsaron a los cuatro colaboradores a entender las exposiciones como un campo de libertad y comunicación donde poder llegar a explorar las necesidades e impulsos básicos del ser humano y, al mismo tiempo, poder improvisar nuevas tectónicas concordantes con su presente a partir de las variables universales que lo definían como un fragmento más de su proyecto de vida.Este trabajo ha analizado cómo esta completa imagen del contexto configurada por los cuatro colaboradores, desencadenó importantes transformaciones en aquellos ámbitos en los que militaron como críticos revisionistas.Este trabajo ha ofrecido el retrato del contexto, los instrumentos y los métodos con los que, estos cuatro ensambladores del ayer, visionaron el papel de los futuros inventores del presente a fin de trazar nuevos umbrales para el proyecto arquitectónico como proceso entre procesos, capaz de dialogar con la totalidad y evolucionar de acuerdo a la realidad técnica de su tiempo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los años cincuenta y sesenta son los años de la incorporación definitiva de la arquitectura española al panorama internacional. Entre los arquitectos que protagonizan ese salto sin retorno, se encuentra el grupo de aquellos que unos años más tarde serán denominados por Juan Daniel Fullaondo como Escuela de Madrid. Carlos Flores, en su libro Arquitectura Española Contemporánea 1880-1950, se refiere a esos arquitectos como aquellos que se aplicaban a la difícil tarea de restablecer en España un tipo de arquitectura que conectaba con las teorías, soluciones y lenguajes establecidos por Europa durante las primeras décadas del siglo XX. Sigfried Giedion plantea en Espacio, Tiempo y Arquitectura el origen de una nueva tradición, surgida a partir de la revolución óptica de principios de siglo. Con tradición se refiere a una nueva cultura, que abarca la interrelación de las diferentes actividades del hombre: la similitud de los métodos que se usan en la arquitectura, la construcción, la pintura, el urbanismo o la ciencia. Esa novedad, fundamentada en su independencia y desvinculación con el periodo anterior, se inscribe dentro del esquema evolutivo que Thomas Kuhn plantea en su texto La Estructura de la Revoluciones Científicas, conforme a periodos no acumulativos. Kuhn habla del surgimiento de anomalías en cada periodo, origen de las crisis de pensamiento cuya explicación precisará un necesario cambio paradigmático. En la ciencia, en el campo de la óptica Thomas Young demuestra a principios del siglo XIX la naturaleza ondulatoria de la luz con su experimento de doble rendija; en el electromagnetismo se produce el salto conceptual que supone la postulación de la existencia del campo eléctrico por parte de Michael Faraday, y en termodinámica la consideración apuntada por Planck de que la radiación de la energía de produce de forma discreta, a través de cuantos. En las artes plásticas, paralelamente, Gleizes y Metzinger, en su recopilación de logros cubistas recogida en Sobre el Cubismo, hablan de la evolución sufrida durante el siglo XIX por la pintura: desde el idealismo de principios de siglo, para pasando por el realismo y la representación impresionista de la realidad, concluir prescindiendo de la perspectiva clásica. También la matemática, una vez desarrolladas por Gauss o Lobachevsky y Bolyai geometrías coherentes que incumplen el quinto postulado de Euclides, terminará dando validez a través de Riemann a los espacios ambiente en los que habitan dichas geometrías, desvinculando la relación directa entre espacio geométrico –el espacio ambiente al que da lugar un tipo de geometría- y el espacio físico. Capi Corrales refleja en su libro Contando el Espacio, cómo hasta la teoría de la relatividad y el cubismo, las geometrías no euclídeas no se hicieron notorias también fuera del campo de las matemáticas. El origen de la nueva tradición con la que Giedion se refiere a la nueva cultura de la modernidad coincide con los saltos paradigmáticos que suponen la teoría de la relatividad en las ciencias y el cubismo en las artes plásticas. Ambas se prolongan durante las primeras décadas hasta la teoría cuántica y la abstracción absoluta, barreras que los dos principales precursores de la relatividad y el cubismo, Einstein y Picasso, nunca llegan a franquear. En ese sentido Giedion habla también, además del origen, de su desarrollo, e incorpora las aportaciones periféricas en la arquitectura de Brasil, Japón o Finlandia, incluyendo por tanto la revisión orgánica propugnada por Zevi como parte de esa nueva tradición, quedando abierta a la incorporación tardía de nuevas aportaciones al desarrollo de esa cultura de la modernidad. Eliminado el concepto de la estética trascendental de Kant del tiempo como una referencia absoluta, y asumido el valor constante de la velocidad de la luz, para la teoría de la relatividad no existe una simultaneidad auténtica. Queda así fijada la velocidad de la luz como uno de los límites del universo, y la equivalencia entre masa y energía. En el cubismo la simultaneidad espacial viene motivada por la eliminación del punto de vista preferente, cuyo resultado es la multiplicidad descriptiva de la realidad, que se visualiza en la descomposición en planos, tanto del objeto como del espacio, y la consecuente continuidad entre fondo y figura que en arquitectura se refleja en la continuidad entre edificio y territorio. Sin la consideración de un punto de vista absoluto, no existe una forma auténtica. El cubismo, y su posterior desarrollo por las vanguardias plásticas, hacen uso de la geometría como mecanismo de recomposición de la figura y el espacio, adoptando mecanismos de penetración, superposición y transparencia. Gyorgy Kepes indica en El Lenguaje de la Visión que la descomposición cubista del objeto implica la sucesiva autonomía de los planos, hasta convertirse en elementos constituyentes. Algo que refleja las axonometrías arquitectónicas de Van Doesburg y que culmina con los espacios propuestos por Mies van der Rohe en sus primeros proyectos europeos. Estos mecanismos, encuentran eco en los primeros planteamientos de Javier Carvajal: en la ampliación del Panteón de españoles del cementerio de Campo Verano, un recinto virtual reconstruido mentalmente a partir del uso de tres únicos planos; o en el Pabellón de Nueva York, que organiza su planta baja desde el recorrido, introduciendo el parámetro temporal como una dimensión más. Al uso diferenciado del plano como elemento constituyente, Carvajal incorpora su plegado y su disposición conformando envolventes como mecanismo de cualificación espacial y formal, potenciando la prolongación entre arquitectura y territorio. Una continuidad que quedará culminada en las dos viviendas unifamiliares construidas en Somosaguas. La descomposición volumétrica conduce a unos niveles de abstracción que hace precisa la incorporación de elementos de la memoria -fuentes, patios, celosías…- a modo de red de señales, como las que Picasso y Braque introducen en sus cuadros para permitir su interpretación. Braque insiste en el interés por el espacio que rodea a los objetos. Una búsqueda de la tactilidad del espacio contraria a la perspectiva que aleja el objeto del observador, y que en los jardines de las viviendas de Somosaguas parece emanar de su propia materialidad. Un espacio táctil alejado del espacio geométrico y que Braque identifica con el espacio representativo en el que Poincaré, en La Ciencia y la Hipótesis, ubica nuestras sensaciones. Desdibujar los límites del objeto prolonga el espacio indefinidamente. Con el paso en el arte griego del mito al logos, se abre paso a la matemática como herramienta de comprensión de la naturaleza hasta el siglo XIX. Leon Lederman, en Simetría y la Belleza del Universo, apunta a que una de las mayores contribuciones de la teoría de Einstein es hacer cambiar el modo de pensar la naturaleza, orientándolo hacia la búsqueda de los principios de simetría que subyacen bajo las leyes físicas. Considerando que la simetría es la invariancia de un objeto o un sistema frente a una transformación y que las leyes físicas son las mismas en cualquier punto del espacio, el espacio de nuestro universo posee una simetría traslacional continua. En la ocupación del espacio de las primeras propuestas de Corrales y Molezún aparecen estructuras subyacentes que responden a enlosetados: paralelogramos sometidos a transformaciones continuas, que la naturaleza identifica tridimensionalmente con los grupos cristalográficos. Las plantas del museo de Arte Contemporáneo de la Castellana, la residencia de Miraflores, el pabellón de Bruselas o la torre Peugeot pertenecen a este grupo. La arquitectura como proceso de ocupación continua del territorio y de su trasposición al plano de cubierta, se materializa en líneas estructurales coincidentes con la estructura matemática de sus simetrías de traslación cuya posibilidad de prolongación infinita queda potenciada por el uso de la envolvente transparente. Junto a esta transparencia literal, inherente al material, Colin Rowe y Robert Slutzky nos alertan sobre otra transparencia inherente a la estructura: la transparencia fenomenal, ilustrada por los cuadros de Juan Gris, y cuya intuición aparece reflejada en la casa Huarte en Puerta de Hierro de Madrid. Corrales y Molezún insisten en una lectura de su volumetría alejada de la frontalidad, en la que los contornos de sus cubiertas inclinadas y las visuales tangenciales sugeridas por la organización de sus recorridos introducen una estructura diagonal que se superpone al entendimiento ortogonal de su planta, dibujando una intrincada red de líneas quebradas que permiten al espacio fluctuar entre las secuencia volumétrica propuesta. Los datos relativos al contenido energético de la luz y el concepto de átomo parten de la consideración de la emisión de energía en cuantos realizada por Planck, y concluyen con una circunstancia paradójica: la doble naturaleza de la luz -demostrada por la explicación de Einstein del efecto fotoeléctrico- y la doble naturaleza de la materia -asumida por Bohr y demostrada por el efecto Compton-. Schrödinger y Heisenberg formularán finalmente la ecuación universal del movimiento que rige en las ondas de materia, y cuya representación matemática es lo que se conoce como función de onda. El objeto es así identificado con su función de onda. Su ondulatoriedad expresará la probabilidad de encontrarse en un lugar determinado. Gyorgy Kepes subraya la necesidad de simplificar el lenguaje para pasar de la objetividad que aún permanece en la pintura cubista a la abstracción total del espacio. Y es así como los artistas plásticos reducen los objetos a simples formas geométricas, haciendo aflorar a la vez, las fuerzas plásticas que los tensionan o equilibran, en un proceso que acaba por eliminar cualquier atisbo de materia. Robert Rosenblum en La Pintura Moderna y la Tradición del Romanticismo Nórdico habla de cómo ese rechazo de la materia en favor de un vacío casi impalpable, campos luminosos de color denso que difunden un sereno resplandor y parecen engendrar las energías elementales de la luz natural, está directamente vinculado a la relación con la naturaleza que establece el romanticismo nórdico. La expresión de la energía de la naturaleza concentrada en un vacío que ya había sido motivo de reflexión para Michael Faraday en su postulación del concepto de campo eléctrico. Sáenz de Oíza incide en la expresión de la condición material de la energía en su propuesta junto a José Luis Romany para la capilla en el Camino de Santiago. La evocación de diferentes fuerzas electromagnéticas, las únicas junto a las gravitatorias susceptibles de ser experimentadas por el hombre, aparecerán visualizadas también en el carácter emergente de algunas de sus obras: el Santuario de Aránzazu o Torres Blancas; pero también en la naturaleza fluyente de sus contornos, la dispersión perimetral de los espacios -el umbral como centro del universoo la configuración del límite como respuesta a las tensiones germinales de la naturaleza. Miguel Fisac, a la vuelta de su viaje a los países nórdicos, aborda una simplificación lingüística orientada hacia la adecuación funcional de los espacios. En el Instituto de Daimiel, el Instituto de formación del profesorado o los complejos para los Padres Dominicos en Valladolid o Alcobendas, organiza progresivamente la arquitectura en diferentes volúmenes funcionales, incidiendo de un modo paralelo en la manifestación de los vínculos que se establecen entre dichos volúmenes como una visualización de las fuerzas que los tensionan y equilibran. En ellos la prolongación de la realidad física más allá de los límites de la envolvente ya es algo más que una simple intuición. Un proceso en el que el tratamiento de la luz como un material de construcción más, tendrá un especial protagonismo. En la iglesia de la Coronación, la iluminación del muro curvo escenifica la condición ondulatoria de la luz, manifestándose como si de un patrón de interferencia se tratara. Frente a la disolución de lo material, el espacio se manifiesta aquí como un medio denso, alejado de la tradicional noción de vacío. Una doble naturaleza, onda y partícula, que será intuido también por Fisac en la materia a través de su uso comprometido del hormigón como único material de construcción. Richard Feynmann nos alerta de la ocupación del espacio por multitud de fuerzas electromagnéticas que, al igual que la luz, precisan de receptores específicos para captar su presencia. Sus célebres diagramas suponen además la visualización definitiva de los procesos subatómicos. Al igual que la abstracción absoluta en las artes plásticas, esas representaciones diagramáticas no son asimilables a imágenes obtenidas de nuestra experiencia. Una intuición plasmada en el uso del diagrama, que irán adquiriendo progresivamente los dibujos de Alejandro de la Sota. La sección del gimnasio Maravillas recoge los trazos de sus principales elementos constructivos: estructura, cerramientos, compartimentaciones…, pero también, y con la misma intensidad, los de las fuerzas que generan su espacio, considerando así su condición de elementos constituyentes. El vacío, nos deja claro Sota, es el lugar donde habitan dichas tensiones. La posterior simplificación de las formas acompañadas de la obsesión por su aligeramiento, la casi desaparición de la envolvente, incide en aquella idea con la que Paul Klee define la actividad del artista en su Teoría del Arte Moderno, y en la que se transmite el distanciamiento hacia lo aparente: No se trata de reproducir lo visible, se trata de volver visible. Así, en Bankunión y Aviaco, como en tantos otros proyectos, frente al objetivo de la forma, Sota plantea el límite como la acotación de un ámbito de actuación. Su propia representación aséptica y diagramática transmite la renuncia a una especificidad espacial. Gilles Deleuze expresa ese posicionamiento en Pintura, el Concepto de Diagrama: el diagrama como la posibilidad de cuadros infinitos, o la posibilidad infinita de cuadros. Aparece así una concepción probabilística del espacio en la que frente a la renuncia por la forma, la tendencia al aligeramiento, y lo difuso de su definición – ideas claras, definición borrosa, en palabras de Llinás referidas al modo de operar de Sota-, la insistente atención a algunos elementos como escaleras, protecciones o miradores parece trasmitir la idea de que la arquitectura queda condensada en aquellos acontecimientos que delatan su condición dinámica, transitoria. Primando la relación frente al objeto, el vínculo frente a lo tangible. English summary. The fifties and sixties were the years of the final incorporation of Spanish architecture to the international scene. Among the architects who star that no return leap, is the group of those who a few years later will be named by Juan Daniel Fullaondo as Escuela de Madrid. Carlos Flores, in his book Arquitectura Española Contemporánea 1880-1950, refers to those architects as those that applied to the difficult task of restoring in Spain an architecture that connected with theories, solutions and established languages in Europe during the first decades of the twentieth century. Sigfried Giedion proposes in Space, Time and Architecture, the origin of a new tradition, arising from the optical revolution at the beginning of the century. With tradition he refers to a new culture, covering the interplay of different human activities: the similarity of the methods used in architecture, building, painting, urban planning or science. This new feature, based on its independence and detachment from the previous period, is part of the evolutionary scheme that Thomas Kuhn proposes in his text The Structure of Scientific Revolutions, according to non-accumulative periods. Kuhn talks about the emergence of anomalies in each period, origin of thought crisis whose explanation will require a paradigm shift needed. In science, in the field of optical Thomas Young demonstrates at the early nineteenth century the wave nature of light with its double-slit experiment , in electromagnetism the postulation of the existence of the electric field by Michael Faraday involves a conceptual leap, and in thermodynamic, the consideration pointed by Planck about quantum energy radiation. In the arts, in a parallel process, Gleizes and Metzinger , in his collection of cubism achievements on their book Du Cubisme, speak of evolution occurring during the nineteenth century by the painting: from the idealism of beginning of the century, going for realism and impressionist representation of reality, and finishing regardless of the classical perspective . Mathematics also, once developed by Gauss and Lobachevsky and Bolyai consistent geometries that violate Euclid's fifth postulate , will end validating Riemann’s ambient spaces in which these geometries inhabit, decoupling the direct relationship between geometric space -the space environment that results in a type of geometry- , and physical space. Capi Corrales reflectes in his book Contando el Espacio, that non-Euclidean geometries were not noticeable outside the field of mathematics until the theory of relativity and cubism. The origin of the new tradition that Giedion relates to the new culture of modernity coincides with paradigmatic leaps pointed by the theory of relativity in science and Cubism in the visual arts. Both are extended during the first decades until quantum theory and absolute abstraction, barriers that the two main precursors of relativity and cubism, Einstein and Picasso never overcome. In that sense Giedion speaks about the origin, but also the development, and incorporates peripheral inputs from Brazil, Japan and Finland architecture, thus including organic revision advocated by Zevi as part of this new tradition, being open to the late addition of new contributions to the development of that culture of modernity. Removed the concept of Kant's transcendental aesthetics, of time as an absolute reference, and assumed the constant value of the speed of light, theory of relativity says there is no authentic concurrency. It is thus fixed the speed of light as one of the limits of the universe, and the equivalence of mass and energy. In cubism, spatial simultaneity results from the elimination of preferential points of view, resulting in the multiplicity descriptive of reality, which is displayed in decomposition levels, both the object and the space, and the resulting continuity between figure and background that architecture is reflected in the continuity between building and land. Without the consideration of an absolute point of view, there isn’t an authentic shape. Cubism, and its subsequent development by the vanguard arts, make use of geometry as a means of rebuilding the figure and space, taking penetration mechanisms, overlapping and transparency. Gyorgy Kepes suggest in Languaje of Vision, that cubist decomposition of the object involves successive planes autonomy, to become constituent elements. Something that reflects the Van Doesburg’s architectural axonometrics and culminates with the spaces proposed by Mies van der Rohe in his first European projects. These mechanisms are reflected in the first approaches by Javier Carvajal: the extension of Spanish Pantheon in Campo Verano Cemetery, virtual enclosure mentally reconstructed from 24 the use of only three planes, or in the Spanish Pavilion of New York, which organizes its ground floor from the tour, introducing the time parameter as an additional dimension. Carvajal adds to the differential use of the plane as a constituent, Carvajal incorporates its folding and forming enclosures available as a mechanism for spatial and formal qualification, promoting the extension between architecture and territory. A continuity that will be completed in the two houses built in Somosaguas. Volumetric decomposition, as the fragmentation achieved in the last cubist experiences, needs the incorporation of elements of memory - fountains, patios, shutters...- as a network of signals, such as those introduced by Picasso and Braque in their paintings to allow their interpretation. Braque insists in his interest in the space surrounding the objects. A search of the tactility of space contrary to the perspective, which moves the observer away from the object, and that in the gardens of Somosaguas seems to emanate from its own materiality. A tactile space away from the geometric space and Braque identified with the representative space in which Poincaré in La Science et l´hypothèse, located our feelings. To blur those boundaries of the object extends the space indefinitely. With the passage in Greek art from myth to logos, it opens up to mathematics as a tool for understanding the nature until the nineteenth century. Leon Lederman, in Symmetry and beautiful Universe, suggests that one of the greatest contributions of Einstein's theory is to change the mindset of nature, namely the search for symmetry principles that underlie physical laws. Considering that symmetry is the invariance of an object or system from a transformation and that physical laws are the same at any point in space, the space of our universe has a continuous translational symmetry. In the space occupation of the first proposals by Corrales and Molezún underlying structures appear that match enlosetados: parallelograms under continuous transformations, which nature identifies tridimensionally with the crystallographic groups. Plants in the Contemporary Art Museum in La Castellana, the residence in Miraflores, the Brussels pavilion or the Peugeot tower belong to this group. The architecture as a process of continuous occupation of the territory and of its transposition to the deck, embodied in structural lines coincide with the mathematical structure of the translational symmetry and infinite extension whose possibility is enhanced by the use of the transparent cover. Alongside this literal transparency inherent to the material, Colin Rowe and Robert Slutzky alert us another transparency inherent in the structure: phenomenal transparency, illustrated by the Juan Gris’ works, and whose intuition is reflected in the Huarte’s house in Puerta de Hierro in Madrid. Corrales and Molezún insist on a reading of its volume away from the frontal, in which the outline of their inclined roofs and tangential visual suggested by the organization of his circulations introduce a diagonal structure which overlaps the orthogonal understanding of its plant, drawing an intricate web of broken lines that allow the space fluctuate between the volumetric sequence proposal. Information concerning to the energy mean of light and the concept of atom start from the consideration by Plank about the energy emission, and conclude with a paradoxical situation: the dual nature of light - demonstrated by the explanation of Einstein's photoelectric effect-, and the dual nature of matter -assumed by Bohr and demonstrated by the Compton effect-. Finally, Schrödinger and Heisenberg will formulate the universal movement equation governing in undulatory matter, whose mathematical representation is what is known as a wave function. The object is thus identified with its wave function. Its undulatory expression speaks about the probability of being found in a certain place. Gyorgy Kepes emphasizess the need to simplify the language to move from the objectivity that still remains in the cubist painting to the total abstraction of the space. And this is how artists reduced the objects to simple geometric shapes, making emerge at a time, the plastic forces that tense or balance them, in a process that eventually eliminate any trace of matter. Robert Rosenblum in Modern Painting and the Northern Romantic Tradition. Friedrich to Rothko talks about how this rejection of matter in an almost impalpable vacuum: dense color light fields that broadcast a serene glow and seem to generate the elemental energies of natural light is directly linked to the relationship with nature that sets the northern romanticism. An expression of the power of nature concentrated in a vacuum which had been reason for thought by Michael Faraday in his application of the concept of electric field. Saenz de Oíza touches upon the material expression of the energy in its proposal with Jose Luis Romany to the chapel on the Camino de Santiago. The presence of electromagnetic forces, the only ones with the gravitational one capable of being experienced by the man will also visualize in the emerging nature of some of his works: the sanctuary of Aránzazu or Torres Blancas, but also in the flowing nature of its contours, and the inclusion of interest in the realization of space fluctuating boundary: the threshold as the center of the universe. Miguel Fisac, back from his trip to the Northern Countries, starts on a linguistic simplification oriented to the functional adequacy of spaces. In the Daimiel Institute, in the Institute to Teacher Formation or in the complex to the Dominican Fathers in Valladolid or Alcobendas, progressively organized into different functional volumes architecture, focusing in a parallel way in the manifestation of the links established between these volumes as a visualization of the forces that tense and balance them. The prolongation of the physical reality beyond the limits of the envelope is already something more than a simple intuition. A process in which the treatment of light as a construction material, have a special role. In the Coronation church, curved wall lighting dramatizes the undulatory condition of the light, manifesting as if an interference pattern is involved. Versus the dissolution of the material, the space is expressed here as a dense atmosphere, away from the traditional notion of the vacuum. A dual nature, wave and particle, which is also sensed by Fisac in his committed use of concrete as a unique construction material. Richard Feynman alerts us to the occupation of space by many electromagnetic forces, which like the light, require specific receptors to capture their presence. His famous diagrams also involve the final visualization of atomic processes. As absolute abstraction in the visual arts, these representations are not assimilated to images obtained from our experience. A diagrammatic nature, abstracted from figuration, which will obtein the pictures of Alejandro de la Sota. The section of Maravillas gym collects traces of its main building blocks: structure, enclosures... but also, and with the same intensity, of the forces that generate their space as constituent elements. Sota makes it clear: the vacuum is where inhabit these tensions. The subsequent simplification of forms, accompanied by the obsession with his lightening, the near disappearance of the envelope, touches upon that idea which Paul Klee defines the activity of the artist in his Modern Art Theory, the spacing out to the apparent: it is not to reproduce the visible, it is to turn visible. Thus, in Bankunión and Aviaco, as in many other projects, against the shape, raises the limit as the dimension of a scope. His own aseptic and diagrammatic representation transmits waiver to a spatial specificity that Gilles Deleuze clearly expressed in Painting. The Concept Diagram: The diagram as the possibility of infinite pictures, or infinite possibility of the picture. Thus appears the probabilistic concept of space in which, opposite to the diffuse of its definition -clear ideas, diffuse definition, as Llinas said- the insistent attention to some elements like stairs, guards or lookouts seems to concentrate the architecture in its dynamic condition, transitional. The relationship opposite the object, the link opposite the tangible.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los objetivos principales de esta Tesis Doctoral fueron estudiar en 4 ensayos los efectos a) del procesado del maíz y la inclusión en los piensos de ingredientes de alta calidad como harina de pescado o fuentes de lactosa en lechones blancos b) inclusión en el pienso de diferentes productos derivados del haba de soja, con diferente contenido de proteína bruta (PB), tamaño de partícula y origen en lechones blancos e ibéricos y c) inclusión en el pienso de lechones ibéricos de ingredientes de alta calidad; forma de presentación del pienso y la duración del suministro del pienso prestárter sobre los parámetros productivos, la digestibilidad de los nutrientes, y las características morfológicas de la mucosa digestiva en lechones blancos e ibéricos recién destetados. En el experimento 1, los efectos de la complejidad del pienso prestárter sobre los parámetros productivos y la digestibilidad total aparente (TTAD) de los nutrientes fueron estudiados en lechones blancos recién destetados. Se utilizaron 10 tratamientos experimentales como resultado de 5 piensos prestárter (21 a 41 d de edad) y 2 piensos estárter (42 a 62 d de edad). Los piensos prestárter consistieron en un control negativo que incluía 40% de maíz crudo, 4% de harina de pescado y 7% de lactosa, un control positivo que incluía 40% de maíz cocido, 10% de harina de pescado, y 14% de lactosa, y 3 piensos adicionales con similares ingredientes que el pienso control positivo pero en los que a) 40% de maíz cocido fue sustituido por el mismo porcentaje de maíz crudo, b) se redujo el nivel de harina de pescado del 10 al 4%, y c) se redujo el nivel de lactosa del 14 al 7%. Cada tratamiento se replicó 6 veces (6 lechones/departamento). De 42 a 62 d de edad, la mitad de cada uno de los 5 piensos prestárter recibió un pienso estándar compuesto por harina de soja- maíz crudo y manteca y la otra mitad un pienso con similar perfil nutricional pero incluyendo un 20% de maíz cocido, 5% de harina de pescado, 1.3% de lactosa, 2% de concentrado de proteína de soja obtenido por fermentación y 1% de aceite de soja en lugar de harina de soja, maíz sin procesar y manteca. La complejidad del pienso no afectó a los parámetros productivos en ninguno de los periodos estudiados, pero el índice de diarreas durante la fase prestárter fue mayor en los lechones que recibieron el pienso control negativo que en los alimentados con cualquiera de los otros piensos (P<0.05). A los 30 días de edad (piensos prestárter), la digestibilidad de la materia orgánica (MO) y de la energía bruta (EB) fue menor (P<0.001) en los lechones que consumieron el pienso control negativo que en los lechones que consumieron cualquiera de los otros piensos. Sin embrago, la digestibilidad fecal de la PB no fue afectada. A los 50 días de edad (piensos estárter), la digestibilidad de los nutrientes fue similar en ambos piesnsos. Se concluye que la utilización de niveles elevados de ingredientes de alta calidad en los piensos no mejora los parámetros productivos de los lechones blancos en ninguno de los períodos estudiados. De 21 a 41 días de edad, el índice de diarreas se redujo y la digestibilidad de los nutrientes aumentó con la utilización de piensos de mayor calidad. Por lo tanto, la utilización de piensos con niveles elevados de ingredientes de calidad para reducir problemas digestivos y por lo tanto, mejorar los parámetros productivos podría estar justificada en algunos casos. En el experimento 2, se estudiaron los efectos de la inclusión en el pienso de harina de soja con diferente contenido de PB (44 vs. 49 % PB), la micronización de la harina de soja de alta proteína (AP-HS; 49% PB) y la utilización de concentrado de proteína de soja (CPS; 65% PB) sobre los parámetros productivos y la TTAD de los nutrientes en lechones blancos recién destetados de 28 a 63 días de edad. De 28 a 49 días de edad (fase I), hubo un pienso control positivo con un 10% de CPS, un pienso control negativo con 14.8% de harina de soja estándar (R-HS; 44% de PB) y otros 4 piensos que incluían 13.3% de AP-HS de origen Americano (USA) o Argentino (ARG) y molidas groseramente (980 μm) o micronizadas (80 μm). Cada tratamiento se replicó 8 veces (6 lechones/departamento). De 49 a 63 días de edad (fase II), todos los lechones recibieron un pienso comercial común en forma de harina. En el global de la fase I, el tratamiento experimental no afectó a ninguno de los parámetros productivos estudiados. Sin embargo, de 28 a 35 días de edad, los lechones alimentados con AP-HS micronizadas tuvieron un mejor índice de conversión (IC; 1.11 vs. 0.98; P<0.05) que los alimentados con AP-HS molidas groseramente. También, de 35 a 42 días de edad, los lechones que recibieron el pienso con AP-HS micronizada tendieron (P=0.08) a consumir más pienso que los lechones que consumieron el pienso con AP-HS molida. Durante la fase II (49 a 63 días de edad), cuando todos los lechones recibieron un pienso común, no se observaron diferencias en productividad de los lechones debido al tratamiento previo. En general, la digestibilidad de los nutrientes a los 35 días de edad fue mayor para los lechones que consumieron CPS que para los lechones que consumieron R-HS con los lechones que consumieron AP-HS en una posición intermedia. La digestibilidad de la PB fue mayor (P≤0.01) para el pienso que contenía CPS que para el promedio de los 5 tratamientos en base a HS. También, la digestibilidad de la MO y de la materia seca (MS) fue mayor para el pienso que contenía AP-HS micronizada o molida groseramente que para el pienso que contenía R-HS. La micronización de la AP-HS no tuvo efecto alguno sobre la digestibilidad de los nutrientes. Se concluye que cuando el CPS sustituye en el pienso a R-HS, la digestibilidad de la PB aumenta pero no tiene efecto alguno sobre los parámetros productivos. La utilización de AP-HS en sustitución de R-HS en el pienso mejora la digestibilidad de los nutrientes pero no afecta a los parámetros productivos. La utilización de harina de soja micronizada en los piensos mejora la eficiencia alimenticia durante la primera semana post-destete pero no tiene efecto alguno sobre la digestibilidad de los nutrientes. En general, la inclusión de productos derivados del haba de soja con un alto valor añadido (CPS o AP-HS) en el pienso presenta pocas ventajas en términos productivos al uso de AP-HS en lechones blancos recién destetados. En el experimento 3, se estudiaron los mismos productos de soja y piensos similares al experimento 2 en lechones ibéricos recién destetados. Además de los parámetros productivos y la TTAD de los nutrientes, en este ensayo se estudió también la digestibilidad ileal aparente (AID) de los nutrientes, así como las características histológicas y morfometría de la mucosa ileal. Cada uno de los 6 tratamientos fue replicado 6 veces (6 lechones/departamento). De 30 a 51 días de edad la fuente de harina de soja no afectó a los parámetros productivos, pero el índice de diarreas fue mayor (P<0.001) y la TTAD y AID de los nutrientes menor en los lechones alimentados con R-HS que en los alimentados con CPS o AP-HS. Sin embargo, no se encontró ninguna diferencia para éstos parámetros entre los piensos que contenían AP-HS y CPS. La TTAD de la MO (P=0.07) y de la EB (P=0.05) tendieron a ser mayores en los piensos basados en AP-HS micronizada que en los basados en AP-HS molida. La TTAD de la EB tendió (P<0.05) a ser mayor para la AP-HS de origen USA que para la AP-HS de origen ARG. Los lechones que consumieron R-HS presentaron villi de menor longitud (P<0.01) que los lechones que consumieron AP-HS o CPS, pero no se observaron diferencias en el caso de los lechones que recibieron los piensos que contenían AP-HS o CPS. Se concluye que la inclusión de AP-HS o CPS en el pienso en sustitución de R-HS reduce el índice de diarreas y mejora la digestibilidad de los nutrientes y las características morfológicas del íleon sin afectar a los parámetros productivos. La utilización de piensos basados en productos derivados del haba de soja con mayor valor añadido (CPS o AP-HS) en sustitución de la R-HS, mejora la TTAD de todos los nutrientes y reduce el índice de diarreas si llegar afectar a los parámetros productivos. En el experimento 4 se estudiaron los efectos del contenido de PB y la complejidad del pienso, la presentación física y la duración del suministro del pienso prestárter sobre los parámetros productivos y la TTAD de los nutrientes en lechones ibéricos recién destetados de 28 a 63 días de edad. Hubo 12 tratamientos experimentales con 2 tipos de pienso (AC; calidad alta y BC: calidad media), 2 presentaciones del pienso (gránulo y harina) y 3 duraciones de suministro del pienso prestárter (7, 14 y 21 días). Desde los 7, 14 y 21 días de experimento (dependiendo del tratamiento), hasta los 35 días, todos los lechones recibieron un pienso comercial en forma de harina. Cada uno de los tratamientos fue replicado 3 veces (6 lechones/departamento). En el global del experimento, la ganancia media diaria (GMD; P<0.05) y el consumo medio diario (CMD; P<0.01) fue menor en los lechones que recibieron el pienso AC que para los que recibieron el pienso de BC, si bien el IC no se vio afectado. La granulación del pienso prestárter no afectó a los crecimientos pero mejoró la eficiencia alimenticia. La utilización del pienso prestárter de 0 a 21 días de prueba mejoró el IC (P<0.05), pero redujo la GMD (P<0.01) en comparación con la utilización de éste pienso solo durante 7 o 14 días. El índice de diarreas tendió a ser mayor (P=0.06) en los lechones alimentados con los piensos AC que en los alimentados con los piensos BC. Asimismo, el índice de diarreas fue superior en los lechones que recibieron el pienso en gránulo que los que los recibieron en harina (P<0.001). Además, el índice de diarreas fue superior en los lechones que recibieron el pienso prestárter durante 14 o 21 días que en los que lo recibieron solo durante 7 días (P<0.01). De 28 a 49 días de edad, la GMD y el IC no se vieron afectados por la complejidad del pienso, pero la presentación en gránulo o el aumento en la duración de suministro del pienso prestárter mejoró el IC (P<0.01). También, en este periodo el índice de diarreas fue mayor en lechones alimentados con piensos granulados que aquellos alimentados con piensos en harina. Asimismo, fue superior para los lechones alimentados con el pienso prestárter durante 14 o 21 días que para los que recibieron éste pienso solo durante 7 días (P<0.01). De 49 a 63 días de edad, los lechones que previamente habían recibido piensos BC crecieron más que los que recibieron piensos AC (P<0.001). Asimismo, los lechones que recibieron el pienso prestárter durante 21 días comieron (P< 0.001) y crecieron menos (P<0.05) presentando una peor eficacia alimenticia (P<0.05) que los lechones que lo recibieron solo durante 7 14 días. La digestibilidad de la MO fue mayor en los lechones alimentados con los piensos AC que en los alimentados con piensos BC (P<0.05). La granulación del pienso mejoró la digestibilidad de los principales nutrientes. Los piensos prestárter AC mejoraron la digestibilidad de los nutrientes pero no la eficiencia alimenticia en lechones ibéricos de 28 a 63 días de edad. La granulación del pienso mejoró la eficiencia alimenticia. El aumento del suministro del pienso prestárter de 7 a 21 días mejoró la eficiencia alimenticia pero redujo la GMD. Por lo tanto, la utilización de piensos granulados de alta calidad durante el periodo prestárter es recomendable en lechones ibéricos, pero solo durante la primera semana post-destete. ABSTRACT The main objectives of this PhD Thesis were to study the effects of a) heat processing (HP) of corn and inclusion of high quality ingredients of animal origin such as fish meal (FM) and dried milk products in the diet, b) inclusion of different soy products varying in crude protein (CP) content, particle size, and origin of the beans in diets for conventional white and Iberian weanling pigs, and c) effects of ingredient quality, feed form, and duration of supply of the phase I diets on growth performance, nutrient digestibility, and intestinal morphology of weanling pigs. In experiment 1, the effect of diet complexity on total tract apparent digestibility (TTAD) and growth performance was studied in piglets from 21 to 62 d of age. There were 10 experimental treatments which resulted from the combination of 5 phase I (21 to 41 d of age) and 2 phase II (42 to 62 d of age) diets. The 5 phase I diets consisted of a negative control diet that contained 40 % raw corn, 4% FM, and 7% lactose (LAC); a positive control diet that contained 40 % HP corn, 10% FM, and 14% LAC, and 3 extra diets that used similar ingredients to those of the positive control diet but in which a) 40% of HP corn was substituted by raw corn, b) 4% FM rather than 10% FM, and c) 7% LAC instead of 14% LAC were included in the diet. Each treatment was replicated 6 times (6 pigs per pen). From 42 to 62 d of age, half of the pens of each of the 5 phase I treatments received a standard soybean meal (SBM)–native corn–lard diet wheras the other half received a diet with similar nutrient profile but that included 20% HP corn, 5% FM, 1.3% lactosa, 2% fermented soy protein concentrate, and 1% soybean oil in substitution of variables amounts of non-processed corn, SBM, and lard. Dietary treatment did not affect piglet performance at any age, but the incidence of post-weaning diarrhea (PWD) was higher during phase I in piglets fed the negative control diet than in piglets fed any of the other diets (P<0.05). At 30 d of age (phase I diets), the TTAD of organic matter (OM) and gross energy (GE) was lower (P<0.001) in pigs fed the negative control diet than in pigs fed the other diets but CP digestibility was not affected. At 50 d of age (phase II diets), dietary treatment did not affect TTAD of any dietary component. It is concluded that the use of high quality ingredients at high levels in the diet did not improve growth performance of piglets at any age. From 21 to 41 d of age, PWD was reduced and nutrient digestibility was increased in pigs fed the more complex diets. Consequently, the inclusion of high levels of high quality ingredients in piglet diets to maximize growth performance might not be justified under all circumstances In experiment 2, the effect of CP content (44 vs. 49 % CP) of SBM, micronization (fine grinding) of the high CP SBM (HP-SBM; 49% CP), and soy protein concentrate (SPC; 65% CP) on TTAD and growth performance was studied in conventional white piglets from 28 to 63 d of age. From 28 to 49 d of age (phase I), there was a positive control diet that included 6.5% CP from SPC and a negative control diet that supplied the same amount of CP as regular SBM (R-SBM; 44% CP) of Argentina (ARG) origin. The other 4 diets included the same amount of dietary CP from 2 sources of HP-SBM (USA or ARG origin), either ground (990 μm) or micronized (60 μm). Each treatment was replicated 8 times (6 pigs per pen). From 49 to 63 d of age (phase II), all pigs were fed a common commercial starter diet. For the entire phase I, type of soy product included in the diet did not affect growth performance of the pigs. However, from 28 to 35 d of age pigs fed the micronized HP-SBM had better feed conversion ratio (FCR; 0.90 vs. 1.01; P<0.05) than pigs fed the ground HP-SBM. Also, from 35 to 42 d of age, average daily feed intake (ADFI) tended to be higher (P=0.08) for pigs fed the micronized HP-SBM than for pigs fed the ground HP-SBM. During phase II, when all the pigs received the same diet, no differences among treatments were observed. In general, the TTAD of nutrients at 35 d of age was higher for the SPC than for the R-SBM diet with the HP-SBM diets being intermediate. The TTAD of CP was higher (83.8% vs. 81.9%; P≤0.01) for the SPC diet than for the average of 5 SBM containing diets. Also, the digestibility of OM and dry matter (DM) was higher (P<0.01) for the HP-SBM, either ground or micronized, than for the R-SBM diet. Micronization of the HP-SBM did not affect nutrient digestibility. It is concluded that when R-SBM was substituted by SPC, CP digestibility was improved but no effects on growth performance were observed. The use of HP-SBM in substitution of R-SBM in the diet improved nutrient digestibility but did not affect piglet performance. The inclusion of micronized HP-SBM in the diet improved FCR during the first week post-weaning but did not affect TTAD of nutrients. Therefore, the inclusion of added value soy products (SPC or micronized SBM) in the diet presents little advantage in terms of growth performance over the use of HP-SBM in pigs weaned at 28 d of age. In experiment 3, the effects of the same sources of soy protein used in experiment 2 on TTAD and growth performance of crossbreed Iberian pigs from 30 to 61 d of age were studied. In addition, the apparent ileal digestibility (AID) of nutrients and mucosa ileum morphology were also determined. Dietary treatment did not affect growth performance of the pigs at any age but from 30 to 51 d of age (phase I diets), PWD was higher (P<0.001) and the TTAD and AID of all nutrients were lower for pigs fed the R-SBM diet than for pigs fed the HP-SBM or the SPC diets. However, no differences between the HP-SBM and the SPC containing diets were detected for digestibility of any dietary component. The TTAD of OM (P=0.07) and GE (P=0.05) tended to be higher for the micronized HP-SBM than for the ground HP-SBM and that of GE was higher (P<0.05) for the USA meal than for the ARG meal. Pigs fed R-SBM had lower villus height (P<0.01) than pigs fed HP-SBM or SPC but no differences in ileal mucosal morphology were detected between SPC and HP-SBM containing diets. It is concluded that feeding the HP-SBM or SPC in substitution of R-SBM reduced PWD and improved nutrient digestibility and ileal morphology in piglets as compared with feeding the R-SBM, but had no effect on growth performance. The inclusion in the diet of added value soy products (micronized SBM or SPC) in substitution of the R-SBM increased the TTAD of all nutrients and reduced PWD but had no advantage in terms of growth performance over the use of ground HP-SBM. In experiment 4, the effect of CP content and ingredient complexity, feed form, and duration of feeding of the phase I diets on growth performance and TTAD of nutrients were studied in Iberian pigs from 28 to 63 d of age. There were 12 dietary treatments with 2 type of feeds (HQ; higher quality and LQ; medium quality), 2 feed forms (pellets vs. mash), and 3 durations of supply (7, 14, and 21 d) of the phase I diets. From d 7, 14, or 21 (depending on treatment) to d 35 of experiment, all pigs received a common diet in mash form. Each treatment was replicated 3 times (6 pigs/pen). For the entire experiment, average daily gain (ADG; P<0.05) and ADFI (P<0.01) were lower with the HQ than with the LQ phase I diets but FCR was not affected. Pelleting of the phase I diets did not affect ADG but improved FCR (P<0.01). Feeding the phase I diets from d 0 to 21 improved FCR (P<0.05) but decreased ADG (P<0.01) as compared with 7 or 14 d of feeding. Post-weaning diarrhea tended to be higher (P=0.06) for pigs fed the HQ diets than for pigs fed the LQ diets and for pigs fed pellets than for pigs fed mash (P<0.001). Also, PWD was higher for pigs fed the phase I diet for 14 or 21 d than for pigs fed this diet for 7 d (P<0.01). From d 0 to 21, ADG and FCR were not affected by feed quality but feeding pellets or increasing the duration of feeding the phase I diets improved FCR (P<0.01). Also, in this period PWD was higher with pellets than with mash and for pigs fed the phase I diets for 14 or 21 d than for pigs fed this diet for only 7 d (P<0.01). From d 21 to 35, pigs previously fed the LQ diet had higher ADG than pigs fed the HQ phase I diets (P<0.001). Also, pigs that were fed the phase I diets for 21 d had lower ADG (P<0.05) and ADFI (P< 0.001) and poor FCR (P<0.05) than pigs fed these diets for 7 or 14 d. Organic matter digestibility was higher for pigs fed the HQ phase I diets than for pigs fed the LQ phase I diets (P<0.05). Pelleting improved TTAD of all nutrients (P<0.01). It is concluded that HQ phase I diets increased TTAD of nutrients but not feed efficiency of Iberian pigs from d 28 to 63 d of age. Also, pelleting improved nutrient digestibility and feed efficiency. Increasing the duration of supply of the phase I diets from 7 to 21 d improved feed efficiency but reduced ADG. Therefore, the use of LQ phase I diets in pellet form for no more than 7 d after weaning is recommended in Iberian pigs.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los daños por magulladura son una de las principales causas de pérdida de calidad en frutos de pepita. La magnitud de los daños depende del número de impactos que ha soportado el fruto, de la energía de cada impacto y de las características de la superficie impactada; también influyen las propiedades físicas del propio fruto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El presente trabajo de tesis investiga el efecto del fenómeno conocido como “Cross-talk” generado por el modo lateral de vibración, en la respuesta de un transductor ultrasónico formado por un arreglo de elementos piezoeléctricos tipo PZT (Zircanato Titanato de Plomo), la investigación se lleva a cabo desde el punto de vista de la naturaleza física de este efecto, así como de los parámetros asociados al mismo, así como un análisis del efecto del “Cross-talk” en la respuesta del transductor, formado por arreglos de elementos piezoeléctricos. Diversas investigaciones han abordado el fenómeno del “Cross-talk” y de sus efectos en la respuesta de los transductores, estos se han enfocado principalmente al modo espesor (thickness) de vibración. Sin embargo no ha habido un estudio a fondo para el estudio de este fenómeno en el modo lateral de vibración tema de interés de este trabajo de tesis. Este trabajo incluye simulaciones del fenómeno del “Cross-talk” mediante el método de los elementos finitos (MEF), así como la construcción de un transductor tipo matricial (arrray) de 2x3 elementos, en el que fueron realizadas las mediciones físicas del fenómeno. El trabajo abarca un estudio comparativo entre las simulaciones y las mediciones realizadas en el transductor, considerando que las cerámicas del transductor están montadas sobre diferentes materiales (backing) en donde la propagación de la energía emitida por las cerámicas piezoeléctricas provoca un mayor o menor grado de “Cross-talk” dependiendo de la velocidad en que se propaga dicha energía. Esta investigación también llevó a cabo el estudio del efecto del “Cross-talk” en el patrón de radiación que emite el arreglo de elementos piezoeléctricos, siendo este patrón de radiación un factor importante en la respuesta del transductor, motivo por el cual se realizó un análisis de cómo se ve afectado este patrón bajo la influencia del fenómeno del “Cross-talk”. Como ya se mencionó debido a la falta de un estudio a profundidad del fenómeno del “Cross-talk” en el modo lateral, la contribución del presente trabajo es importante ya que se enfoca al modo lateral de vibración de los elementos piezoeléctricos del arreglo. En particular se desarrollo una ecuación que permite cuantificar el fenómeno del “Cross-talk” y visualizar sus efectos en el arreglo. Derivando de este estudio se concluye que el fenómeno del “Cross-talk” generado por el modo lateral de vibración tiene un efecto significativo en la respuesta de los diferentes transductores matriciales considerados. ABSTRACT This thesis investigates the effect of the phenomenon known as crosstalk from the point of view of its physical nature and the elements that lead to the formation of this phenomenon to an analysis of how it may affect the performance of the ultrasonic transducer. This phenomenon occurs primarily in matrix arrays and this phenomenon is magnified by certain factors causing serious problems in the performance of a transducer. Researchers have addressed the phenomenon of crosstalk and their effects on the response of these transducers. They have mainly focused in the thickness vibration mode, and there has been no comprehensive study of this phenomenon in the lateral vibration mode, issue of interest of this thesis. This work includes simulations of the crosstalk phenomenon using the finite element method (FEM), and the construction of a matrix type transducer (array) of 2x3 elements, in which physical measurements were made. The work includes a comparative study between simulations and measurements in the transducer, whereas the ceramic transducer are mounted on different materials (backing) where the spread of the energy emitted by the piezoelectric ceramic causes a greater or lesser degree of crosstalk depending on the speed at which this energy spreads. This research also carried out the study of the effect of the crosstalk in the radiation pattern emitted by the piezoelectric array. The radiation pattern is an important factor in the response of the transducer that is why we conducted an analysis of how this pattern is affected under the influence of the crosstalk phenomenon. As mentioned before because of the lack of an in-depth study of the crosstalk phenomenon in the lateral vibration mode, the contribution of this work is important because it focuses in this vibration mode of the piezoelectric elements in the array. In particular, an equation was developed to quantify the crosstalk phenomenon and to see its effects in the array. Deriving from this study it is possible to conclude that the crosstalk phenomenon generated by the lateral vibration mode has a significant effect on the response of the different matrix transducers considered in this work.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Wireless sensor networks (WSNs) have shown their potentials in various applications, which bring a lot of benefits to users from both research and industrial areas. For many setups, it is envisioned thatWSNs will consist of tens to hundreds of nodes that operate on small batteries. However due to the diversity of the deployed environments and resource constraints on radio communication, sensing ability and energy supply, it is a very challenging issue to plan optimized WSN topology and predict its performance before real deployment. During the network planning phase, the connectivity, coverage, cost, network longevity and service quality should all be considered. Therefore it requires designers coping with comprehensive and interdisciplinary knowledge, including networking, radio engineering, embedded system and so on, in order to efficiently construct a reliable WSN for any specific types of environment. Nowadays there is still a lack of the analysis and experiences to guide WSN designers to efficiently construct WSN topology successfully without many trials. Therefore, simulation is a feasible approach to the quantitative analysis of the performance of wireless sensor networks. However the existing planning algorithms and tools, to some extent, have serious limitations to practically design reliable WSN topology: Only a few of them tackle the 3D deployment issue, and an overwhelming number of works are proposed to place devices in 2D scheme. Without considering the full dimension, the impacts of environment to the performance of WSN are not completely studied, thus the values of evaluated metrics such as connectivity and sensing coverage are not sufficiently accurate to make proper decision. Even fewer planning methods model the sensing coverage and radio propagation by considering the realistic scenario where obstacles exist. Radio signals propagate with multi-path phenomenon in the real world, in which direct paths, reflected paths and diffracted paths contribute to the received signal strength. Besides, obstacles between the path of sensor and objects might block the sensing signals, thus create coverage hole in the application. None of the existing planning algorithms model the network longevity and packet delivery capability properly and practically. They often employ unilateral and unrealistic formulations. The optimization targets are often one-sided in the current works. Without comprehensive evaluation on the important metrics, the performance of planned WSNs can not be reliable and entirely optimized. Modeling of environment is usually time consuming and the cost is very high, while none of the current works figure out any method to model the 3D deployment environment efficiently and accurately. Therefore many researchers are trapped by this issue, and their algorithms can only be evaluated in the same scenario, without the possibility to test the robustness and feasibility for implementations in different environments. In this thesis, we propose a novel planning methodology and an intelligent WSN planning tool to assist WSN designers efficiently planning reliable WSNs. First of all, a new method is proposed to efficiently and automatically model the 3D indoor and outdoor environments. To the best of our knowledge, this is the first time that the advantages of image understanding algorithm are applied to automatically reconstruct 3D outdoor and indoor scenarios for signal propagation and network planning purpose. The experimental results indicate that the proposed methodology is able to accurately recognize different objects from the satellite images of the outdoor target regions and from the scanned floor plan of indoor area. Its mechanism offers users a flexibility to reconstruct different types of environment without any human interaction. Thereby it significantly reduces human efforts, cost and time spent on reconstructing a 3D geographic database and allows WSN designers concentrating on the planning issues. Secondly, an efficient ray-tracing engine is developed to accurately and practically model the radio propagation and sensing signal on the constructed 3D map. The engine contributes on efficiency and accuracy to the estimated results. By using image processing concepts, including the kd-tree space division algorithm and modified polar sweep algorithm, the rays are traced efficiently without detecting all the primitives in the scene. The radio propagation model iv is proposed, which emphasizes not only the materials of obstacles but also their locations along the signal path. The sensing signal of sensor nodes, which is sensitive to the obstacles, is benefit from the ray-tracing algorithm via obstacle detection. The performance of this modelling method is robust and accurate compared with conventional methods, and experimental results imply that this methodology is suitable for both outdoor urban scenes and indoor environments. Moreover, it can be applied to either GSM communication or ZigBee protocol by varying frequency parameter of the radio propagation model. Thirdly, WSN planning method is proposed to tackle the above mentioned challenges and efficiently deploy reliable WSNs. More metrics (connectivity, coverage, cost, lifetime, packet latency and packet drop rate) are modeled more practically compared with other works. Especially 3D ray tracing method is used to model the radio link and sensing signal which are sensitive to the obstruction of obstacles; network routing is constructed by using AODV protocol; the network longevity, packet delay and packet drop rate are obtained via simulating practical events in WSNet simulator, which to the best of our knowledge, is the first time that network simulator is involved in a planning algorithm. Moreover, a multi-objective optimization algorithm is developed to cater for the characteristics of WSNs. The capability of providing multiple optimized solutions simultaneously allows users making their own decisions accordingly, and the results are more comprehensively optimized compared with other state-of-the-art algorithms. iMOST is developed by integrating the introduced algorithms, to assist WSN designers efficiently planning reliable WSNs for different configurations. The abbreviated name iMOST stands for an Intelligent Multi-objective Optimization Sensor network planning Tool. iMOST contributes on: (1) Convenient operation with a user-friendly vision system; (2) Efficient and automatic 3D database reconstruction and fast 3D objects design for both indoor and outdoor environments; (3) It provides multiple multi-objective optimized 3D deployment solutions and allows users to configure the network properties, hence it can adapt to various WSN applications; (4) Deployment solutions in the 3D space and the corresponding evaluated performance are visually presented to users; and (5) The Node Placement Module of iMOST is available online as well as the source code of the other two rebuilt heuristics. Therefore WSN designers will be benefit from v this tool on efficiently constructing environment database, practically and efficiently planning reliable WSNs for both outdoor and indoor applications. With the open source codes, they are also able to compare their developed algorithms with ours to contribute to this academic field. Finally, solid real results are obtained for both indoor and outdoor WSN planning. Deployments have been realized for both indoor and outdoor environments based on the provided planning solutions. The measured results coincide well with the estimated results. The proposed planning algorithm is adaptable according to the WSN designer’s desirability and configuration, and it offers flexibility to plan small and large scale, indoor and outdoor 3D deployments. The thesis is organized in 7 chapters. In Chapter 1, WSN applications and motivations of this work are introduced, the state-of-the-art planning algorithms and tools are reviewed, challenges are stated out and the proposed methodology is briefly introduced. In Chapter 2, the proposed 3D environment reconstruction methodology is introduced and its performance is evaluated for both outdoor and indoor environment. The developed ray-tracing engine and proposed radio propagation modelling method are described in details in Chapter 3, their performances are evaluated in terms of computation efficiency and accuracy. Chapter 4 presents the modelling of important metrics of WSNs and the proposed multi-objective optimization planning algorithm, the performance is compared with the other state-of-the-art planning algorithms. The intelligent WSN planning tool iMOST is described in Chapter 5. RealWSN deployments are prosecuted based on the planned solutions for both indoor and outdoor scenarios, important data are measured and results are analysed in Chapter 6. Chapter 7 concludes the thesis and discusses about future works. vi Resumen en Castellano Las redes de sensores inalámbricas (en inglés Wireless Sensor Networks, WSNs) han demostrado su potencial en diversas aplicaciones que aportan una gran cantidad de beneficios para el campo de la investigación y de la industria. Para muchas configuraciones se prevé que las WSNs consistirán en decenas o cientos de nodos que funcionarán con baterías pequeñas. Sin embargo, debido a la diversidad de los ambientes para desplegar las redes y a las limitaciones de recursos en materia de comunicación de radio, capacidad de detección y suministro de energía, la planificación de la topología de la red y la predicción de su rendimiento es un tema muy difícil de tratar antes de la implementación real. Durante la fase de planificación del despliegue de la red se deben considerar aspectos como la conectividad, la cobertura, el coste, la longevidad de la red y la calidad del servicio. Por lo tanto, requiere de diseñadores con un amplio e interdisciplinario nivel de conocimiento que incluye la creación de redes, la ingeniería de radio y los sistemas embebidos entre otros, con el fin de construir de manera eficiente una WSN confiable para cualquier tipo de entorno. Hoy en día todavía hay una falta de análisis y experiencias que orienten a los diseñadores de WSN para construir las topologías WSN de manera eficiente sin realizar muchas pruebas. Por lo tanto, la simulación es un enfoque viable para el análisis cuantitativo del rendimiento de las redes de sensores inalámbricos. Sin embargo, los algoritmos y herramientas de planificación existentes tienen, en cierta medida, serias limitaciones para diseñar en la práctica una topología fiable de WSN: Sólo unos pocos abordan la cuestión del despliegue 3D mientras que existe una gran cantidad de trabajos que colocan los dispositivos en 2D. Si no se analiza la dimensión completa (3D), los efectos del entorno en el desempeño de WSN no se estudian por completo, por lo que los valores de los parámetros evaluados, como la conectividad y la cobertura de detección, no son lo suficientemente precisos para tomar la decisión correcta. Aún en menor medida los métodos de planificación modelan la cobertura de los sensores y la propagación de la señal de radio teniendo en cuenta un escenario realista donde existan obstáculos. Las señales de radio en el mundo real siguen una propagación multicamino, en la que los caminos directos, los caminos reflejados y los caminos difractados contribuyen a la intensidad de la señal recibida. Además, los obstáculos entre el recorrido del sensor y los objetos pueden bloquear las señales de detección y por lo tanto crear áreas sin cobertura en la aplicación. Ninguno de los algoritmos de planificación existentes modelan el tiempo de vida de la red y la capacidad de entrega de paquetes correctamente y prácticamente. A menudo se emplean formulaciones unilaterales y poco realistas. Los objetivos de optimización son a menudo tratados unilateralmente en los trabajos actuales. Sin una evaluación exhaustiva de los parámetros importantes, el rendimiento previsto de las redes inalámbricas de sensores no puede ser fiable y totalmente optimizado. Por lo general, el modelado del entorno conlleva mucho tiempo y tiene un coste muy alto, pero ninguno de los trabajos actuales propone algún método para modelar el entorno de despliegue 3D con eficiencia y precisión. Por lo tanto, muchos investigadores están limitados por este problema y sus algoritmos sólo se pueden evaluar en el mismo escenario, sin la posibilidad de probar la solidez y viabilidad para las implementaciones en diferentes entornos. En esta tesis, se propone una nueva metodología de planificación así como una herramienta inteligente de planificación de redes de sensores inalámbricas para ayudar a los diseñadores a planificar WSNs fiables de una manera eficiente. En primer lugar, se propone un nuevo método para modelar demanera eficiente y automática los ambientes interiores y exteriores en 3D. Según nuestros conocimientos hasta la fecha, esta es la primera vez que las ventajas del algoritmo de _image understanding_se aplican para reconstruir automáticamente los escenarios exteriores e interiores en 3D para analizar la propagación de la señal y viii la planificación de la red. Los resultados experimentales indican que la metodología propuesta es capaz de reconocer con precisión los diferentes objetos presentes en las imágenes satelitales de las regiones objetivo en el exterior y de la planta escaneada en el interior. Su mecanismo ofrece a los usuarios la flexibilidad para reconstruir los diferentes tipos de entornos sin ninguna interacción humana. De este modo se reduce considerablemente el esfuerzo humano, el coste y el tiempo invertido en la reconstrucción de una base de datos geográfica con información 3D, permitiendo así que los diseñadores se concentren en los temas de planificación. En segundo lugar, se ha desarrollado un motor de trazado de rayos (en inglés ray tracing) eficiente para modelar con precisión la propagación de la señal de radio y la señal de los sensores en el mapa 3D construido. El motor contribuye a la eficiencia y la precisión de los resultados estimados. Mediante el uso de los conceptos de procesamiento de imágenes, incluyendo el algoritmo del árbol kd para la división del espacio y el algoritmo _polar sweep_modificado, los rayos se trazan de manera eficiente sin la detección de todas las primitivas en la escena. El modelo de propagación de radio que se propone no sólo considera los materiales de los obstáculos, sino también su ubicación a lo largo de la ruta de señal. La señal de los sensores de los nodos, que es sensible a los obstáculos, se ve beneficiada por la detección de objetos llevada a cabo por el algoritmo de trazado de rayos. El rendimiento de este método de modelado es robusto y preciso en comparación con los métodos convencionales, y los resultados experimentales indican que esta metodología es adecuada tanto para escenas urbanas al aire libre como para ambientes interiores. Por otra parte, se puede aplicar a cualquier comunicación GSM o protocolo ZigBee mediante la variación de la frecuencia del modelo de propagación de radio. En tercer lugar, se propone un método de planificación de WSNs para hacer frente a los desafíos mencionados anteriormente y desplegar redes de sensores fiables de manera eficiente. Se modelan más parámetros (conectividad, cobertura, coste, tiempo de vida, la latencia de paquetes y tasa de caída de paquetes) en comparación con otros trabajos. Especialmente el método de trazado de rayos 3D se utiliza para modelar el enlace de radio y señal de los sensores que son sensibles a la obstrucción de obstáculos; el enrutamiento de la red se construye utilizando el protocolo AODV; la longevidad de la red, retardo de paquetes ix y tasa de abandono de paquetes se obtienen a través de la simulación de eventos prácticos en el simulador WSNet, y según nuestros conocimientos hasta la fecha, es la primera vez que simulador de red está implicado en un algoritmo de planificación. Por otra parte, se ha desarrollado un algoritmo de optimización multi-objetivo para satisfacer las características de las redes inalámbricas de sensores. La capacidad de proporcionar múltiples soluciones optimizadas de forma simultánea permite a los usuarios tomar sus propias decisiones en consecuencia, obteniendo mejores resultados en comparación con otros algoritmos del estado del arte. iMOST se desarrolla mediante la integración de los algoritmos presentados, para ayudar de forma eficiente a los diseñadores en la planificación de WSNs fiables para diferentes configuraciones. El nombre abreviado iMOST (Intelligent Multi-objective Optimization Sensor network planning Tool) representa una herramienta inteligente de planificación de redes de sensores con optimización multi-objetivo. iMOST contribuye en: (1) Operación conveniente con una interfaz de fácil uso, (2) Reconstrucción eficiente y automática de una base de datos con información 3D y diseño rápido de objetos 3D para ambientes interiores y exteriores, (3) Proporciona varias soluciones de despliegue optimizadas para los multi-objetivo en 3D y permite a los usuarios configurar las propiedades de red, por lo que puede adaptarse a diversas aplicaciones de WSN, (4) las soluciones de implementación en el espacio 3D y el correspondiente rendimiento evaluado se presentan visualmente a los usuarios, y (5) El _Node Placement Module_de iMOST está disponible en línea, así como el código fuente de las otras dos heurísticas de planificación. Por lo tanto los diseñadores WSN se beneficiarán de esta herramienta para la construcción eficiente de la base de datos con información del entorno, la planificación práctica y eficiente de WSNs fiables tanto para aplicaciones interiores y exteriores. Con los códigos fuente abiertos, son capaces de comparar sus algoritmos desarrollados con los nuestros para contribuir a este campo académico. Por último, se obtienen resultados reales sólidos tanto para la planificación de WSN en interiores y exteriores. Los despliegues se han realizado tanto para ambientes de interior y como para ambientes de exterior utilizando las soluciones de planificación propuestas. Los resultados medidos coinciden en gran medida con los resultados estimados. El algoritmo de planificación x propuesto se adapta convenientemente al deiseño de redes de sensores inalámbricas, y ofrece flexibilidad para planificar los despliegues 3D a pequeña y gran escala tanto en interiores como en exteriores. La tesis se estructura en 7 capítulos. En el Capítulo 1, se presentan las aplicaciones de WSN y motivaciones de este trabajo, se revisan los algoritmos y herramientas de planificación del estado del arte, se presentan los retos y se describe brevemente la metodología propuesta. En el Capítulo 2, se presenta la metodología de reconstrucción de entornos 3D propuesta y su rendimiento es evaluado tanto para espacios exteriores como para espacios interiores. El motor de trazado de rayos desarrollado y el método de modelado de propagación de radio propuesto se describen en detalle en el Capítulo 3, evaluándose en términos de eficiencia computacional y precisión. En el Capítulo 4 se presenta el modelado de los parámetros importantes de las WSNs y el algoritmo de planificación de optimización multi-objetivo propuesto, el rendimiento se compara con los otros algoritmos de planificación descritos en el estado del arte. La herramienta inteligente de planificación de redes de sensores inalámbricas, iMOST, se describe en el Capítulo 5. En el Capítulo 6 se llevan a cabo despliegues reales de acuerdo a las soluciones previstas para los escenarios interiores y exteriores, se miden los datos importantes y se analizan los resultados. En el Capítulo 7 se concluye la tesis y se discute acerca de los trabajos futuros.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La planificación de la movilidad sostenible urbana es una tarea compleja que implica un alto grado de incertidumbre debido al horizonte de planificación a largo plazo, la amplia gama de paquetes de políticas posibles, la necesidad de una aplicación efectiva y eficiente, la gran escala geográfica, la necesidad de considerar objetivos económicos, sociales y ambientales, y la respuesta del viajero a los diferentes cursos de acción y su aceptabilidad política (Shiftan et al., 2003). Además, con las tendencias inevitables en motorización y urbanización, la demanda de terrenos y recursos de movilidad en las ciudades está aumentando dramáticamente. Como consecuencia de ello, los problemas de congestión de tráfico, deterioro ambiental, contaminación del aire, consumo de energía, desigualdades en la comunidad, etc. se hacen más y más críticos para la sociedad. Esta situación no es estable a largo plazo. Para enfrentarse a estos desafíos y conseguir un desarrollo sostenible, es necesario considerar una estrategia de planificación urbana a largo plazo, que aborde las necesarias implicaciones potencialmente importantes. Esta tesis contribuye a las herramientas de evaluación a largo plazo de la movilidad urbana estableciendo una metodología innovadora para el análisis y optimización de dos tipos de medidas de gestión de la demanda del transporte (TDM). La metodología nueva realizado se basa en la flexibilización de la toma de decisiones basadas en utilidad, integrando diversos mecanismos de decisión contrariedad‐anticipada y combinados utilidad‐contrariedad en un marco integral de planificación del transporte. La metodología propuesta incluye dos aspectos principales: 1) La construcción de escenarios con una o varias medidas TDM usando el método de encuesta que incorpora la teoría “regret”. La construcción de escenarios para este trabajo se hace para considerar específicamente la implementación de cada medida TDM en el marco temporal y marco espacial. Al final, se construyen 13 escenarios TDM en términos del más deseable, el más posible y el de menor grado de “regret” como resultado de una encuesta en dos rondas a expertos en el tema. 2) A continuación se procede al desarrollo de un marco de evaluación estratégica, basado en un Análisis Multicriterio de Toma de Decisiones (Multicriteria Decision Analysis, MCDA) y en un modelo “regret”. Este marco de evaluación se utiliza para comparar la contribución de los distintos escenarios TDM a la movilidad sostenible y para determinar el mejor escenario utilizando no sólo el valor objetivo de utilidad objetivo obtenido en el análisis orientado a utilidad MCDA, sino también el valor de “regret” que se calcula por medio del modelo “regret” MCDA. La función objetivo del MCDA se integra en un modelo de interacción de uso del suelo y transporte que se usa para optimizar y evaluar los impactos a largo plazo de los escenarios TDM previamente construidos. Un modelo de “regret”, llamado “referencedependent regret model (RDRM)” (modelo de contrariedad dependiente de referencias), se ha adaptado para analizar la contribución de cada escenario TDM desde un punto de vista subjetivo. La validación de la metodología se realiza mediante su aplicación a un caso de estudio en la provincia de Madrid. La metodología propuesta define pues un procedimiento técnico detallado para la evaluación de los impactos estratégicos de la aplicación de medidas de gestión de la demanda en el transporte, que se considera que constituye una herramienta de planificación útil, transparente y flexible, tanto para los planificadores como para los responsables de la gestión del transporte. Planning sustainable urban mobility is a complex task involving a high degree of uncertainty due to the long‐term planning horizon, the wide spectrum of potential policy packages, the need for effective and efficient implementation, the large geographical scale, the necessity to consider economic, social, and environmental goals, and the traveller’s response to the various action courses and their political acceptability (Shiftan et al., 2003). Moreover, with the inevitable trends on motorisation and urbanisation, the demand for land and mobility in cities is growing dramatically. Consequently, the problems of traffic congestion, environmental deterioration, air pollution, energy consumption, and community inequity etc., are becoming more and more critical for the society (EU, 2011). Certainly, this course is not sustainable in the long term. To address this challenge and achieve sustainable development, a long‐term perspective strategic urban plan, with its potentially important implications, should be established. This thesis contributes on assessing long‐term urban mobility by establishing an innovative methodology for optimizing and evaluating two types of transport demand management measures (TDM). The new methodology aims at relaxing the utility‐based decision‐making assumption by embedding anticipated‐regret and combined utilityregret decision mechanisms in an integrated transport planning framework. The proposed methodology includes two major aspects: 1) Construction of policy scenarios within a single measure or combined TDM policy‐packages using the survey method incorporating the regret theory. The purpose of building the TDM scenarios in this work is to address the specific implementation in terms of time frame and geographic scale for each TDM measure. Finally, 13 TDM scenarios are built in terms of the most desirable, the most expected and the least regret choice by means of the two‐round Delphi based survey. 2) Development of the combined utility‐regret analysis framework based on multicriteria decision analysis (MCDA). This assessment framework is used to compare the contribution of the TDM scenario towards sustainable mobility and to determine the best scenario considering not only the objective utility value obtained from the utilitybased MCDA, but also a regret value that is calculated via a regret‐based MCDA. The objective function of the utility‐based MCDA is integrated in a land use and transport interaction model and is used for optimizing and assessing the long term impacts of the constructed TDM scenarios. A regret based model, called referente dependent regret model (RDRM) is adapted to analyse the contribution of each TDM scenario in terms of a subjective point of view. The suggested methodology is implemented and validated in the case of Madrid. It defines a comprehensive technical procedure for assessing strategic effects of transport demand management measures, which can be useful, transparent and flexible planning tool both for planners and decision‐makers.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Para definir estrategias de mitigación del cambio global y poder plantearse objetivos para la estimación de energía procedente de la biomasa a nivel nacional y Europeo, así como para apoyar la propuesta de un aumento del uso de madera como una decisión posterior al Protocolo de Kioto, es necesario conocer la disponibilidad de madera en Europa sobre una base sostenible. Además, escenarios futuros en el ámbito de la UE destacan un déficit en el abastecimiento de madera en comparación con su consumo. Dicha información armonizada es urgente para mejorar la base de cálculo para la toma de decisiones sobre los sistemas forestales, el medio ambiente y el sector de la energía. Con ese objetivo se ha creado la Acción Cost FP1001 USEWOOD ?Mejora de datos e información sobre el suministro de los recursos madereros: una aproximación europea desde los inventarios forestales nacionales multi-recursos?. En este trabajo se presentan además de las líneas de acción de este proyecto, las diferentes aproximaciones de los países europeos para la determinación de la superficie forestal disponible para suministro de madera y/o leña, las restricciones que consideran los diferentes países para su determinación y las posibilidades de armonización a nivel europeo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el artículo se discute el papel de la energía hidroeléctrica en el marco del sistema eléctrico español, donde existe una elevada penetración de energías no gestionables con una tendencia clara a aumentar en los próximos años. El desarrollo de nuevas centrales hidroeléctricas se basará probablemente en centrales reversibles. La energía hidroeléctrica es una tecnología madura y eficiente para el almacenamiento de energía a gran escala y contribuye por tanto de manera decisiva a la integración de fuentes renovables no gestionables. Los beneficios obtenidos con la operación punta-valle pueden ser insuficientes para compensar el coste de una nueva central. Sin embargo, los ingresos obtenidos pueden incrementarse sustancialmente mediante su participación en los servicios de ajuste del sistema. Ello requeriría un diseño apropiado del mercado eléctrico. La contribución de las centrales hidráulicas reversibles al balance producción-consumo puede extenderse a las horas valle utilizando, bien bombeo en velocidad variable o bien una configuración de cortocircuito hidráulico. La necesidad de mitigar los efectos hidrológicos aguas abajo de las centrales hidroeléctricas puede introducir algunas restricciones en la operación que limitaría de algún modo los servicios descritos más arriba. Sin embargo, cabe esperar que los efectos ambientales provocados por las centrales hidráulicas reversibles sean significativamente menores. In this paper the role of hydropower in electric power systems is discussed, in the framework of the Spanish system, where a high penetration of intermittent power sources exists, showing a clear trend to increase in next years. The development of new hydro power facilities will be likely based on pumped storage hydro power plants. Hydropower is a mature and efficient technology for large-scale energy storage and therefore represents a key contribution for the integration of intermittent power sources, such as wind or photovoltaic. The benefits obtained from load shifting may be insufficient to compensate the costs of a new plant. However, the obtained revenues can significantly increase through its contribution to providing ancillary services. This would require an appropriate design of the electricity market. The contribution of pumped storage hydro power plants to balancing services can be extended to off-peak hours, using either variable speed pumping or the hydraulic shortcircuit configuration. The need to mitigate hydrological effects downstream of hydro plants may introduce some operational constraints which could limit to some extent the services described above. However environmental effects caused by pumped storage hydro power plants are expected to be significantly smaller.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La Academia de Ingeniería fue fundada como Corporación de Derecho Público por Real Decreto de S. M. Juan Carlos I el 29 de abril de 1994 y recibió el título de «real» el 14 de julio de 2003. Según indican sus estatutos, se trataba de crear una entidad activa y cualificada en la prospección y análisis crítico de la evolución científica y técnica con capacidad de aconsejar tanto a organismos del Estado como a la sociedad en general. La promoción de la calidad y la competencia de la ingeniería es el objetivo permanente de la RAI. Se intenta cumplir con él actuando en varios frentes. En primer lugar reconociendo el mérito: el de las personas mediante su elección como miembros de la Academia, el de las empresas mediante el Premio Academiae Dilecta, y el de los estudiosos mediante el Premio a los Investigadores Jóvenes. Se han creado foros de discusión, siguiendo diferentes formatos, para tratar sobre grandes temas de actualidad, tales como la aventura aeroespacial, la biotecnología, la seguridad frente a incendios en los túneles, la energía, el impacto medioambiental de las obras de ingeniería y el futuro de las grandes infraestructuras. También es una labor de estímulo de la calidad y competencia la edición de las Comunicaciones a la Academia, donde se remarca la importancia de la innovación invitando a equipos jóvenes a que presenten logros de la ingeniería española que hayan dado lugar a algún resultado tangible y no meramente especulativo. Satélites, nanotecnología, bioingeniería, comunicaciones, etc., son algunos de los temas de las comunicaciones publicadas hasta ahora. Otro delos fines de la Academia, según el artículo 3 de sus estatutos fundacionales es "elaborar y mantener actualizado un lexicón en lengua castellana de términos relativos a la ingeniería", y sobre ello trata este capítulo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este trabajo se presenta el estudio de la energía de fractura de dos tipos de morteros de cemento reforzados con fibras de vidrio (GRC). El primer tipo es un GRC normal y en el segundo se ha realizado una adición de un 25% en peso de cemento de metacaolín de alta reactividad. El estudio de la energía de fractura de este tipo de material es de especial relevancia puesto que las normas que rigen su utilización no proporcionan datos sobre esta propiedad del material. Para solventar estos problemas se ha planteado una modificación de la recomendación RILEM TC-187-SOC. Se han modificado las dimensiones de las probetas y se han adaptado el resto de características. Los ensayos han mostrado como el GRC de control y el GRC con metacaolín tienen respectivamente una energía de 455 N/m y 1824 N/m.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este trabajo se presenta el estudio de la energía de fractura de dos tipos de morteros de cemento reforzados con fibras de vidrio (GRC). El primer tipo es un GRC normal y en el segundo se ha realizado una adición de un 25% en peso de cemento de metacaolín de alta reactividad. El estudio de la energía de fractura de este tipo de material es de especial relevancia puesto que las normas que rigen su utilización no proporcionan datos sobre esta propiedad del material. Para solventar estos problemas se ha planteado una modificación de la recomendación RILEM TC-187-SOC. Se han modificado las dimensiones de las probetas y se han adaptado el resto de características. Los ensayos han mostrado como el GRC de control y el GRC con metacaolín tienen respectivamente una energía de 455 N/m y 1824 N/m.This work presents the evaluation of the fracture energy of two types of glass fiber reinforced cement (GRC). The first type of GRC had a normal composition and the second type had a 25% of the cement weight metakaolin addition. This metakaolin had high reactivity. The study of the fracture energy in GRC is essential due to the lack of data about this mechanical property. Also the usual test method recommendations of this material do not provide any mean to obtain it. To solve these problems a modification of recommendation RILEM TC-187-SOC has been performed. Sample geometry has been modified to adapt it to GRC while the rest of the test parameters were maintained. Tests results showed that GRC without additions has a fracture energy of 455 N/m and GRC with 25% metakaolin addition has a fracture energy of 1824 N/m.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La energía basada en turbinas hidráulicas de reducida potencia es, a menudo, un ejemplo- modelo dentro del campo de las energías renovables desde su aparición a finales del S. XIX, aunque los ingenios precursores surgen mucho antes. Entre los testimonios más antiguos destacan la saqia o rueda persa y la rueda hidráulica romana que había sido previamente implementada en Extremo Oriente, y que después llega a Europa a través de Egipto. Más tarde, durante la Edad Media y el Renacimiento, se generaliza el uso de los molinos hidráulicos, además de los eólicos. Ejemplos de ello son las norias de Alepo (Siria) y de Córdoba (España). Otro caso interesante es el de los molinos de regolfo en la Península Ibérica e Iberoamérica, muy cercanos en su forma y fundamentos a las turbinas hidráulicas. Algunos de estos ingenios siguen activos en los ríos de España. Posteriormente los estudios de Euler, Burdin y Fourneyron prepararon las bases para el definitivo avance de Pelton, Kaplan, Francis, y otros, pero ya como máquinas motrices de los generadores eléctricos. En la actualidad, se admite como límite superior para minihidráulica aquellas centrales con una potencia instalada de 5000 kW, y considerando que cuando las potencias son inferiores a 100 kW se denomina micro hidráulica, aunque en Latinoamérica este límite se fija en 20 kW. El estudio del recurso hídrico, ayudado del geotécnico, constituyen la base sobre la que podremos proyectar el aprovechamiento hidroeléctrico: selección del tipo de central dentro de la tipología disponible, diseño y cálculos de la turbina, obra civil necesaria (azud, presa, canal, tubería forzada, edificio, aspiración, desagüe, etc.) y equipo electromecánico. El proyecto tecnológico se complementa con el estudio de impacto ambiental y de viabilidad económica. Muchos de estos proyectos tratan de reducir la falta de acceso a la energía en poblaciones desfavorecidas, entendida esta carencia como un factor determinante de la pobreza. Así la energía mini y micro-hidráulica adquiere un nuevo valor como tecnología para el desarrollo humano.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El presente proyecto tiene como objeto la evaluación del parámetro distancia entre focos de emisión de CO2 y estructuras geológicas apropiadas para su almacenamiento, según los datos publicados por el Registro Estatal de Emisiones y Fuentes Contaminantes (PRTR España) y por el proyecto ALGECO2. El parámetro distancia analizado es referido a proyectos de Captura, Transporte y Almacenamiento de CO2 (proyectos CAC) a gran escala. Para ello se ha realizado un estudio en la zona de la Cuenca del Duero aplicando criterios de selección tanto técnicos como socio-económicos, según las recomendaciones de organizaciones como la Agencia Internacional de la Energía o el CCS Institute entre otros. A lo largo de este estudio se ha propuesto y evaluado un sistema de transporte por tubería “punto a punto” o un sistema en “red” determinando cuáles son los más recomendables para un futuro trazado de las líneas de transporte desde un punto de vista sostenible. This present project’s objective is to evaluate the distance parameter among several CO2 sources and adequate geological structures for storage, following the released data by the Registro Estatal de Emisiones y Fuentes Contaminantes (PRTR España) and the ALGECO2 project. The analysed distance parameter is applied to large-scale Carbon Captures and Storage (CCS) projects. For this study, a research has been carried out in the Cuenca del Duero area, utilizing selective criteria as technical as socio-economic, according to recommendations made by organizations such as International Energy Agency and CCS Institute among others. During this research it has been proposed and evaluated a “point to point” pipeline transport system or a “network” transport system, aiming to find the most effective future route selection of the transportation lines from a sustainable point of view.