67 resultados para Función del objeto


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La protección de las aguas subterráneas es una prioridad de la política medioambiental de la UE. Por ello ha establecido un marco de prevención y control de la contaminación, que incluye provisiones para evaluar el estado químico de las aguas y reducir la presencia de contaminantes en ellas. Las herramientas fundamentales para el desarrollo de dichas políticas son la Directiva Marco del Agua y la Directiva Hija de Aguas Subterráneas. Según ellas, las aguas se consideran en buen estado químico si: • la concentración medida o prevista de nitratos no supera los 50 mg/l y la de ingredientes activos de plaguicidas, de sus metabolitos y de los productos de reacción no supera el 0,1 μg/l (0,5 μg/l para el total de los plaguicidas medidos) • la concentración de determinadas sustancias de riesgo es inferior al valor umbral fijado por los Estados miembros; se trata, como mínimo, del amonio, arsénico, cadmio, cloruro, plomo, mercurio, sulfatos, tricloroetileno y tetracloroetileno • la concentración de cualquier otro contaminante se ajusta a la definición de buen estado químico enunciada en el anexo V de la Directiva marco sobre la política de aguas • en caso de superarse el valor correspondiente a una norma de calidad o a un valor umbral, una investigación confirma, entre otros puntos, la falta de riesgo significativo para el medio ambiente. Analizar el comportamiento estadístico de los datos procedentes de la red de seguimiento y control puede resultar considerablemente complejo, debido al sesgo positivo que suelen presentar dichos datos y a su distribución asimétrica, debido a la existencia de valores anómalos y diferentes tipos de suelos y mezclas de contaminantes. Además, la distribución de determinados componentes en el agua subterránea puede presentar concentraciones por debajo del límite de detección o no ser estacionaria debida a la existencia de tendencias lineales o estacionales. En el primer caso es necesario realizar estimaciones de esos valores desconocidos, mediante procedimientos que varían en función del porcentaje de valores por debajo del límite de detección y el número de límites de detección aplicables. En el segundo caso es necesario eliminar las tendencias de forma previa a la realización de contrastes de hipótesis sobre los residuos. Con esta tesis se ha pretendido establecer las bases estadísticas para el análisis riguroso de los datos de las redes de calidad con objeto de realizar la evaluación del estado químico de las masas de agua subterránea para la determinación de tendencias al aumento en la concentración de contaminantes y para la detección de empeoramientos significativos, tanto en los casos que se ha fijado un estándar de calidad por el organismo medioambiental competente como en aquéllos que no ha sido así. Para diseñar una metodología que permita contemplar la variedad de casos existentes, se han analizado los datos de la Red Oficial de Seguimiento y Control del Estado Químico de las Aguas Subterráneas del Ministerio de Agricultura, Alimentación y Medio Ambiente (Magrama). A continuación, y dado que los Planes Hidrológicos de Cuenca son la herramienta básica de las Directivas, se ha seleccionado la Cuenca del Júcar, dada su designación como cuenca piloto en la estrategia de implementación común (CIS) de la Comisión Europea. El objetivo principal de los grupos de trabajo creados para ello se dirigió a implementar la Directiva Derivada de Agua Subterráneas y los elementos de la Directiva Marco del Agua relacionadas, en especial la toma de datos en los puntos de control y la preparación del primer Plan de Gestión de Cuencas Hidrográficas. Dada la extensión de la zona y con objeto de analizar una masa de agua subterránea (definida como la unidad de gestión en las Directivas), se ha seleccionado una zona piloto (Plana de Vinaroz Peñiscola) en la que se han aplicado los procedimientos desarrollados con objeto de determinar el estado químico de dicha masa. Los datos examinados no contienen en general valores de concentración de contaminantes asociados a fuentes puntuales, por lo que para la realización del estudio se han seleccionado valores de concentración de los datos más comunes, es decir, nitratos y cloruros. La estrategia diseñada combina el análisis de tendencias con la elaboración de intervalos de confianza cuando existe un estándar de calidad e intervalos de predicción cuando no existe o se ha superado dicho estándar. De forma análoga se ha procedido en el caso de los valores por debajo del límite de detección, tomando los valores disponibles en la zona piloto de la Plana de Sagunto y simulando diferentes grados de censura con objeto de comparar los resultados obtenidos con los intervalos producidos de los datos reales y verificar de esta forma la eficacia del método. El resultado final es una metodología general que integra los casos existentes y permite definir el estado químico de una masa de agua subterránea, verificar la existencia de impactos significativos en la calidad del agua subterránea y evaluar la efectividad de los planes de medidas adoptados en el marco del Plan Hidrológico de Cuenca. ABSTRACT Groundwater protection is a priority of the EU environmental policy. As a result, it has established a framework for prevention and control of pollution, which includes provisions for assessing the chemical status of waters and reducing the presence of contaminants in it. The measures include: • criteria for assessing the chemical status of groundwater bodies • criteria for identifying significant upward trends and sustained concentrations of contaminants and define starting points for reversal of such trends • preventing and limiting indirect discharges of pollutants as a result of percolation through soil or subsoil. The basic tools for the development of such policies are the Water Framework Directive and Groundwater Daughter Directive. According to them, the groundwater bodies are considered in good status if: • measured or predicted concentration of nitrate does not exceed 50 mg / l and the active ingredients of pesticides, their metabolites and reaction products do not exceed 0.1 mg / l (0.5 mg / l for total of pesticides measured) • the concentration of certain hazardous substances is below the threshold set by the Member States concerned, at least, of ammonium, arsenic, cadmium, chloride, lead, mercury, sulphates, trichloroethylene and tetrachlorethylene • the concentration of other contaminants fits the definition of good chemical status set out in Annex V of the Framework Directive on water policy • If the value corresponding to a quality standard or a threshold value is exceeded, an investigation confirms, among other things, the lack of significant risk to the environment. Analyzing the statistical behaviour of the data from the monitoring networks may be considerably complex due to the positive bias which often presents such information and its asymmetrical distribution, due to the existence of outliers and different soil types and mixtures of pollutants. Furthermore, the distribution of certain components in groundwater may have concentrations below the detection limit or may not be stationary due to the existence of linear or seasonal trends. In the first case it is necessary to estimate these unknown values, through procedures that vary according to the percentage of values below the limit of detection and the number of applicable limits of detection. In the second case removing trends is needed before conducting hypothesis tests on residuals. This PhD thesis has intended to establish the statistical basis for the rigorous analysis of data quality networks in order to conduct the evaluation of the chemical status of groundwater bodies for determining upward and sustained trends in pollutant concentrations and for the detection of significant deterioration in cases in which an environmental standard has been set by the relevant environmental agency and those that have not. Aiming to design a comprehensive methodology to include the whole range of cases, data from the Groundwater Official Monitoring and Control Network of the Ministry of Agriculture, Food and Environment (Magrama) have been analysed. Then, since River Basin Management Plans are the basic tool of the Directives, the Júcar river Basin has been selected. The main reason is its designation as a pilot basin in the common implementation strategy (CIS) of the European Commission. The main objective of the ad hoc working groups is to implement the Daughter Ground Water Directive and elements of the Water Framework Directive related to groundwater, especially the data collection at control stations and the preparation of the first River Basin Management Plan. Given the size of the area and in order to analyze a groundwater body (defined as the management unit in the Directives), Plana de Vinaroz Peñíscola has been selected as pilot area. Procedures developed to determine the chemical status of that body have been then applied. The data examined do not generally contain pollutant concentration values associated with point sources, so for the study concentration values of the most common data, i.e., nitrates and chlorides have been selected. The designed strategy combines trend analysis with the development of confidence intervals when there is a standard of quality and prediction intervals when there is not or the standard has been exceeded. Similarly we have proceeded in the case of values below the detection limit, taking the available values in Plana de Sagunto pilot area and simulating different degrees of censoring in order to compare the results obtained with the intervals achieved from the actual data and verify in this way the effectiveness of the method. The end result is a general methodology that integrates existing cases to define the chemical status of a groundwater body, verify the existence of significant impacts on groundwater quality and evaluate the effectiveness of the action plans adopted in the framework of the River Basin Management Plan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo se centra en el estudio de las investigaciones de Jorge Oteiza en torno a la funcionalidad estética del espacio, en especial, en la actividad artística que desarrolló en el año 1958, un año decisivo en la vida del escultor en el que dio por finalizado su proceso de experimentación sobre la naturaleza espacial de la estatua. En este desenlace tuvo un papel fundamental la relación funcional que planteó, a la hora de retomar su trabajo después de su triunfo en la IV Bienal de São Paulo de 1957, entre la escultura y la arquitectura. La primera, entendida como organismo puramente espacial, debía de responder a las condiciones de su mundo circundante, el espacio arquitectónico. Su función: acondicionarlo estéticamente para satisfacer las necesidades espirituales del habitante. Siguiendo el canon estético que para la escultura acababa de anunciar en Brasil, la desocupación espacial (la liberación de la energía espacial de la estatua, el rompimiento de la neutralidad del espacio libre) no se trataba de embellecer superficialmente la arquitectura sino de activar su vacío interior. Oteiza, que siempre estuvo muy interesado por la arquitectura y que había colaborado con anterioridad en numerosas ocasiones con los mejores arquitectos del país, fue durante este año cuando profundizó de manera más sistemática (teórica y prácticamente) sobre la relación arte-arquitectura. De hecho, él mismo nombraba como el último trabajo de su línea de experimentación en escultura a su propuesta para el concurso del Monumento a José Batlle en Montevideo, que junto al arquitecto Roberto Puig acabaron a finales de año. En el proyecto se planteaba a escala urbana, y como ejemplo concreto, el modelo teórico de integración arquitectura + (arte=0) que había elaborado los meses anteriores, la integración vacía. En el texto explicativo que acompañaba al proyecto (un texto que desbordaba los límites de una memoria al uso) demandaba la necesidad de la toma de conciencia estética del espacio, como acto de libertad individual, y declaraba el fin del rol de espectador del hombre frente a la obra de arte, reclamando su participación activa en la misma. Para él, la noción del espacio estético no era una condición innata en el hombre, se descubría, se aprendía, evolucionaba y se olvidaba (una vez convertido en hábito). Frente a la ceguera de la sensibilidad espacial del hombre, proponía la educación de la percepción espacial, condicionar emocionalmente la reflexión espontánea ante el juego espacial de las formas en la naturaleza y el espectáculo natural de la ciudad. Aprender a leer el lenguaje emocional del espacio, a pensar visualmente. La obra de arte era así un catalizador espiritual del contorno del mundo, modificador de la vida espacial circundante que corregía hábitos visuales y condicionaba estímulos y reflejos. Desde una resonancia afectiva con la definición psicológica del término (como energía psíquica profunda que invita o incita a pasar a la acción), a diferencia del instinto, la pulsión (siendo la fuente de toda conducta espontánea) es susceptible de ser modificada por la experiencia, por la educación, por la cultura, por el deseo. Es desde esta aproximación en términos de energía desde la que se propone la noción pulsiones del espacio como fórmula (reversible) entre la energía espacial liberada en el proceso de desocupación definido por Oteiza y caracterizadora de la obra como vacío activo (en escultura, en arquitectura), y la energía psíquica profunda que invita o incita a la toma de posesión del espacio (la voluntad espacial absoluta con la que Oteiza definía su modelo de arte=0, cero como expresión formal). Si el hombre modifica su entorno al mismo tiempo que es condicionado por él, es indispensable una conciencia estética del espacio que le enseñe, de entre todas las posibilidades que este le ofrece, qué es lo que necesita (qué es lo que le falta), para tomar posesión de él, para un efectivo ser o existir en el espacio. Es desde esta caracterización como energía por lo que las pulsiones del espacio se sitúan entre el hombre y su entorno (construido) y permiten la transformación entre energía espacial y energía psíquica; entre su hábitat y sus hábitos. Por estas mismas fechas, Oteiza definía una casa como un conjunto articulado de vacíos activos, como una obra de plástica pura que no es arte sino en función del habitante. Es este habitante, educado en la toma de conciencia estética del espacio, el que participando activamente en la interpretación de los espacios previstos por el arquitecto, sintiendo y movido por las pulsiones del espacio, hará uso adecuado de la arquitectura; pasando de un arte como objeto a un arte como comportamiento, transformará su habitar en un arte, el arte de habitar. ABSTRACT This work focuses on the study of Jorge Oteiza’s investigations on the aesthetic functionality of space, especially on his artistic activity developed in 1958, a decisive year in the life of the sculptor, in which he gave end to his process of experimentation on the spatial nature of the statue. In this outcome it was fundamental the functional relationship that he propounded, at the time of returning to work after his triumph in the IV Bienal de São Paulo in 1957, between sculpture and architecture. The first, understood as a purely spatial organism, should respond to the conditions of its environment (umwelt), the architectonic space. Its function: set it up aesthetically to meet the spiritual needs of the inhabitant. Following the aesthetic canon that he had just announced in Brazil for sculpture, the spatial disoccupation (the liberation of the spatial energy of the statue, the breaking of the neutrality of the free space) the aim was not to superficially beautify architecture but to activate its inner void. Oteiza, who had always been very interested in architecture and who had previously collaborated on numerous occasions with the best architects in the country, was in this year when he deepened in a more systematic way (theoretically and practically) about the art-architecture relationship. In fact, he named as the last work of his line of experimentation in sculpture to his proposal for the competition of the Monument to José Batlle in Montevideo, which, developed together with the architect Roberto Puig, was ended at the end of the year. The project proposed on an urban scale, and as a concrete example, the theoretical model of integration architecture + (art = 0) which he had elaborated the previous months, the empty integration. In the explanatory text accompanying the project (a text that exceeded the normal extents of a competition statement) he demanded the need of the aesthetic awareness of space, as an act of individual freedom, and it declared the end of the role of man as passive spectator in front of the work of art, claiming his actively participation in it. For him, the notion of the aesthetic space was not an inborn condition in man; first it was discovered, then learned, evolved and finally forgotten (once converted into a habit). To counteract blindness of the spatial sensitivity of man, he proposed the education of spatial perception, to emotionally influence the spontaneous reflection in front of the spatial game of forms in nature and the natural spectacle of the city. Learn to read the emotional language of space, to think visually. The work of art was thus a spiritual catalyst of the world’s contour, a modifier of the surrounding spatial life that corrected visual habits and conditioned stimuli and reflexes. From an emotional resonance with the psychological definition of the term (such as deep psychic power that invites or urges action), as opposed to instinct, drive (being the source of all spontaneous behavior) is likely to be modified by experience, by education, by culture, by desire. It is from this approach in terms of energy from which the notion drives of space is proposed, as a (reversible) formula between the spatial energy released in the process of disoccupation defined by Oteiza and characterizing of the work as a charged void (in sculpture, in architecture), and the deep psychic energy that invites or encourages the taking possession of the space (the absolute spatial will with which Oteiza defined its model of Art = 0, zero as a formal expression). If man changes his environment at the same time that is conditioned by it, it is essential an aesthetic awareness of space that shows him, among all the possibilities that it offers, what he needs (what is what he lacks), in order to take possession of it, for an effective being or existing in space. It is this characterization as energy by what drives of space lie between man and his (built) environment and allow the transformation between spatial and psychological energy; between his habitat and his habits. Around this same time, Oteiza defined a House as an articulated set of charged voids, as a work of pure plastic that is not art but according to the inhabitant. It is this inhabitant, educated in aesthetic awareness of space, who actively participating in the interpretation of the spaces provided by the architect, feeling and moved by the drives of the space, will make proper use of the architecture; from an art as object to an art as behavior, he will transform his inhabitation into an art, the art of inhabitation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La Tesis Doctoral nace con una intensa vocación pedagógica. La hipótesis de trabajo se establece en torno a una cuestión de interés personal, un tema sobre el que se vertebran, desde el comienzo del doctorado, los diferentes cursos y trabajos de investigación: LA CASA DOMÍNGUEZ como paradigma de la dialéctica en la obra de Alejandro de la Sota. La clasificación de la realidad en categorías antagónicas determina un orden conceptual polarizado, una red de filiaciones excluyentes sobre las que Sota construye su personal protocolo operativo: la arquitectura intelectual o popular, experimental o tradicional, universal o local, ligera o pesada, elevada o enterrada, etc. Se propone el abordaje de una cuestión latente en el conjunto de la obra ‘sotiana’, desde la disección y el análisis de una de sus obras más pequeñas: la casa Domínguez. Se trata de una organización sin precedentes, que eleva la estrategia dialéctica al paroxismo: la vivienda se separa en dos estratos independientes, la zona de día, elevada, y la zona de noche, enterrada; cada uno de los estratos establece su propio orden geométrico y constructivo, su propio lenguaje y carácter, su propia identidad e incluso su propio presupuesto. Las relaciones entre interior y exterior se especializan en función de la actividad o el reposo, estableciéndose una compleja red de relaciones, algunas evidentes y otras celosamente veladas, entre los diferentes niveles. La estancia destinada a las tareas activas se proyecta como un objeto de armazón ligero y piel fría; la precisa geometría del cubo delimita la estancia vigilante sobre el paisaje conquistado. La ladera habitada se destina al reposo y se configura como una topografía verde bajo la que se desarrollan los dormitorios en torno a patios, grietas y lucernarios, generando un paisaje propio: la construcción del objeto frente a la construcción del lugar La casa Domínguez constituye uno de los proyectos menos estudiados, y por lo tanto menos celebrados, de la obra de Don Alejandro. Las publicaciones sucesivas reproducen la documentación gráfica junto a la memoria (epopeya) que el propio Sota compone para la publicación del proyecto. Apenas un par de breves textos críticos de Miguel Ángel Baldellou y, recientemente de Moisés Puente, abordan la vivienda como tema monográfico. Sin embargo, la producción de proyecto y obra ocupó a De la Sota un periodo no inferior a diez años, con casi cien planos dibujados para dos versiones de proyecto, la primera de ellas, inédita. El empeño por determinar hasta el último detalle de la ‘pequeña’ obra, conduce a Sota a controlar incluso el mobiliario interior, como hiciera en otras obras ‘importantes’ como el Gobierno Civil de Tarragona, el colegio mayor César Carlos o el edificio de Correos y Telecomunicaciones de León. La complicidad del cliente, mantenida durante casi cuarenta años, habilita el despliegue de una importante colección de recursos y herramientas de proyecto. La elección de la casa Domínguez como tema central de la tesis persigue por lo tanto un triple objetivo: en primer lugar, el abordaje del proyecto como paradigma de la dialéctica ‘sotiana’, analizando la coherencia entre el discurso de carácter heroico y la obra finalmente construida; en segundo lugar, la investigación rigurosa, de corte científico, desde la disección y progresivo desmontaje del objeto arquitectónico; y por último, la reflexión sobre los temas y dispositivos de proyecto que codifican la identificación entre la acción de construir y el hecho de habitar, registrando los aciertos y valorando con actitud crítica aquellos elementos poco coherentes con el orden interno de la propuesta. This doctoral thesis is the fruit of a profound pedagogical vocation. The central hypothesis was inspired by a question of great personal interest, and this interest has, since the very beginning of the doctorate, been the driving force behind all subsequent lines of research and investigation. The “Casa Domínguez” represents a paradigm of the dialectics found in the work of Alejandro de la Sota. The perception of reality as antagonistic categories determines a polarized conceptual order, a network of mutually excluding associations upon which Sota builds his own personal operative protocol: intellectual or popular architecture, experimental or traditional, universal or local, heavy or light, above or below ground, etc. Through the analysis and dissection of the “Casa Domínguez”, one of Sota’s smallest projects, an attempt is made to approach the underlying question posed in “Sotian” work as a whole. This is about organization without precedent, raising the strategic dialectics to levels of paroxysm. The house is divided into two separate levels, the day-time level above ground, and the lower night-time level beneath the surface of the ground. Each level has its own geometrical and stuctural order, its own language and character, its own identity and even has its own construction budget. The interaction between the two areas is centered on the two functions of rest and activity, and this in turn establishes a complex relationship network between both, which is sometimes self-evident, but at other times jealously guarded. The living area designed for daily activity is presented as an object of light structure and delicate skin; the precise geometry of the cube delimiting the ever watchful living area’s domain over the land it has conquered. A green topography is created on the slope below which lies an area adapted for rest and relaxation. Two bedrooms, built around patios, skylights and light crevices, generate an entirely independent environment: the construction of an object as opposed to the creation of a landscape. The “Casa Domínguez” project has been subject to much less scrutiny and examination than Don Alejandro’s other works, and is consequently less well-known. A succession of journals have printed the blueprint document together with a poetic description (epopee), composed by Sota himself, to mark the project’s publication. There has, however, scarcely been more than two brief critical appraisals, those by Miguel Ángel Baldellou and more recently by Moisés Puente, that have regarded the project as a monographic work. The project and works nevertheless occupied no less than ten years of De La Sota’s life, with over a hundred draft drawings for two separate versions of the project, the first of which remains unpublished. The sheer determination to design this “small” work in the most meticulous detail, drove Sota to manage and select its interior furniture, as indeed he had previously done with more “important” works like the Tarragona Civil Government, César Carlos College, or the Post Office telecommunications building in León. Client collaboration, maintained over a period of almost forty years, has facilitated an impressive array of the project’s tools and resources. The choice of “Casa Domínguez” as the central subject matter of this thesis, was made in pursuance of a triple objective: firstly, to approach the project as a paradigm of the “Sotian” dialectic, the analysis of the discourse between the heroic character and the finished building; secondly, a rigorous scientific investigation, and progressive disassembling and dissecting of the architectonic object; and finally, a reflection on aspects of the project and its technology which codify the identification between the action of construction and the reality of living, thus marking its achievements, whilst at the same time subjecting incoherent elements of the proposal’s established order to a critical evaluation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Contaminated soil reuse was investigated, with higher profusion, throughout the early 90’s, coinciding with the 1991 Gulf War, when efforts to amend large crude oil releases began in geotechnical assessment of contaminated soils. Isolated works referring to geotechnical testing with hydrocarbon ground contaminants are described in the state-of-the-art, which have been extended to other type of contaminated soil references. Contaminated soils by light non-aquous phase liquids (LNAPL) bearing capacity reduction has been previously investigated from a forensic point of view. To date, all the research works have been published based on the assumption of constant contaminant saturation for the entire soil mass. In contrast, the actual LNAPLs distribution plumes exhibit complex flow patterns which are subject to physical and chemical changes with time and distance travelled from the release source. This aspect has been considered along the present text. A typical Madrid arkosic soil formation is commonly known as Miga sand. Geotechnical tests have been carried out, with Miga sand specimens, in incremental series of LNAPL concentrations in order to observe the soil engineering properties variation due to a contamination increase. Results are discussed in relation with previous studies and as a matter of fact, soil mechanics parameters change in the presence of LNAPL, showing different tendencies according to each test and depending on the LNAPL content, as well as to the specimen’s initially planned relative density, dense or loose. Geotechnical practical implications are also commented on and analyzed. Variation on geotechnical properties may occur only within the external contour of contamination distribution plume. This scope has motivated the author to develop a physical model based on transparent soil technology. The model aims to reproduce the distribution of LNAPL into the ground due to an accidental release from a storage facility. Preliminary results indicate that the model is a potentially complementary tool for hydrogeological applications, site-characterization and remediation treatment testing within the framework of soil pollution events. A description of the test setup of an innovative three dimensional physical model for the flow of two or more phases, in porous media, is presented herein, along with a summary of the advantages, limitations and future applications for modeling with transparent material. En los primeros años de la década de los años 90, del siglo pasado, coincidiendo con la Guerra del Golfo en 1991, se investigó intensamente sobre la reutilización de suelos afectados por grandes volúmenes de vertidos de crudo, fomentándose la evaluación geotécnica de los suelos contaminados. Se describen, en el estado del arte de esta tésis, una serie de trabajos aislados en relación con la caracterización geotécnica de suelos contaminados con hidrocarburos, descripción ampliada mediante referencias relacionadas con otros tipos de contaminación de suelos. Existen estudios previos de patología de cimentaciones que analizan la reducción de la capacidad portante de suelos contaminados por hidrocarburos líquidos ligeros en fase no acuosa (acrónimo en inglés: LNAPL de “Liquid Non-Aquous Phase Liquid”). A fecha de redacción de la tesis, todas las publicaciones anteriores estaban basadas en la consideración de una saturación del contaminante constante en toda la extensión del terreno de cimentación. La distribución real de las plumas de contaminante muestra, por el contrario, complejas trayectorias de flujo que están sujetas a cambios físico-químicos en función del tiempo y la distancia recorrida desde su origen de vertido. Éste aspecto ha sido considerado y tratado en el presente texto. La arena de Miga es una formación geológica típica de Madrid. En el ámbito de esta tesis se han desarrollado ensayos geotécnicos con series de muestras de arena de Miga contaminadas con distintas concentraciones de LNAPL con el objeto de estimar la variación de sus propiedades geotécnicas debido a un incremento de contaminación. Se ha realizado una evaluación de resultados de los ensayos en comparación con otros estudios previamente analizados, resultando que las propiedades mecánicas del suelo, efectivamente, varían en función del contenido de LNAPL y de la densidad relativa con la que se prepare la muestra, densa o floja. Se analizan y comentan las implicaciones de carácter práctico que supone la mencionada variación de propiedades geotécnicas. El autor ha desarrollado un modelo físico basado en la tecnología de suelos transparentes, considerando que las variaciones de propiedades geotécnicas únicamente deben producirse en el ámbito interior del contorno de la pluma contaminante. El objeto del modelo es el de reproducir la distribución de un LNAPL en un terreno dado, causada por el vertido accidental de una instalación de almecenamiento de combustible. Los resultados preliminares indican que el modelo podría emplearse como una herramienta complementaria para el estudio de eventos contaminantes, permitiendo el desarrollo de aplicaciones de carácter hidrogeológico, caracterización de suelos contaminados y experimentación de tratamientos de remediación. Como aportación de carácter innovadora, se presenta y describe un modelo físico tridimensional de flujo de dos o más fases a través de un medio poroso transparente, analizándose sus ventajas e inconvenientes así como sus limitaciones y futuras aplicaciones.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La Calorimetría Diferencial de Barrido es una técnica de análisis térmico, usada desde hace décadas, para medir la entalpía asociada al cambio de fase de un material como función del tiempo y de la temperatura. Otras técnicas menos utilizadas son la Calorimetría Convencional el Análisis Térmico Diferencial. Existe una gran incertidumbre en los valores de propiedades suministrados por los fabricantes (puesto que éstos se refieren a las sustancias puras) y es conveniente utilizar DSC para tener valores más exactos. Se va a analizar la capacidad de almacenamiento térmico en función de la temperatura de varios materiales compuestos formados por los mismos agregados -principalmente yeso y material de cambio de fase- en distintas proporciones. Los valores obtenidos se comparan con otros materiales constructivos, yeso laminado y ladrillo. También se verifica la idoneidad del nuevo material constructivo para el almacenamiento de energía térmica frente a otros materiales utilizados tradicionalmente para este fin.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A Le Corbusier le hubiera gustado que le recordaran también como pintor. Igual que su compatriota E. L. Boullée, devoto como él de las formas más puras de la geometría, hubiera escrito gustoso, bajo el título de cualquiera de sus libros de Arquitectura, aquella frase: “Yo también soy pintor”. Para él, como para el ilustrado, la Arquitectura comparte una dimensión artística con la Pintura (y con la Escultura, la Música, la Poesía...etc.) que se pone de manifiesto en el proceso creativo y que está encaminada a emocionar al espectador que participa y se involucra en la obra. Arquitectura y Pintura se convierten de este modo en caminos diferentes para llegar a los mismos objetivos. Esta Tesis trata sobre el proceso de creación en la arquitectura de Le Corbusier y de cómo en él se producen continuas incursiones en el mundo de la pintura cubista. Asumiendo que es un tema sobre el que ya se ha escrito mucho ( las bibliografías de Le Corbusier y de Picasso son sin duda las más numerosas entre los artistas de sus respectivos campos) creemos que es posible ofrecer una nueva visión sobre los mecanismos que, tanto el arquitecto como el pintor, utilizaban en su trabajo. Lo que buscamos es desvelar un modo de creación, común entre ambas disciplinas, basado en el análisis de ciertos componentes artísticos capaces de ser ensamblados en composiciones sintéticas siempre nuevas, que inviten al espectador a participar del hecho creativo en una continua actividad cognoscitiva. El proyecto cubista, tanto para Le Corbusier como para Picasso, se alcanza al final de un largo camino como resultado de un profundo estudio de la realidad (en la Arquitectura, social, cultural y económica, y en la Pintura la realidad cotidiana), en el que el motivo, ya sea objeto, espacio ó luz, intenta ser “conocido” en su totalidad a través del filtro personal del artista. Es por lo tanto, algo a lo que se llega, y cuyo resultado, a priori, es desconocido. En cualquier caso, forma parte de una investigación, de un proceso continuo que intencionadamente supera la circunstancia concreta de cada ocasión. Es la coincidencia en los procesos de proyecto lo que unificará arquitecturas en principio tan dispares como la Capilla de Ronchamp, el Tribunal de Justicia de Chandigarh, o el Hospital de Venecia, y son esos procesos los que aquí, a través de varias obras concretas vamos a intentar desvelar. Es cierto que el proyecto presentado al concurso del Palacio de los Soviets de Moscú es un ejercicio brillante de Constructivismo, pero este resultado no se anunciaba al principio. Si analizamos el proceso de proyecto encontramos que inicialmente la propuesta no era muy diferente a la del Centorsoyuz, o incluso a la de la Cité de Refuge o a la del Pavillon Suisse de París. La solución final sólo se alcanzaría después de mover muchísimas veces, las piezas preseleccionadas en el solar. Cuando entendemos el Convento de la Tourette como una versión actualizada del monasterio dominico tradicional estamos haciendo una lectura parcial y engañosa de la idea de proyecto del arquitecto. En los croquis previos del archivo de la Fondation Le Corbusier encontramos otra vez las mismas ideas que en la vieja Cité de Refuge, ahora actualizadas y adaptadas al nuevo fin. Con la Asamblea de Chandigarh las similitudes son obvias e incluso aparece el mismo cubo al que se superpone una pirámide como techo, avanzando hacia el espacio central pero aquí aparece un gran hiperboloide en un interior cerrado. Este hiperboloide fue en el inicio del proyecto un cubo, y después un cilindro. Sólo al final encontró su forma óptima en un volumen de geometría reglada que en su idoneidad podría también valer para otros edificios, por ejemplo para una Iglesia. La comparación que se ha hecho de este volumen con las torres de refrigeración de Ahmedabad es puramente anecdótica pues, como veremos, esta forma se alcanza desde la lógica proyectual que sigue el pensamiento plástico de Le Corbusier, en este caso, en la adaptación del espacio cilíndrico a la luz, pero no como inspiración en las preexistencias. En todas sus obras los mecanismos que se despliegan son, en muchas ocasiones pictóricos (fragmentación analítica del objeto y del espacio, ensamblaje multidimensional, tramas subyacentes de soporte, escenografía intencionada ...etc.) y el programa en cada caso, como el motivo de los cubistas, no es más que una ocasión más para investigar una nueva forma de hacer y de entender, la Arquitectura. Cualquier proyecto del pintor-arquitecto cubista es en realidad un trabajo continuo desarrollado a lo largo de toda su vida, en el que se utilizan, una y otra vez, las mismas palabras de su vocabulario particular y personal. aunque con diferente protagonismo en cada ocasión. Se trata de alcanzar, desde ellas mismas, una perfección que las valide universalmente. Los mismos objetos, los mismos mecanismos, las mismas constantes manipulaciones del espacio y de la luz, se desplegarán, como ingredientes previos con los que trabajar, sobre el tablero de dibujo coincidiendo con el inicio de cada proyecto, para desde aquí hacer que el motivo que se trata de construir emerja, aunque a veces sea de manera incierta e inesperada, como resultado alcanzado al final. Con muchas dudas, a partir de la primera hipótesis planteada, se confirma, se añade o se elimina cada elemento según van apareciendo en el tiempo los condicionantes del solar, del programa o incluso a veces de obsesiones propias del arquitecto. El trabajo que presentamos utiliza un método inductivo que va desde los ejemplos hasta los conceptos. Empezaremos por investigar el proceso de proyecto en una obra concreta y con los mecanismos que en él se utilizan plantearemos una síntesis que los generalice y nos permitan extenderlos al entendimiento de la totalidad de su obra. Se trata en realidad de un método que en sí mismo es cubista: desde la fragmentación del objeto-proyecto procedemos a su análisis desde diversos puntos de vista, para alcanzar después su recomposición en una nueva estructura sintética. Cada mecanismo se analiza de forma independiente siguiendo un cierto orden que correspondería, supuestamente, al trabajo del arquitecto: manipulación del objeto, método compositivo, entendimiento del soporte (lienzo o espacio) y de su geometría implícita, relación con el observador, concepto y materialidad del espacio y de la luz ..etc. recurriendo a la teoría sólo en la medida en que necesitemos de ella para aclarar el exacto sentido con el que son utilizados. En nuestra incursión en el mundo de la pintura, hemos decidido acotar el Cubismo a lo que fue en realidad su periodo heroico y original, que discurrió entre 1907 y 1914, periodo en el que desarrollado casi exclusivamente por los que habían sido sus creadores, Picasso y Braque. Solo en alguna ocasión entraremos en la pintura del “tercer cubista”, Juan Gris para entender el tránsito de los mecanismos de los primeros hasta la pintura purista, pero no es nuestra intención desviar las cuestiones planteadas de un ámbito puramente arquitectónico Resulta difícil hablar del cubismo de Pablo Picasso sin hacerlo comparativamente con el de Georges Braque (para algunos especialistas es éste incluso el auténtico creador de la Vanguardia), siendo necesario enfrentar los mecanismos de ambos pintores para obtener un exacto entendimiento de lo que supuso la Vanguardia. Por eso nos parece interesante estudiar la obra de Le Corbusier en paralelo con la de otro arquitecto de tal manera que los conceptos aparezcan como polaridades entre las que situar los posibles estados intermedios. En este sentido hemos recurrido a James Stirling. Su deuda es clara con Le Corbusier, y sobre todo con el Cubismo, y como vamos a ver, los mecanismos que utiliza en su obra, siendo similares, difieren significativamente. La Tesis adquiere un sentido comparativo y aparecen así atractivas comparaciones Picasso-Le Corbusier, Braque-Stirling que se suman a las ya establecidas Picasso-Braque y Le Corbusier-Stirling. Desde ellas podemos entender mejor lo que supone trabajar con mecanismos cubistas en Arquitectura. Por último, en relación a los dibujos creados expresamente para esta Tesis, hemos de indicar que las manipulaciones que se han hecho de los originales les convierten en elementos analíticos añadidos que aclaran determinadas ideas expresadas en los croquis de sus autores. Algunos están basados en croquis del archivo de la Fondation Le Corbusier (se indican con el número del plano) y otros se han hecho nuevos para explicar gráficamente determinadas ideas. Se completa la parte gráfica con las fotografías de las obras pictóricas, los planos originales e imágenes de los edificios construidos, extraídos de los documentos de la bibliografía citada al final. Nos disponemos pues, a indagar en las obras del Cubismo, en una búsqueda de los mecanismos con los que hacía su arquitectura Le Corbusier.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El proyecto es un Sistema de Información Geográfica y Visor web centrado en las energías renovables solar y eólica, contiene funcionalidad dirigida a facilitar elacceso de los ciudadanos y de las empresas del sector a la información de estas dos energías. Incorpora una herramienta de edición que pretende tener una base de datos actualizada de los parques solares y eólicos de España. Otra orientada al entorno urbano que permite saber la electricidad aproximada que se generaría en la cubierta de un edificio de Vitoria en función del panel solar que se instale en dicha cubierta. También se ha realizado un análisis espacial para encontrar los lugares óptimos para la instalación de paneles solares y eólicos en el País Vasco, se han publicado las capas resultado en el visor para que puedan acceder a ellas cualquier sociedad o empresa que le interese conocer este tipo de información. Para estos análisis se han tenido en cuenta estudios de diferentes universidades e informes de organizaciones como Greenpeace. No obstante, no deja de ser una propuesta objeto de posibles mejoras.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo general de esta Tesis Doctoral fue estudiar la influencia de diversos factores nutricionales y de manejo sobre la productividad y la calidad del huevo en gallinas ponedoras comerciales rubias. Los factores estudiados fueron: 1) Cereal principal y tipo de grasa en la dieta; 2) Nivel de proteína bruta y grasa en la dieta; 3) Nivel energético de la dieta; 4) Peso vivo al inicio del período de puesta. En el experimento 1, la influencia del cereal principal en la dieta y el tipo de grasa suplementada en la dieta sobre los parámetros productivos y la calidad del huevo fue estudiado en 756 gallinas rubias de la estirpe Lohmann desde la sem 22 hasta las 54 de vida. El experimento se realizó mediante un diseño completamente al azar con 9 tratamientos ordenados factorialmente, con 3 cereales bases (maíz, trigo blando y cebada) y 3 tipos de grasa que variaban en su contenido en ácido linoléico (aceite de soja, oleína vegetal mezcla y manteca). Todas las dietas satisfacian las recomendaciones nutricionales para gallinas ponedoras rubias según el NRC (1994) y FEDNA (2008). La unidad experimental fue la jaula para todas las variables. Cada tratamiento fue replicado 4 veces, y la unidad experimental estuvo formada por 21 gallinas alojadas en grupos de 7. Las dietas fueron formuladas con un contenido nutritivo similar, excepto para el ácido linoléico, que varió en función del tipo de cereal y grasa utilizado. Así, dependiendo de la combinación de estos elementos el contenido de este ácido graso varió desde un 0.8% (dieta trigo-manteca) a un 3.4% (dieta maíz-aceite de soja). Este rango de ácido linoléico permitió estimar el nivel mínimo de este nutriente en el pienso que permite maximizar el peso del huevo. Los parámetros productivos y la calidad del huevo se controlaron cada 28 días y el peso de las aves se midió individualmente al inicio y al final del experimento con el objetivo de estudiar la variación en el peso vivo de los animales. No se observaron interacciones entre el tipo de cereal y grasa en la dieta para ninguna de las variables productivas estudiadas. Los tratamientos experimentales no afectaron a las principales variables productivas (porcentaje de puesta, peso del huevo y masa de huevo). Sin embargo, la ganancia de peso fue mayor en gallinas alimentadas con maíz o trigo que las gallinas alimentadas con cebada (243 vs. 238 vs. 202 g, respectivamente; P< 0.05). En el mismo sentido, las gallinas alimentadas con manteca obtuvieron una mayor ganancia de peso que las gallinas alimentadas con aceite de soja u oleína vegetal (251 vs. 221 vs. 210 g, respectivamente; P< 0.05). En cuanto a las variables estudiadas en relación con la calidad del huevo, ninguna de las variables estudiadas se vio afectada por el tratamiento experimental, salvo la pigmentación de la yema. Así, las gallinas alimentadas con maíz como cereal principal obtuvieron una mayor puntuación en relación con la escala de color que las gallinas alimentadas con trigo y con cebada (9.0 vs. 8.3 vs. 8.3, respectivamente; P< 0.001). La pigmentación de la yema también se vio afectada por el tipo de grasa en la dieta, así, las gallinas alimentadas con manteca obtuvieron una mayor puntuación de color en relación con la escala de color que las gallinas alimentadas con aceite de soja u oleína vegetal (8.9 vs. 8.5 vs. 8.2, respectivamente; P< 0.001). La influencia del contenido en ácido linoléico respecto al peso de huevo y masa de huevo fue mayor a medida que el contenido de dicho ácido graso se redujo en la dieta. Así, la influencia de la dieta en los radios peso de huevo/g linoléico ingerido y masa de huevo/g linoléico ingerido fue significativamente mayor a medida que el contenido en dicho ácido graso disminuyo en la dieta (P< 0.001). Los resultados del ensayo indican que las gallinas ponedoras rubias no necesitan más de un 1.0% de ácido linoléico en la dieta para maximizar la producción y el tamaño del huevo. Además, se pudo concluir que los 3 cereales y las 3 grasas utilizadas pueden sustituirse en la dieta sin ningún perjuicio productivo o referente a la calidad del huevo siempre que los requerimientos de los animales sean cubiertos. En el experimento 2, la influencia del nivel de proteína bruta y el contenido de grasa de la dieta sobre los parámetros productivos y la calidad del huevo fue estudiado en 672 gallinas ponedoras rubias de la estirpe Lohmann entre las sem 22 y 50 de vida. El experimento fue conducido mediante un diseño completamente al azar con 8 tratamientos ordenados factorialmente con 4 dietas y 2 pesos vivos distintos al inicio de puesta (1592 vs. 1860g). Tres de esas dietas diferían en el contenido de proteína bruta (16.5%, 17.5% y 18.5%) y tenían un contenido en grasa añadida de 1.8%. La cuarta dieta tenía el nivel proteico más elevado (18.5%) pero fue suplementada con 3.6% de grasa añadida en vez de 1.8%. Cada tratamiento fue replicado 4 veces y la unidad experimental consistió en 21 gallinas alojadas dentro de grupos de 7 animales en 3 jaulas contiguas. Todas las dietas fueron isocalóricas (2750 kcal EMAn/kg) y cubrieron las recomendaciones en aminoácidos para gallinas ponedoras rubias (Arg, Ile, Lys, Met, Thr, Trp, TSAA y Val) según el NRC (1994) y FEDNA (2008). Los efectos de los tratamientos sobre las variables productivas y la calidad de huevo fueron estudiados cada 28 días. La dieta no afecto a ninguna de las variables productivas estudiadas a lo largo del período productivo. Sin embargo, el peso inicial origino que las gallinas pesadas consumieran más (120.6 vs. 113.9 g; P< 0.001), obtuvieran un porcentaje de puesta mayor (92.5 vs. 89.8%; P< 0.01) y un peso del huevo mayor (64.9 vs. 62.4 g; P< 0.001) que las gallinas ligeras. El peso inicial de las gallinas no afecto al IC por kg de huevo ni a la mortalidad, sin embargo, la ganancia de peso fue mayor (289 vs. 233 g; P< 0.01) y el IC por docena de huevos fue mejor (1.52 vs. 1.57; P< 0.01) en las gallinas ligeras que en las gallinas pesadas. En cuanto a la calidad del huevo, la dieta no influyó sobre ninguna de las variables estudiadas. Los resultados del ensayo muestran que las gallinas ponedoras rubias, independientemente de su peso vivo al inicio de la puesta, no necesitan una cantidad de proteína bruta superior a 16.5% para maximizar la producción, asegurando que las dietas cubren los requerimientos en AA indispensables. Asimismo, se puedo concluir que las gallinas con un peso más elevado al inicio de puesta producen más masa de huevo que las gallinas con un peso más bajo debido a que las primeras producen más cantidad de huevos y más pesados. Sin embargo, ambos grupos de peso obtuvieron el mismo IC por kg de huevo y las gallinas más livianas en peso obtuvieron un mejor IC por docena de huevo que las pesadas. En el experimento 3 la influencia de la concentración energética sobre los parámetros productivos y la calidad del huevo fue estudiada en 520 gallinas ponedoras rubias de la estirpe Hy-Line en el período 24-59 sem de vida. Se utilizaron 8 tratamientos ordenados factorialmente con 4 dietas que variaron en el contenido energético (2650, 2750, 2850 y 2950 kcal EMAn/kg) y 2 pesos vivos distintos al inicio del período de puesta (1733 vs. 1606g). Cada tratamiento fue replicado 5 veces y la unidad experimental consistió en una jaula con 13 aves. Todas las dietas se diseñaron para que tuvieran una concentración nutritiva similar por unidad energética. Las variables productivas y de calidad de huevo se estudiaron mediante controles cada 28 días desde el inicio del experimento. No se observaron interacciones entre el nivel energético y el peso inicial del ave para ninguna de las variables estudiadas. Un incremento en la concentración energética de la dieta incrementó la producción de huevos (88.8 % vs. 91.2 % vs. 92.7 % vs. 90.5 %), masa de huevo (56.1 g/d vs. 58.1 g/d vs. 58.8 g/d vs. 58.1 g/d), y eficiencia energética (5.42 vs. 5.39 vs. 5.38 vs. 5.58 kcal EMA/g huevo) de forma lineal y cuadrática (P< 0.05) y afectó significativamente a la ganancia de peso (255 g vs. 300 g vs. 325 g vs. 359 g; P<0.05) . Sin embargo, un incremento en la concentración energética provocó un descenso lineal en el consumo de los animales (115 g vs. 114 g vs. 111 g vs. 110 g; P< 0.001) y un descenso lineal y cuadrático en el IC por kg de huevo (2.05 vs. 1.96 vs. 1.89 vs. 1.89; P< 0.01). En cuanto a la calidad del huevo, un incremento en el contenido energético de la dieta provocó una reducción en la calidad del albumen de forma lineal en forma de reducción de Unidades Haugh (88.4 vs. 87.8 vs. 86.3 vs. 84.7; P< 0.001), asimismo el incremento de energía redujo de forma lineal la proporción relativa de cáscara en el huevo (9.7 vs. 9.6 vs. 9.6 vs. 9.5; P< 0.001). Sin embargo, el incremento energético propició un incremento lineal en la pigmentación de la yema del huevo (7.4 vs. 7.4 vs. 7.6 vs. 7.9; P< 0.001). El peso vivo al inicio de la prueba afecto a las variables productivas y a la calidad del huevo. Así, los huevos procedentes de gallinas pesadas al inicio de puesta tuvieron una mayor proporción de yema (25.7 % vs. 25.3 %; P< 0.001) y menor de albumen (64.7 vs. 65.0; P< 0.01) y cáscara (9.5 vs. 9.6; P< 0.05) respecto de los huevos procedentes de gallinas ligeras. Consecuentemente, el ratio yema:albumen fue mayor (0.40 vs. 0.39; P< 0.001) para las gallinas pesadas. Según los resultados del experimento se pudo concluir que las actuales gallinas ponedoras rubias responden con incrementos en la producción y en la masa del huevo a incrementos en la concentración energética hasta un límite que se sitúa en 2850 kcal EMAn/kg. Asimismo, los resultados obtenidos entre los 2 grupos de peso al inicio de puesta demostraron que las gallinas pesadas al inicio de puesta tienen un mayor consumo y producen huevos más pesados, con el consecuente aumento de la masa del huevo respecto de gallinas más ligeras. Sin embargo, el IC por kg de huevo fue el mismo en ambos grupos de gallinas y el IC por docena de huevo fue mejor en las gallinas ligeras. Asimismo, la eficiencia energética fue mejor en las gallinas ligeras. Abstract The general aim of this PhD Thesis was to study the influence of different nutritional factors and management on the productivity and egg quality of comercial Brown laying hens. The factor studied were: 1) The effect of the main cereal and type of fat of the diet; 2) The effect of crude protein and fat content of the diet; 3) The effect of energy concentration of the diet; 4) The effect of initial body weight of the hens at the onset of lay period. In experiment 1, the influence of the main cereal and type of supplemental fat in the diet on productive performance and egg quality of the eggs was studied in 756 Lohmann brown-egg laying hens from 22 to 54 wk of age. The experiment was conducted as a completely randomized design with 9 treatments arranged factorially with 3 cereals (dented corn, soft wheat, and barley) and 3 types of fat (soy oil, acidulated vegetable soapstocks, and lard). Each treatment was replicated 4 times (21 hens per replicate). All diets were formulated according to NRC (1994) and FEDNA (2008) to have similar nutrient content except for linoleic acid that ranged from 0.8 (wheat-lard diet) to 3.4% (corn-soy bean oil) depending on the combination of cereal and fat source used. This approach will allow to estimate the minimum level of linoleic acid in the diets that maximizes egg weight. Productive performance and egg quality traits were recorded every 28 d and BW of the hens was measured individually at the beginning and at the end of the experiment. No significant interactions between main factors were detected for any of the variables studied. Egg production, egg weight, and egg mass were not affected by dietary treatment. Body weight gain was higher (243 vs. 238 vs. 202 g; P<0.05) for hens fed corn or wheat than for hens fed barley and also for hens fed lard than for hens fed soy oil or acidulated vegetable soapstocks (251 vs. 221 vs. 210 g; P< 0.05). Egg quality was not influenced by dietary treatment except for yolk color that was greater (9.0 vs. 8.3 vs. 8.3; P< 0.001) for hens fed corn than for hens fed wheat or barley and for hens fed lard than for hens fed soy oil or acidulated vegetable soapstocks (8.9 vs. 8.5 vs. 8.2, respectivamente; P< 0.001). The influence of linoleic acid on egg weight and egg mass was higher when the fatty acid was reduced in the diet. Thus, the influence of the diet in egg weight/g linoleic acid intake and egg mass/g linolec acid intake was higher when the amount of this fatty acid decreased in the diet (P< 0.001). It is concluded that brown egg laying hens do not need more than 1.0% of linoleic acid in the diet (1.16 g/hen/d) to maximize egg production and egg size. The 3 cereals and the 3 fat sources tested can replace each other in the diet provided that the linoleic acid requirements to maximize egg size are met. In experiment 2, the influence of CP and fat content of the diet on performance and egg quality traits was studied in 672 Lohmann brown egg-laying hens from 22 to 50 wk of age. The experiment was conducted as a completely randomized design with 8 treatments arranged factorially with 4 diets and 2 initial BW of the hens (1,592 vs. 1,860 g). Three of these diets differed in the CP content (16.5, 17.5, and 18.5%) and included 1.8% added fat. The fourth diet had also 18.5% CP but was supplemented with 3.6% fat instead of 1.8% fat. Each treatment was replicated 4 times and the experimental unit consisted of 21 hens allocated in groups of 7 in 3 adjacent cages. All diets were isocaloric (2,750 kcal AME/kg) and met the recommendations of brown egg-laying hens for digestible Arg, Ile, Lys, Met, Thr, Trp, TSAA, and Val. Productive performance and egg quality were recorded by replicate every 28-d. For the entire experimental period, diet did not affect any of the productive performance traits studied but the heavier hens had higher ADFI (120.6 vs. 113.9g; P< 0.001), egg production (92.5 vs. 89.8%; P< 0.01), and egg weight (64.9 vs. 62.4g; P< 0.001) than the lighter hens. Initial BW did not affect feed conversion per kilogram of eggs or hen mortality but BW gain was higher (289 vs. 233g; P< 0.01) and FCR per dozen of eggs was better (1.52 vs. 1.57; P< 0.01) for the lighter than for the heavier hens. None of the egg quality variables studied was affected by dietary treatment or initial BW of the hens. It is concluded that brown egg-laying hens, irrespective of their initial BW, do not need more than 16.5% CP to maximize egg production provided that the diet meet the requirements for key indispensable amino acids. Heavier hens produce more eggs that are larger than lighter hens but feed efficiency per kilogram of eggs is not affected. In experiment 3, the influence of AMEn concentration of the diet on productive performance and egg quality traits was studied in 520 Hy-Line brown egg-laying hens differing in initial BW from 24 to 59 wks of age. There were 8 treatments arranged factorially with 4 diets varying in energy content (2,650, 2,750, 2,850, and 2,950 kcal AMEn/kg) and 2 initial BW of the hens (1,733 vs. 1,606 g). Each treatment was replicated 5 times (13 hens per replicate) and all diets had similar nutrient content per unit of energy. No interactions between energy content of the diet and initial BW of the hens were detected for any trait. An increase in energy concentration of the diet increased (linear, P< 0.05; quadratic P< 0.05) egg production (88.8 % vs. 91.2 % vs. 92.7 % vs. 90.5 %), egg mass (56.1 g/d vs. 58.1 g/d vs. 58.8 g/d vs. 58.1 g/d), energy efficiency (5.42 vs. 5.39 vs. 5.38 vs. 5.58 kcal AMEn/g of egg), and BW gain (255 g vs. 300 g vs. 325 g vs. 359 g; P<0.05) but decreased ADFI (115 g vs. 114 g vs. 111 g vs. 110 g; P< linear, P< 0.001) and FCR per kg of eggs (2.05 vs. 1.96 vs. 1.89 vs. 1.89; linear, P< 0.01; quadratic P< 0.01). An increase in energy content of the diet reduced Haugh units (88.4 vs. 87.8 vs. 86.3 vs. 84.7; P< 0.01) and the proportion of shell in the egg (9.7 vs. 9.6 vs. 9.6 vs. 9.5; P< 0.001). Feed intake (114.6 vs. 111.1 g/hen per day), AMEn intake (321 vs. 311 kcal/hen per day), egg weight (64.2 vs. 63.0 g), and egg mass (58.5 vs. 57.0 g) were higher for the heavier than for the lighter hens (P<0.01) but FCR per kg of eggs and energy efficiency were not affected. Eggs from the heavier hens had higher proportion of yolk (25.7 % vs. 25.3 %; P< 0.001) and lower of albumen (64.7 vs. 65.0; P< 0.01) and shell (9.5 vs. 9.6; P< 0.05) than eggs from the lighter hens. Consequently, the yolk to albumen ratio was higher (0.40 vs. 0.39; P< 0.001) for the heavier hens. It is concluded that brown egg-laying hens respond with increases in egg production and egg mass, to increases in AMEn concentration of the diet up to 2,850 kcal/kg. Heavy hens had higher feed intake and produced heavier eggs and more egg mass than light hens. However, energy efficiency was better for the lighter hens.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Hoy en día las técnicas de adquisición de imágenes tridimensionales son comunes en diversas áreas, pero cabe destacar la relevancia que han adquirido en el ámbito de la imagen biomédica, dentro del cual encontramos una amplia gama de técnicas como la microscopía confocal, microscopía de dos fotones, microscopía de fluorescencia mediante lámina de luz, resonancia magnética nuclear, tomografía por emisión de positrones, tomografía de coherencia óptica, ecografía 3D y un largo etcétera. Un denominador común de todas esas aplicaciones es la constante necesidad por aumentar la resolución y la calidad de las imágenes adquiridas. En algunas de dichas técnicas de imagen tridimensional se da una interesante situación: aunque que cada volumen adquirido no contiene información suficiente para representar el objeto bajo estudio dentro de los parámetros de calidad requeridos por algunas aplicaciones finales, el esquema de adquisición permite la obtención de varios volúmenes que representan diferentes vistas de dicho objeto, de tal forma que cada una de las vistas proporciona información complementaria acerca del mismo. En este tipo de situación es posible, mediante la combinación de varias de esas vistas, obtener una mejor comprensión del objeto que a partir de cada una de ellas por separado. En el contexto de esta Tesis Doctoral se ha propuesto, desarrollado y validado una nueva metodología de proceso de imágenes basada en la transformada wavelet disc¬reta para la combinación, o fusión, de varias vistas con información complementaria de un mismo objeto. El método de fusión propuesto aprovecha la capacidad de descom¬posición en escalas y orientaciones de la transformada wavelet discreta para integrar en un solo volumen toda la información distribuida entre el conjunto de vistas adquiridas. El trabajo se centra en dos modalidades diferentes de imagen biomédica que per¬miten obtener tales adquisiciones multi-vista. La primera es una variante de la micro¬scopía de fluorescencia, la microscopía de fluorescencia mediante lámina de luz, que se utiliza para el estudio del desarrollo temprano de embriones vivos en diferentes modelos animales, como el pez cebra o el erizo de mar. La segunda modalidad es la resonancia magnética nuclear con realce tardío, que constituye una valiosa herramienta para evaluar la viabilidad del tejido miocárdico en pacientes con diversas miocardiopatías. Como parte de este trabajo, el método propuesto ha sido aplicado y validado en am¬bas modalidades de imagen. En el caso de la aplicación a microscopía de fluorescencia, los resultados de la fusión muestran un mejor contraste y nivel de detalle en comparación con cualquiera de las vistas individuales y el método no requiere de conocimiento previo acerca la función de dispersión puntual del sistema de imagen. Además, los resultados se han comparado con otros métodos existentes. Con respecto a la aplicación a imagen de resonancia magnética con realce tardío, los volúmenes fusionados resultantes pre-sentan una mejora cuantitativa en la nitidez de las estructuras relevantes y permiten una interpretación más sencilla y completa de la compleja estructura tridimensional del tejido miocárdico en pacientes con cardiopatía isquémica. Para ambas aplicaciones los resultados de esta tesis se encuentran actualmente en uso en los centros clínicos y de investigación con los que el autor ha colaborado durante este trabajo. Además se ha puesto a libre disposición de la comunidad científica la implementación del método de fusión propuesto. Por último, se ha tramitado también una solicitud de patente internacional que cubre el método de visualización desarrollado para la aplicación de Resonancia Magnética Nuclear. Abstract Nowadays three dimensional imaging techniques are common in several fields, but es-pecially in biomedical imaging, where we can find a wide range of techniques including: Laser Scanning Confocal Microscopy, Laser Scanning Two Photon Microscopy, Light Sheet Fluorescence Microscopy, Magnetic Resonance Imaging, Positron Emission To-mography, Optical Coherence Tomography, 3D Ultrasound Imaging, etc. A common denominator of all those applications being the constant need for further increasing resolution and quality of the acquired images. Interestingly, in some of the mentioned three-dimensional imaging techniques a remarkable situation arises: while a single volume does not contain enough information to represent the object being imaged within the quality parameters required by the final application, the acquisition scheme allows recording several volumes which represent different views of a given object, with each of the views providing complementary information. In this kind of situation one can get a better understanding of the object by combining several views instead of looking at each of them separately. Within such context, in this PhD Thesis we propose, develop and test new image processing methodologies based on the discrete wavelet transform for the combination, or fusion, of several views containing complementary information of a given object. The proposed fusion method exploits the scale and orientation decomposition capabil¬ities of the discrete wavelet transform to integrate in a single volume all the available information distributed among the set of acquired views. The work focuses in two different biomedical imaging modalities which provide such multi-view datasets. The first one is a particular fluorescence microscopy technique, Light-Sheet Fluorescence Microscopy, used for imaging and gaining understanding of the early development of live embryos from different animal models (like zebrafish or sea urchin). The second is Delayed Enhancement Magnetic Resonance Imaging, which is a valuable tool for assessing the viability of myocardial tissue on patients suffering from different cardiomyopathies. As part of this work, the proposed method was implemented and then validated on both imaging modalities. For the fluorescence microscopy application, the fusion results show improved contrast and detail discrimination when compared to any of the individual views and the method does not rely on prior knowledge of the system’s point spread function (PSF). Moreover, the results have shown improved performance with respect to previous PSF independent methods. With respect to its application to Delayed Enhancement Magnetic Resonance Imaging, the resulting fused volumes show a quantitative sharpness improvement and enable an easier and more complete interpretation of complex three-dimensional scar and heterogeneous tissue information in ischemic cardiomyopathy patients. In both applications, the results of this thesis are currently in use in the clinical and research centers with which the author collaborated during his work. An imple¬mentation of the fusion method has also been made freely available to the scientific community. Finally, an international patent application has been filed covering the visualization method developed for the Magnetic Resonance Imaging application.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabajo constituye una propuesta didáctica para incluir en los procesos de enseñanza de la arquitectura y del dibujo y la teoría del proyecto arquitectónico en la Facultad de Arquitectura de la Universidad de la República del Uruguay. Se parte de la afirmación ya demostrada de que el cine de ficción resulta un medio adecuado y complementario de otros procedimientos para enseñar y estudiar arquitectura. El trabajo establece una ejercitación alternativa a las tradicionales basada en el método de la comparación que permite establecer relaciones entre diferentes realidades: entre la realidad y la ficción o entre diferentes mundos de ficción. Si se hace referencia concreta a la ejercitación desarrollada en los cursos de proyecto y dibujo arquitectónicos de la Facultad de Arquitectura, no es novedad que las prácticas del dibujo de observación directa del objeto real o mediatizado –croquis de observación directa y restitución (pasaje de un sistema de representación codificada a otro) – o del manejo de referentes paradigmáticos durante los procesos creativos, se basan todas en la comparación entre dos cosas. Toda comparación nos induce a fijar la atención en dos o más objetos para descubrir sus relaciones y estimar sus semejanzas lo que nos permite conocer con mayor precisión sus atributos. El ejercicio de ideación de un objeto –propio del proceso proyectual– se sustenta en el cotejo sucesivo y alternativo de la observación del objeto imaginado y de su representación gráfica progresiva. En ese proceso son puestos en juego mecanismos que activan y relacionan nuestras sensaciones con nuestra memoria inconsciente y con redes de conceptos adquiridos a través de la enseñanza y la reflexión. Por un lado, este trabajo busca –mediante el planteo de hipótesis– poner en juego diferentes recursos de análisis de filmes para su debida demostración y, al extraer conclusiones, aportar al conocimiento científico sobre un tema. Por otra parte procura mostrar un camino alternativo para el manejo del recurso cine en los procesos de enseñanza del estudiante de arquitectura. Un camino que estructure diferentes procedimientos de análisis –que por sí mismos implican un ejercicio de la percepción y de la sensibilización– para verificar los contenidos y el alcance de las hipótesis planteadas. This work emerges from a reflection based on the capacity of the cinematographic resource in architecture teaching. The proposal consists in alternative exercises different from the traditional ones, specially designed for architecture students. The exercises handle the potential value of the cinema, especially fictional film or narrative film, as a tool for developing our perception and reflection, thus stimulating the rational and emotional aspects of each person. It is based on the comparative method which allows the establishment of relations among different realities: between fiction and reality and between different fiction worlds. It has been structured into three modules of increasing difficulty. Each one initiates its discourse with a hypothesis formulation which must be demonstrated and triggers a research process where the student’s knowledge, reasoning and ability to evaluate are put into play through a set of exercises. These involve the graphic survey of film spaces, cinematic languages and significance perception systems in order to detect archetypical architectural spaces common to different films. In this particular case, the proposal is addressed to the analysis of interior domestic spaces and its furnishings.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El desarrollo de modelos predictivos de retroceso de acantilados costeros se encuentra limitado desde el punto de vista geomorfológico debido a la complejidad e interacción de los procesos de desarrollo espacio-temporal que tienen lugar en la zona costera. Los códigos de cálculo existentes en la actualidad incorporan modelos probabilísticos para resolver la estabilidad geomecánica de los materiales. Éstos pueden reproducir tasas de recesión históricas; sin embargo, el comportamiento bajo condiciones variables (cambio climático) no tiene por qué ser el mismo. Se presenta un modelo de proceso-respuesta de retroceso de acantilados costeros que incorpora el comportamiento geomecánico de costas compuestas por tills, incluye la acción protectora de los derrubios presentes al pie del acantilado frente a los procesos erosivos y permite evaluar el efecto del ascenso del nivel medio del mar asociado al cambio climático. Para ello, se acoplan la dinámica marina: nivel medio del mar, mareas y oleaje; con la evolución del terreno: erosión, desprendimiento rocoso y formación de talud de derrubios. La erosión del acantilado se calcula en función del nivel del mar, de las condiciones del oleaje incidente, de la pendiente de la plataforma rocosa y de la resistencia del material rocoso afectado en cada ciclo de marea. Al finalizar cada ciclo, se evalúa la ruptura del acantilado según un criterio geomecánico de roturas por vuelco y en caso de rotura, se genera un talud de derrubios al pie del mismo. El modelo ha sido validado frente a datos reales en la costa de Holderness, Yorkshire, Reino Unido. Los resultados obtenidos presentan un importante avance en los modelos de recesión costera, especialmente en su relación con las condiciones geomecánicas del medio y su respuesta ante condiciones variables del nivel medio del mar producidas por el cambio climático.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El principal objetivo de la presente investigación fue el conocer el perfil de rendimiento técnico de los triatletas, desde un punto de vista biomecánica, en el segmento carrera a pie durante la competición en triatlón. Asimismo, como el genero y el nivel deportivo del triatleta podrían influir en su respuesta motriz durante la competicion. Para ello, se necesitaba desarrollar y validar una técnica experimental que fuera lo suficientemente precisa (validez interna), con una alta fiabilidad y con una gran validez externa (ecologica) debido al entorno de la competicion. La muestra la formaron un total de 64 deportistas: 32 triatletas participantes en la Copa del Mundo de Triatlon de Madrid-2008 (16 hombres y 16 mujeres) y 32 triatletas participantes en el Clasificatorio del Campeonato de Espana Elite (16 hombres y 16 mujeres). El análisis de la técnica de carrera de los deportistas se realizo mediante un sistema fotogramétrico en 2d que permitió calcular las coordenadas (x,y) de los centros articulares con un error de 1.66% en el eje x y de un 2.10% en el eje y. Las imágenes fueron obtenidas por una cámara que filmaba el movimiento en un plano antero-posterior del triatleta. Algoritmos basados en la DLT (Abdel-Aziz & Karara, 1971) permitieron conocer las coordenadas reales a partir de las coordenadas digitalizadas en el plano y posteriormente las distintas variables analizadas. El análisis biomecánica de la carrera se realizo en 4 ocasiones diferentes durante la competición, correspondiendo con cada una de las vueltas de 2,5 km, que el triatleta tenía que realizar. La velocidad de carrera resulto estar íntimamente ligada al nivel deportivo del triatleta. Del mismo modo, 3 de los 4 grupos analizados presentaron valores inferiores a 3 minutos 30 segundos por kilometro recorrido, poniendo de manifiesto el altísimo nivel de los sujetos analizados. Del mismo modo parece que las chicos consiguen una mayor velocidad gracias a una mayor longitud de ciclo en relación a las chicas, ya que estas muestran valores mayores en cuanto a frecuencia de zancada. La frecuencia de zancada presento los valores más altos en la primera vuelta en todos los deportistas analizados. Asimismo, los triatletas de nivel internacional y las chicas fueron los que mostraron los mayores valores. La longitud de zancada presento distintas tendencias en función del nivel y el género del deportista. Así pues, en los deportistas internacionales y en los chicos los mayores valores se encontraron en la primera vuelta mientras que la tendencia fue al descenso, siendo probablemente la fatiga acumulada la causante de dicha tendencia. En cambio, aquellos deportistas de nivel nacional y las chicas mostraron valores mayores en la segunda vuelta que en la primera, evidenciando que además de la fatiga, el ciclismo previo tiene una incidencia directa sobre su rendimiento. Los tiempos de vuelo permanecieron constantes durante toda la carrera, encontrando cierta evolución en los tiempos de apoyo, la cual provoca una modificación en los porcentajes relativos en los tiempos de vuelo. Los tiempos de apoyo más bajos se encontraron en la primera vuelta. Del mismo modo, los deportistas de nivel internacional y los chicos mostraron valores inferiores. También, estos grupos fueron más constantes en sus valores a lo largo de las vueltas. Por el contrario, se encontraron tendencias al aumento en los triatletas de nivel nacional y en las chicas, los cuales no fueron capaces de mantener el mismo rendimiento debido seguramente a su menor nivel deportivo. La oscilación vertical de la cadera se mostro constante en los triatletas de mayor nivel, encontrándose tendencias al aumento en los de menor nivel. Del mismo modo, los valores más altos correspondieron a las chicas y a los deportistas de nivel nacional. La distancia de la cadera al apoyo permaneció constante a lo largo de las vueltas en todos los grupos, obteniéndose valores mayores en los triatletas de nivel internacional y en los chicos. El ángulo de la rodilla apoyada en el momento del despegue no mostro una tendencia clara. Los deportistas de nivel internacional y los chicos presentaron los valores más bajos. El ángulo de la rodilla libre en el momento del despegue mostro una correlación muy alta con la velocidad de carrera. Del mismo modo, los ángulos más pequeños se encontraron en los triatletas internacionales y en los chicos, debido seguramente a los mayores valores de velocidad registrados por ambos grupos. Los ángulos de los tobillos no mostraron ninguna tendencia clara durante la competición analizada. Los cuatro grupos de población presentaron valores similares, por lo que parece que no representan una variable que pueda incidir sobre el rendimiento biomecánica del triatleta. Los resultados obtenidos en el presente estudio de investigación avalan la utilización de la fotogrametría-video en 2d para el análisis de la técnica de carrera durante la competición en triatlón. Su aplicación en una competición de máximo nivel internacional ha posibilitado conocer el perfil técnico que presentan los triatletas a lo largo del segmento de carrera a pie. Del mismo modo, se ha podido demostrar como los estudios realizados en laboratorio no reflejan la realidad competitiva de un triatlón de máximo nivel. The aim of this research was to determine the running technique profile during a triathlon competition from a biomechanical perspective. Also, to analyze the triathlete gender’s and level of performance’s influence on this profile in competition. An accurate (internal validity) and reliable methodology with a high external validity (ecological) had to be developed to get those aims in competition. Sixty-four triathletes were analyzed. 32 (16 males, 16 females) took part in the Madrid 2008 Triathlon World Cup and 32 (16 males and 16 females) took part in the Spanish Triathlon National Championships. The biomechanical analyses were carried out by a photogrammetric system that allow to calculate the landmarks coordinates (x,y) with a 1.66% error in x axis, and a 2.10% error in y axis. The frames were obtained with a camera situated perpendicular to the triathletes’ trajectory, filming the saggittal plane. DLT based algorithms (Abdel-Aziz & Karara, 1971) were used to calculate the real coordinates from the digitalized ones and the final variables afterwards. The biomechanical analisys itself was performed in four different moments during the competition, according to each 2.5 km lap the triathletes had to do. Running speed was highly related to performance level. Also, 3 of the 4 analyzed groups showed speed values under the 3 minutes and 30 seconds per kilometer. It demonstrated the very high performance level of the analized triathletes. Furthermore, it seems that men get higher speeds because their longer stride length, while women shows higher stride frequency values. The highest stride frequency values were found in the first lap. Women and the international level triathletes showed the highest values. Stride length showed different tendencies according to the gender and level of performance. Men and international level triathletes showed the highest level in the first lap and a decreasing tendency after that. The accumulated fatigue was probably the reason of this tendency. On the other hand, higher values than in first lap were found in the second one in women and national level triathletes. It demonstrated the previous cycling can affect to those groups in terms of biomechanics. Flight times remained constant during the running part, while the contact times showed an increasing tendency that caused a variation in flight times percents. The lowest contact times were found in the first lap and in men and international triathletes’ values. Also, these two groups were more consistent during the whole running. On the other hand, increasing tendencies were found in women and national level triathletes, who were not able to maintain the same values probably due to their lower level of performance. Higher level triathletes showed more consistent hip vertical oscillation values than lower level triathletes, who presented increasing tendencies. The highest values were found in women and national level triathletes. The horizontal distance hip-toe cap remained constant among the laps in all the groups. Men and international level triathletes showed the highest values. The support knee angle at toe-off did not show a clear tendency. The lowest values were found in men and international level triathletes. A high correlation was found between the non-support knee angle and the running speed. Furthermore, men and international level triathletes showed the smallest values, due to the higher velocities reached by these two groups. Ankles angles did not show any tendency during the running part. Similar values were found in the four analyzed groups, so this variable does not seem to represent an important one within the triathlete’s performance. The results obtained in the present research support the use of the bidimensional photogrammetric video-system to analyze the running technique during a triathlon competition. Its application in international triathlon meetings has allowed determining the triathletes’ technique profile during the running part. Also, it has been demonstrated the laboratory-based studies does not reproduce a top-level competition.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el presente trabajo fin de máster se ha concebido, diseñado e utilizado una interfaz háptica, adecuada para ser utilizada como dispositivo de sustitución sensorial, la cual hemos llamado retina táctil. Por cuanto trata de proporcionar información propia del sentido de la vista a través del sentido del tacto. Durante este trabajo, que fue desarrollado en el grupo de robótica y cibernética CAR UPM-CSIC, se ha trabajado en estrecha colaboración con el departamento de la facultad de psicología de la universidad autónoma de Madrid, los cuales han definido las bases de la información de alto orden, como podrían ser, gradientes de intensidades de vibración, mediante las cuales el individuo llega a tener una mejor comprensión del ambiente. El proyecto maneja teorías psicológicas recientes, como las teorías ecológicas y dinámicas que entienden que la percepción se basa en variables informacionales de alto orden. Ejemplos de tales variables son el flujo óptico, gradientes de movimiento, gradientes de intensidades, cambios en gradientes, etc. Sorprendentemente, nuestra percepción visual es mucho más sensible a variables de alto orden que a variables de bajo orden, lo cual descarta que variables de alto orden se infieran o calculen en base a variables de bajo orden. La hipótesis que maneja la teoría ecológica es que las variables de alto orden se detectan como unidades básicas, sin descomponerlas en variables de bajo orden. Imaginemos el caso de un objeto acercándose, intuitivamente pensaríamos que calculamos la distancia y la velocidad del objeto para determinar el momento en el cual este nos impactaría, ¿pero es este realmente el modo en el que actúa nuestro cerebro?, ¿no seremos capaces en determinar directamente el tiempo de contacto como una variable de alto orden presente en el entorno?, por ejemplo, determinar directamente la relación entre el tamaño del objeto y la tasa de crecimiento. También cabe preguntarse si todas estas suposiciones son válidas para estimulaciónes a través de los receptores táctiles en la piel. El dispositivo desarrollado está conformado por 13 módulos cada uno de los cuales maneja 6 tactores o vibradores, para hacer un total de 78 vibradores (ampliables al agregar módulos adicionales), cada uno de los tactores tiene 8mm de diámetro y proporciona información del flujo óptico asociado al entorno que rodea al usuario a través de información táctil, él mismo puede ser utilizado inalámbricamente a pesar de que el procesamiento de los datos se este realizando en una computadora de mesa, lo cual es muy útil al trabajar con ambientes virtuales. También se presenta la integración de la interfaz con el sistema operativo de robots ROS para usarlo en conjunto con las librerías que han sido desarrolladas para el control de la cámara Microsoft Kinect con la cual se puede obtener una matriz de distancias de puntos en el espacio, permitiendo de esta manera utilizar la interfaz en ambientes reales. Finalmente se realizaron experimentos para comprobar hipótesis sobre la variable de percepción del tiempo de contacto además de verificar el correcto funcionamiento del dispositivo de sustitución sensorial tanto en ambientes reales como en ambientes simulados así como comprobar hipótesis sobre la validéz del uso del flujo vibrotáctil para la determinación del tiempo de contacto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La directiva europea sobre gestión de la seguridad de las infraestructuras viarias establece el requerimiento de implantar un procedimiento de clasificación de los tramos de la red en función del ahorro potencial en costes derivados de los accidentes en las carreteras que forman parte de la Red Transeuropea. El potencial de mejora de la seguridad debe reflejar la reducción en coste de accidentalidad que podría alcanzarse a través de medidas de mejora de la infraestructura y puede estimarse como la diferencia entre el coste por km de la accidentalidad del tramo durante el período considerado y el coste esperado para carreteras del mismo tipo que dispongan de las condiciones de seguridad alcanzables mediante actuaciones preventivas de mejora de las infraestructuras. En la ponencia se describe un procedimiento para mejorar la precisión de la estimación del potencial de reducción de la accidentalidad en los tramos de una red de carreteras a partir de la calibración de modelos lineales generalizados de estimación de la frecuencia de accidentes y de su combinación con la información registrada de accidentalidad aplicando un procedimiento bayesiano empírico.