11 resultados para percepci??n del otro

em Universidad Politécnica de Madrid


Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo principal de esta tesis fue incrementar el valor proteico para rumiantes de la harina de girasol mediante tratamientos combinados con ácidos y calor para proteger sus proteínas frente a la degradación ruminal. Estos estudios comprenden dos experimentos realizados sobre ovinos mediante tecnologías in vitro (experimento 1) o in situ e in vivo (experimento 2), empleando siempre dos ácidos: málico u ortofosfórico. Aprovechando este último experimento, también se consideraron otros objetivos de carácter metodológico con el fin de mejorar la precisión de las estimas de i) la degradabilidad ruminal y la digestibilidad intestinal de la proteína y los aminoácidos (AAs) de los alimentos y ii) la síntesis microbiana ruminal y su contribución al flujo post-ruminal de nutrientes al animal. En el experimento 1 (capítulo 2) se efectuaron cuatro ensayos in vitro para estudiar la influencia de distintos factores que puedan afectar la eficacia de estos tratamientos. En cada ensayo se utilizó una réplica por tratamiento (dos para el tratamiento control) y dos bolsas vacías (empleadas para corregir la contaminación microbiana) en cada una de las cuatro botellas del incubador (ANKOM Daisy II). Cada botella contenía 2 l de medio de incubación, saturado con CO2 para asegurar la anaerobiosis. Este medio consistió en una mezcla de solución McDougall y liquido ruminal filtrado en relación 4:1. El liquido ruminal fue obtenido de 2 corderos canulados en rumen, utilizándose bien solo o mezclado con el del otro cordero en una relación 3:1. Así, cada botella de incubación contenía un inoculo ruminal diferente. Las incubaciones se realizaron a 39 ºC durante 20 h, siendo las bolsas lavadas con agua corriente y almacenadas a -20 ºC. Tras ser descongeladas, se lavaron 3 veces durante 5 min en una mini-lavadora de turbina, se desecaron a 80 ºC durante 48 h y se destinaron íntegras al análisis de N-Kjeldahl. En el ensayo 1 se estudió el efecto del volumen de disolución de dos dosis de ácido ortofosfórico (0,4 y 1,2 equivalentes gramo (eq)/kg de harina de girasol), testando cinco volúmenes de disolución (80, 160, 240, 320 and 400 ml/kg de harina) para cada dosis, desecándose las harinas a 60 ºC hasta sequedad al tacto. La proteína bruta (PB) indegradada se incremento con la dosis de ácido empleada y también (como tendencia, P < 0,1) con el volumen de dilución. En base a ello en los siguientes ensayos se utilizo el volumen de dilución mayor (400 ml/kg). En el ensayo 2 se estudió el efecto de la dosis y del tipo de ácido a cuatro dosis (1,2; 2,4; 3,6 y 4,8 eq/kg), secándose igualmente las muestras tratadas a 60 ºC. La PB indegradada aumentó con la dosis de ácido, siendo también mayor para el ácido málico, tanto en este ensayo como en los posteriores. En el ensayo 3 se estudiaron los efectos de los dos ácidos, cuatro concentraciones (0,6; 1,2; 1,8 y 2,4 eq/kg) y tres tratamientos térmicos para el secado de las muestras (100, 150 and 200 ºC durante 60, 30 y 20 minutos, respectivamente). Con los tratamientos térmicos a 100 y 150 ºC no hubo un incremento de protección para concentraciones superiores a 0,8 eq/kg para ambos ácidos. Para incrementar la protección fue necesario aumentar la temperatura a 200 ºC y la dosis a 1,2 eq/kg, no observándose un aumento de protección a dosis mayores. En el ensayo 4 se estudiaron los efectos sobre la lisina disponible, la solubilidad de la PB en saliva artificial de McDougall y la PB indegradada in vitro de tratar la harina solo con agua o con disoluciones de ambos ácidos a dosis de 0,8 eq/kg y temperaturas de secado de 100 ó 150 ºC en las mismas condiciones que en el ensayo 3. No se apreciaron efectos sobre la lisina disponible para ninguno de los tratamientos. El efecto específico de los ácidos quedo demostrado tanto por la fuerte reducción de la solubilidad de la PB como por el aumento de la PB indegradada frente al tratamiento con agua. En conjunto, los resultados de este experimento mostraron que la eficacia de estos tratamientos depende del tipo y dosis de ácido y de su dilución, así como de las condiciones de secado. Como tratamiento de mayor interés a aplicar posteriormente en el experimento 2 se consideró una dosis de 0,8 eq/kg de harina, aplicada en un volumen de 400 ml/kg (correspondiente a soluciones 1 M y 0,67 M para los ácidos málico y ortofosfórico, respectivamente) y desecación a 150 ºC. El experimento 2 (capítulos 3 a 7) se realizó con un diseño en cuadrado latino 3x3, empleando tres corderos canulados en rumen y duodeno y tres dietas isoproteicas: U, M y P, que incluían harinas de girasol sin tratar (control) y tratadas con acido málico u ortofosfórico, respectivamente. La harina de girasol se trató en las condiciones ya indicadas siendo necesarias 6 horas para su secado en estufa. Las dietas incluían 40% de heno de raigrás italiano y 60% de concentrado a base de harina de girasol (tratada y/o sin tratar), trigo y corrector vitamínico-mineral, siendo suministradas a 75 g/kg P0.75 (equivalente a 2,3 × mantenimiento). La relación harina de girasol sin tratar y tratada fue de 100:0 en la dieta U y entorno a 40:60 en las dietas M y P. Tras 10 días de adaptación a la dieta, se estudiaron sucesivamente: i) el tránsito hasta el duodeno de las partículas del heno (solo en la dieta control) y de la harina de girasol marcadas previamente con europio e iterbio, respectivamente; ii) la fermentación ruminal durante el periodo postprandial, iii) la degradación ruminal in situ de la harina de girasol específica de cada dieta (y del trigo y el heno en la dieta control) y iv) la magnitud y composición del contenido ruminal mediante el vaciado manual del rumen-retículo. Durante todo el periodo experimental se infundio de forma continua una solución de sulfato amónico enriquecido en 15N (98 átomos %) para corregir la contaminación microbiana ruminal en los estudios in situ y para establecer las diferencias de composición química entre las bacterias libres (BAL) y adherentes (BAS) del rumen. Esta solución incluyó en los dos últimos días Li-Cr- EDTA para determinar la tasa de dilución ruminal. Posteriormente, y tras un periodo de al menos 10 días para eliminar el enriquecimiento en 15N de la digesta, se estudió la digestibilidad intestinal de los distintos alimentos mediante la técnica de bolsas móviles. La determinación del bypass (BP) o de la degradabilidad efectiva (DE) de la materia seca (MS) y de la PB se realizó por el método tradicional de integración matemática; estos valores se obtuvieron también para la PB y los AAs generando una muestra representativa del flujo post-ruminal del alimento en estudio en cada animal. Ello se realizó mediante la mezcla de los distintos residuos de incubación en base a la función que describe el flujo de alimento indegradado que abandona el rumen. Todos estos trabajos se realizaron considerando la tasa de salida de partículas del rumen (kp) y, según casos, considerando también la tasa de conminución y mezcla de las partículas en este compartimento (kc). Para este último caso se ha desarrollado también el modelo matemático que describe este flujo y permite este cálculo. Los valores no corregidos por la contaminación microbiana del BP (o de DE) de la PB resultantes de ambos métodos se han comparado tanto en las harinas de girasol como en los restantes alimentos de la dieta, obteniéndose valores similares, sin apreciarse desviaciones sistemáticas. Sobre las muestras compuestas representativas de la composición química del BP se determino la digestibilidad intestinal efectiva (DIE) de la MS, PB y AAs. Todos los valores resultantes de esta técnica fueron corregidos para la contaminación microbiana de las partículas que tiene lugar en el rumen. Los estudios de transito digestivo se realizaron tras suministrar en el comedero a los corderos una dosis simple de los alimentos marcados, seguida de la toma de muestras de la digesta duodenal durante 82 h. En la dieta testigo se suministraron simultáneamente el heno de raigrás y la harina de girasol, mientras que en las otras dietas solo se suministró esta última. La harina de girasol mostro un mayor valor para kc frente al heno (0,5766 v. 0,0892, /h), mientras que no hubo diferencias entre los dos alimentos para kp (0,0623 v. 0,0609, /h). Para la harina de girasol no se apreciaron diferencias entre dietas para kc, pero si se redujo de manera moderada la tasa kp con los tratamientos, siendo ésta también menor al utilizar ácido ortofosfórico frente al uso de ácido malico (0,0577 v. 0,0600, /h). El empleo de las harinas tratadas no modifico los parámetros de fermentación ruminal, la composición de los contenidos ruminales o la tasa de dilución del rumen. Los valores efectivos del BP y de DIE de la MS, PB y AAs de las harinas de girasol se obtuvieron considerando kc y kp, conjuntamente. Los tratamientos de protección incrementaron el BP de MS y PB en 48,5 y 268% de media, respectivamente. Estos incrementos se debieron principalmente al descenso de la fracción soluble y de la velocidad de degradación, pero también al aumento de la fracción indegradable, especialmente usando ácido ortofosfórico. Con los tratamientos se incrementó también la DIE de la MS (108% de media) y de la PB con gran diferencia entre los ácidos málico y ortofosfórico (20,7 v. 11,8%). Como consecuencia de estos cambios la protección aumentó la fracción realmente digerida en el intestino en 211% (MS) y 325% (PB), sin efectos entre ambos ácidos. Considerando la reducción del suministro de energía fermentable para los microorganismos ruminales asociada a la protección y los parámetros indicados por el sistema PDI francés para la síntesis de proteína microbiana digestible, la eficacia de conversión de PB en proteína metabolizable aumentó de 0,244 a 0,559 y 0,515 con el tratamiento con acido málico y ortofosfórico, respectivamente. El contenido en aminoácidos (AAs) fue similar en todas las harinas salvo por una disminución de lisina en las harinas tratadas. De forma análoga a la PB, los tratamientos de protección incrementaron el BP y la DIE de la mayoría de AAs. El aporte de AAs metabolizabes de la harina se multiplico en 3,87 para los AAs azufrados y en menor medida (2,5 veces) para la lisina, como consecuencia de las pérdidas sufridas a consecuencia del tratamiento térmico. Estos tratamientos se muestran, por tanto, útiles para incrementar el valor proteico de la harina de girasol, si bien su empleo junto con concentrados proteicos ricos en lisina bypass digestible mejoraría el perfil de la proteína metabolizable. La corrección de la contaminación microbiana de las partículas que tiene lugar en el rumen se asoció en todos los alimentos testados y, de forma general, con reducciones del BP y de su DIE en todas las fracciones estudiadas. Estas reducciones fueron pequeñas en todos los concentrados, de forma acorde con los muy pequeños niveles de contaminación registrados tanto en las harinas de girasol como en el grano de trigo. Por el contrario, esta contaminación, al igual que los efectos de su corrección, fueron muy importantes en el heno de raigrás. Esta contaminación aumentó al tener en cuenta kc. Así, para la proporción de PB de origen microbiano existente en las muestras compuestas representativas del BP, este aumento fue significativo para el heno de raigrás (0,463 v. 0,706) y solo numérico para la harina de girasol (0,0170 v. 0,0208). La reducción de las estimas de DIE al corregir esta contaminación fue consecuencia de la eliminación de forma casi completa de los microorganismos adherentes en todos los residuos testados. Así, esta biomasa se redujo en 96,1% como media de 7x3 observaciones. Como resultado de las diferencias acumulativas a nivel del rumen e intestino, la no corrección de la contaminación microbiana junto con la no consideración de kc condujo a fuertes sobrestimaciones de la PB digerida en el intestino. Ésta fue de 39% en la harina de girasol (0,146 v. 0,105) y de 761% en el heno de raigrás (0,373 v. 0,0433). Estos resultados muestran que es necesario considerar tanto kc como corregir la contaminación microbiana para obtener estimas in situ precisas en forrajes, mientras que en concentrados, siempre que la contaminación microbiana sea pequeña, es más importante considerar kc. La elevada contaminación microbiana observada en el heno de raigrás se asoció también con importantes errores a nivel del N asociado a la fibra neutro (FND) y ácido (FAD) detergente (NDIN y ADIN, respectivamente) e incluso de estas fracciones de fibra, evidenciándose que estos métodos no eliminan completamente la contaminación microbiana que sufren los alimentos en su paso por el retículorumen. Así, en la muestra compuesta representativa de la composición química del flujo postruminal antes descrita, la sobrevaloración por no corregir la contaminación microbiana fue de 99,8; 24,2; 3,34 y 0,48% para NDIN, ADIN, FND y FAD, respectivamente. Las subvaloraciones asociadas para su DE fueron 34,1; 8,79; 4,41 y 0,51%, respectivamente. La DE corregida del NDIN y ADIN (0,743 y 0,728, respectivamente) mostró un aprovechamiento ruminal elevado de estos compuestos, si bien menor al de la PB total (0,85). El estudio de este aprovechamiento sobre los residuos de incubación ruminal a 6 y 72 h demostró, además, una más rápida degradación del ADIN frente al NDIN, así como un mayor potencial de degradación de este último en este alimento. Para comprobar si la digestión en el abomaso eliminaba la contaminación microbiana en la FND y FAD se estudio esta contaminación y sus posibles errores en muestras liofilizadas de contenidos ruminales y duodenales correspondientes a una dieta mixta de similar composición a la utilizada en el experimento 2, comparándose, además, las diferencias entre la extracción secuencial o directa de la FAD. Utilizando como referencia las BAS se apreciaron elevadas contaminaciones en la FND y FAD y su N asociado tanto en las muestras ruminales como en las duodenales. Sin embargo, los resultados de enriquecimiento en 15N de las partículas fueron intermedios entre los correspondientes a BAS y BAL lo que evidencia una elevada contaminación con BAL en estas muestras probablemente durante el proceso de liofilización. Ello conlleva una sobrevaloración de esta estimación. El método de extracción directa de FAD se mostró, por otra parte, marcadamente menos eficaz en la eliminación de la contaminación microbiana. Los resultados muestran la necesidad de corregir la contaminación microbiana para obtener estimaciones precisas de la degradabilidad de las proteínas de las paredes celulares vegetales. Estos errores deberían ser también considerados para FND y FAD en estudios in situ e in vivo. La elevada tasa fraccional de degradación del grano de trigo (60,9 y 42,0%/h para MS y PB, respectivamente) implico que su flujo de material indegradado (calculado solo en base a la kp obtenida para la harina de girasol) se redujera muy rápidamente, de forma que es casi nulo a 8 h tras la ingestión. Los valores corregidos de PB digerida en el intestino (0,15) representan solo el 18,7% de la proteína metabolizable, lo que muestra que el valor proteico del grano de trigo está estrechamente ligado a la síntesis de proteína microbiana derivada de su fermentación. En el experimento 2 se observaron menores concentraciones para materia orgánica, lípidos y PB, así como en la proporción N-AAs/N total en BAL que en BAS, siendo, por el contrario, mayor su enriquecimiento en 15N. Estos últimos resultados se utilizaron (junto con los de otros trabajos previos de este equipo) para validar una predicción preexistente del enriquecimiento en 15N de las BAS a partir de este valor en las BAL. Esta ecuación, de muy alta precisión (R2 = 0.995), permite calcular la subvaloración que se comete en los aportes de nutrientes correspondientes a las BAS al usar las BAL como muestra de referencia. Esta subvaloración representa aproximadamente 21, 32,5 y 60% para PB, proteína verdadera y lípidos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Resumen: Se presentan los resultados de una investigación sobre la identidad del mexicano, los valores que lo definen y las diferencias sociodemográficas y territoriales entre la visión del ?otro? y la ?propia?, en una muestra de 629 habitantes de dos municipios potosinos. Para el análisis se utilizó la prueba de chi-cuadrada para encontrar diferencias entre grupos (pmenor que0.05). Se demostró que los valores evaluados son específicos de lo sociodemográfico y territorial; entre ellos, ser honrado y ser trabajador fueron los más comunes. Hubo diferencias entre los habitantes urbanos y los rurales: aquéllos se percibieron como fiesteros y entrones, y éstos, como ahorradores, trabajadores y sinceros. La conclusión es que en función de los valores no existe una definición única en la identidad del mexicano, pues existen subculturas que se explican por los aspectos estudiados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The commonly accepted approach to specifying libraries of concurrent algorithms is a library abstraction. Its idea is to relate a library to another one that abstracts away from details of its implementation and is simpler to reason about. A library abstraction relation has to validate the Abstraction Theorem: while proving a property of the client of the concurrent library, the library can be soundly replaced with its abstract implementation. Typically a library abstraction relation, such as linearizability, assumes a complete information hiding between a library and its client, which disallows them to communicate by means of shared memory. However, such way of communication may be used in a program, and correctness of interactions on a shared memory depends on the implicit contract between the library and the client. In this work we approach library abstraction without any assumptions about information hiding. To be able to formulate the contract between components of the program, we augment machine states of the program with two abstract states, views, of the client and the library. It enables formalising the contract with the internal safety, which requires components to preserve each other's views whenever their command is executed. We define the library a a correspondence between possible uses of a concrete and an abstract library. For our library abstraction relation and traces of a program, components of which follow their contract, we prove an Abstraction Theorem. RESUMEN. La técnica más aceptada actualmente para la especificación de librerías de algoritmos concurrentes es la abstracción de librerías (library abstraction). La idea subyacente es relacionar la librería original con otra que abstrae los detalles de implementación y conóon que describa dicha abstracción de librerías debe validar el Teorema de Abstracción: durante la prueba de la validez de una propiedad del cliente de la librería concurrente, el reemplazo de esta última por su implementación abstracta es lógicamente correcto. Usualmente, una relación de abstracción de librerías como la linearizabilidad (linearizability), tiene como premisa el ocultamiento de información entre el cliente y la librería (information hiding), es decir, que no se les permite comunicarse mediante la memoria compartida. Sin embargo, dicha comunicación ocurre en la práctica y la correctitud de estas interacciones en una memoria compartida depende de un contrato implícito entre la librería y el cliente. En este trabajo, se propone un nueva definición del concepto de abtracción de librerías que no presupone un ocultamiento de información entre la librería y el cliente. Con el fin de establecer un contrato entre diferentes componentes de un programa, extendemos la máquina de estados subyacente con dos estados abstractos que representan las vistas del cliente y la librería. Esto permite la formalización de la propiedad de seguridad interna (internal safety), que requiere que cada componente preserva la vista del otro durante la ejecuci on de un comando. Consecuentemente, se define la relación de abstracción de librerías mediante una correspondencia entre los usos posibles de una librería abstracta y una concreta. Finalmente, se prueba el Teorema de Abstracción para la relación de abstracción de librerías propuesta, para cualquier traza de un programa y cualquier componente que satisface los contratos apropiados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La necesidad de desarrollar técnicas para predecir la respuesta vibroacústica de estructuras espaciales lia ido ganando importancia en los últimos años. Las técnicas numéricas existentes en la actualidad son capaces de predecir de forma fiable el comportamiento vibroacústico de sistemas con altas o bajas densidades modales. Sin embargo, ambos rangos no siempre solapan lo que hace que sea necesario el desarrollo de métodos específicos para este rango, conocido como densidad modal media. Es en este rango, conocido también como media frecuencia, donde se centra la presente Tesis doctoral, debido a la carencia de métodos específicos para el cálculo de la respuesta vibroacústica. Para las estructuras estudiadas en este trabajo, los mencionados rangos de baja y alta densidad modal se corresponden, en general, con los rangos de baja y alta frecuencia, respectivamente. Los métodos numéricos que permiten obtener la respuesta vibroacústica para estos rangos de frecuencia están bien especificados. Para el rango de baja frecuencia se emplean técnicas deterministas, como el método de los Elementos Finitos, mientras que, para el rango de alta frecuencia las técnicas estadísticas son más utilizadas, como el Análisis Estadístico de la Energía. En el rango de medias frecuencias ninguno de estos métodos numéricos puede ser usado con suficiente precisión y, como consecuencia -a falta de propuestas más específicas- se han desarrollado métodos híbridos que combinan el uso de métodos de baja y alta frecuencia, intentando que cada uno supla las deficiencias del otro en este rango medio. Este trabajo propone dos soluciones diferentes para resolver el problema de la media frecuencia. El primero de ellos, denominado SHFL (del inglés Subsystem based High Frequency Limit procedure), propone un procedimiento multihíbrido en el cuál cada subestructura del sistema completo se modela empleando una técnica numérica diferente, dependiendo del rango de frecuencias de estudio. Con este propósito se introduce el concepto de límite de alta frecuencia de una subestructura, que marca el límite a partir del cual dicha subestructura tiene una densidad modal lo suficientemente alta como para ser modelada utilizando Análisis Estadístico de la Energía. Si la frecuencia de análisis es menor que el límite de alta frecuencia de la subestructura, ésta se modela utilizando Elementos Finitos. Mediante este método, el rango de media frecuencia se puede definir de una forma precisa, estando comprendido entre el menor y el mayor de los límites de alta frecuencia de las subestructuras que componen el sistema completo. Los resultados obtenidos mediante la aplicación de este método evidencian una mejora en la continuidad de la respuesta vibroacústica, mostrando una transición suave entre los rangos de baja y alta frecuencia. El segundo método propuesto se denomina HS-CMS (del inglés Hybrid Substructuring method based on Component Mode Synthesis). Este método se basa en la clasificación de la base modal de las subestructuras en conjuntos de modos globales (que afectan a todo o a varias partes del sistema) o locales (que afectan a una única subestructura), utilizando un método de Síntesis Modal de Componentes. De este modo es posible situar espacialmente los modos del sistema completo y estudiar el comportamiento del mismo desde el punto de vista de las subestructuras. De nuevo se emplea el concepto de límite de alta frecuencia de una subestructura para realizar la clasificación global/local de los modos en la misma. Mediante dicha clasificación se derivan las ecuaciones globales del movimiento, gobernadas por los modos globales, y en las que la influencia del conjunto de modos locales se introduce mediante modificaciones en las mismas (en su matriz dinámica de rigidez y en el vector de fuerzas). Las ecuaciones locales se resuelven empleando Análisis Estadístico de Energías. Sin embargo, este último será un modelo híbrido, en el cual se introduce la potencia adicional aportada por la presencia de los modos globales. El método ha sido probado para el cálculo de la respuesta de estructuras sometidas tanto a cargas estructurales como acústicas. Ambos métodos han sido probados inicialmente en estructuras sencillas para establecer las bases e hipótesis de aplicación. Posteriormente, se han aplicado a estructuras espaciales, como satélites y reflectores de antenas, mostrando buenos resultados, como se concluye de la comparación de las simulaciones y los datos experimentales medidos en ensayos, tanto estructurales como acústicos. Este trabajo abre un amplio campo de investigación a partir del cual es posible obtener metodologías precisas y eficientes para reproducir el comportamiento vibroacústico de sistemas en el rango de la media frecuencia. ABSTRACT Over the last years an increasing need of novel prediction techniques for vibroacoustic analysis of space structures has arisen. Current numerical techniques arc able to predict with enough accuracy the vibro-acoustic behaviour of systems with low and high modal densities. However, space structures are, in general, very complex and they present a range of frequencies in which a mixed behaviour exist. In such cases, the full system is composed of some sub-structures which has low modal density, while others present high modal density. This frequency range is known as the mid-frequency range and to develop methods for accurately describe the vibro-acoustic response in this frequency range is the scope of this dissertation. For the structures under study, the aforementioned low and high modal densities correspond with the low and high frequency ranges, respectively. For the low frequency range, deterministic techniques as the Finite Element Method (FEM) are used while, for the high frequency range statistical techniques, as the Statistical Energy Analysis (SEA), arc considered as more appropriate. In the mid-frequency range, where a mixed vibro-acoustic behaviour is expected, any of these numerical method can not be used with enough confidence level. As a consequence, it is usual to obtain an undetermined gap between low and high frequencies in the vibro-acoustic response function. This dissertation proposes two different solutions to the mid-frequency range problem. The first one, named as The Subsystem based High Frequency Limit (SHFL) procedure, proposes a multi-hybrid procedure in which each sub-structure of the full system is modelled with the appropriate modelling technique, depending on the frequency of study. With this purpose, the concept of high frequency limit of a sub-structure is introduced, marking out the limit above which a substructure has enough modal density to be modelled by SEA. For a certain analysis frequency, if it is lower than the high frequency limit of the sub-structure, the sub-structure is modelled through FEM and, if the frequency of analysis is higher than the high frequency limit, the sub-structure is modelled by SEA. The procedure leads to a number of hybrid models required to cover the medium frequency range, which is defined as the frequency range between the lowest substructure high frequency limit and the highest one. Using this procedure, the mid-frequency range can be define specifically so that, as a consequence, an improvement in the continuity of the vibro-acoustic response function is achieved, closing the undetermined gap between the low and high frequency ranges. The second proposed mid-frequency solution is the Hybrid Sub-structuring method based on Component Mode Synthesis (HS-CMS). The method adopts a partition scheme based on classifying the system modal basis into global and local sets of modes. This classification is performed by using a Component Mode Synthesis, in particular a Craig-Bampton transformation, in order to express the system modal base into the modal bases associated with each sub-structure. Then, each sub-structure modal base is classified into global and local set, fist ones associated with the long wavelength motion and second ones with the short wavelength motion. The high frequency limit of each sub-structure is used as frequency frontier between both sets of modes. From this classification, the equations of motion associated with global modes are derived, which include the interaction of local modes by means of corrections in the dynamic stiffness matrix and the force vector of the global problem. The local equations of motion are solved through SEA, where again interactions with global modes arc included through the inclusion of an additional input power into the SEA model. The method has been tested for the calculation of the response function of structures subjected to structural and acoustic loads. Both methods have been firstly tested in simple structures to establish their basis and main characteristics. Methods are also verified in space structures, as satellites and antenna reflectors, providing good results as it is concluded from the comparison with experimental results obtained in both, acoustic and structural load tests. This dissertation opens a wide field of research through which further studies could be performed to obtain efficient and accurate methodologies to appropriately reproduce the vibro-acoustic behaviour of complex systems in the mid-frequency range.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de esta tesis es estudiar la dinámica de la capa logarítmica de flujos turbulentos de pared. En concreto, proponemos un nuevo modelo estructural utilizando diferentes tipos de estructuras coherentes: sweeps, eyecciones, grupos de vorticidad y streaks. La herramienta utilizada es la simulación numérica directa de canales turbulentos. Desde los primeros trabajos de Theodorsen (1952), las estructuras coherentes han jugado un papel fundamental para entender la organización y dinámica de los flujos turbulentos. A día de hoy, datos procedentes de simulaciones numéricas directas obtenidas en instantes no contiguos permiten estudiar las propiedades fundamentales de las estructuras coherentes tridimensionales desde un punto de vista estadístico. Sin embargo, la dinámica no puede ser entendida en detalle utilizando sólo instantes aislados en el tiempo, sino que es necesario seguir de forma continua las estructuras. Aunque existen algunos estudios sobre la evolución temporal de las estructuras más pequeñas a números de Reynolds moderados, por ejemplo Robinson (1991), todavía no se ha realizado un estudio completo a altos números de Reynolds y para todas las escalas presentes de la capa logarítmica. El objetivo de esta tesis es llevar a cabo dicho análisis. Los problemas más interesantes los encontramos en la región logarítmica, donde residen las cascadas de vorticidad, energía y momento. Existen varios modelos que intentan explicar la organización de los flujos turbulentos en dicha región. Uno de los más extendidos fue propuesto por Adrian et al. (2000) a través de observaciones experimentales y considerando como elemento fundamental paquetes de vórtices con forma de horquilla que actúan de forma cooperativa para generar rampas de bajo momento. Un modelo alternativo fué ideado por del Álamo & Jiménez (2006) utilizando datos numéricos. Basado también en grupos de vorticidad, planteaba un escenario mucho más desorganizado y con estructuras sin forma de horquilla. Aunque los dos modelos son cinemáticamente similares, no lo son desde el punto de vista dinámico, en concreto en lo que se refiere a la importancia que juega la pared en la creación y vida de las estructuras. Otro punto importante aún sin resolver se refiere al modelo de cascada turbulenta propuesto por Kolmogorov (1941b), y su relación con estructuras coherentes medibles en el flujo. Para dar respuesta a las preguntas anteriores, hemos desarrollado un nuevo método que permite seguir estructuras coherentes en el tiempo y lo hemos aplicado a simulaciones numéricas de canales turbulentos con números de Reynolds lo suficientemente altos como para tener un rango de escalas no trivial y con dominios computacionales lo suficientemente grandes como para representar de forma correcta la dinámica de la capa logarítmica. Nuestros esfuerzos se han desarrollado en cuatro pasos. En primer lugar, hemos realizado una campaña de simulaciones numéricas directas a diferentes números de Reynolds y tamaños de cajas para evaluar el efecto del dominio computacional en las estadísticas de primer orden y el espectro. A partir de los resultados obtenidos, hemos concluido que simulaciones con cajas de longitud 2vr y ancho vr veces la semi-altura del canal son lo suficientemente grandes para reproducir correctamente las interacciones entre estructuras coherentes de la capa logarítmica y el resto de escalas. Estas simulaciones son utilizadas como punto de partida en los siguientes análisis. En segundo lugar, las estructuras coherentes correspondientes a regiones con esfuerzos de Reynolds tangenciales intensos (Qs) en un canal turbulento han sido estudiadas extendiendo a tres dimensiones el análisis de cuadrantes, con especial énfasis en la capa logarítmica y la región exterior. Las estructuras coherentes han sido identificadas como regiones contiguas del espacio donde los esfuerzos de Reynolds tangenciales son más intensos que un cierto nivel. Los resultados muestran que los Qs separados de la pared están orientados de forma isótropa y su contribución neta al esfuerzo de Reynolds medio es nula. La mayor contribución la realiza una familia de estructuras de mayor tamaño y autosemejantes cuya parte inferior está muy cerca de la pared (ligada a la pared), con una geometría compleja y dimensión fractal « 2. Estas estructuras tienen una forma similar a una ‘esponja de placas’, en comparación con los grupos de vorticidad que tienen forma de ‘esponja de cuerdas’. Aunque el número de objetos decae al alejarnos de la pared, la fracción de esfuerzos de Reynolds que contienen es independiente de su altura, y gran parte reside en unas pocas estructuras que se extienden más allá del centro del canal, como en las grandes estructuras propuestas por otros autores. Las estructuras dominantes en la capa logarítmica son parejas de sweeps y eyecciones uno al lado del otro y con grupos de vorticidad asociados que comparten las dimensiones y esfuerzos con los remolinos ligados a la pared propuestos por Townsend. En tercer lugar, hemos estudiado la evolución temporal de Qs y grupos de vorticidad usando las simulaciones numéricas directas presentadas anteriormente hasta números de Reynolds ReT = 4200 (Reynolds de fricción). Las estructuras fueron identificadas siguiendo el proceso descrito en el párrafo anterior y después seguidas en el tiempo. A través de la interseción geométrica de estructuras pertenecientes a instantes de tiempo contiguos, hemos creado gratos de conexiones temporales entre todos los objetos y, a partir de ahí, definido ramas primarias y secundarias, de tal forma que cada rama representa la evolución temporal de una estructura coherente. Una vez que las evoluciones están adecuadamente organizadas, proporcionan toda la información necesaria para caracterizar la historia de las estructuras desde su nacimiento hasta su muerte. Los resultados muestran que las estructuras nacen a todas las distancias de la pared, pero con mayor probabilidad cerca de ella, donde la cortadura es más intensa. La mayoría mantienen tamaños pequeños y no viven mucho tiempo, sin embargo, existe una familia de estructuras que crecen lo suficiente como para ligarse a la pared y extenderse a lo largo de la capa logarítmica convirtiéndose en las estructuras observas anteriormente y descritas por Townsend. Estas estructuras son geométricamente autosemejantes con tiempos de vida proporcionales a su tamaño. La mayoría alcanzan tamaños por encima de la escala de Corrsin, y por ello, su dinámica está controlada por la cortadura media. Los resultados también muestran que las eyecciones se alejan de la pared con velocidad media uT (velocidad de fricción) y su base se liga a la pared muy rápidamente al inicio de sus vidas. Por el contrario, los sweeps se mueven hacia la pared con velocidad -uT y se ligan a ella más tarde. En ambos casos, los objetos permanecen ligados a la pared durante 2/3 de sus vidas. En la dirección de la corriente, las estructuras se desplazan a velocidades cercanas a la convección media del flujo y son deformadas por la cortadura. Finalmente, hemos interpretado la cascada turbulenta, no sólo como una forma conceptual de organizar el flujo, sino como un proceso físico en el cual las estructuras coherentes se unen y se rompen. El volumen de una estructura cambia de forma suave, cuando no se une ni rompe, o lo hace de forma repentina en caso contrario. Los procesos de unión y rotura pueden entenderse como una cascada directa (roturas) o inversa (uniones), siguiendo el concepto de cascada de remolinos ideado por Richardson (1920) y Obukhov (1941). El análisis de los datos muestra que las estructuras con tamaños menores a 30η (unidades de Kolmogorov) nunca se unen ni rompen, es decir, no experimentan el proceso de cascada. Por el contrario, aquellas mayores a 100η siempre se rompen o unen al menos una vez en su vida. En estos casos, el volumen total ganado y perdido es una fracción importante del volumen medio de la estructura implicada, con una tendencia ligeramente mayor a romperse (cascada directa) que a unirse (cascade inversa). La mayor parte de interacciones entre ramas se debe a roturas o uniones de fragmentos muy pequeños en la escala de Kolmogorov con estructuras más grandes, aunque el efecto de fragmentos de mayor tamaño no es despreciable. También hemos encontrado que las roturas tienen a ocurrir al final de la vida de la estructura y las uniones al principio. Aunque los resultados para la cascada directa e inversa no son idénticos, son muy simétricos, lo que sugiere un alto grado de reversibilidad en el proceso de cascada. ABSTRACT The purpose of the present thesis is to study the dynamics of the logarithmic layer of wall-bounded turbulent flows. Specifically, to propose a new structural model based on four different coherent structures: sweeps, ejections, clusters of vortices and velocity streaks. The tool used is the direct numerical simulation of time-resolved turbulent channels. Since the first work by Theodorsen (1952), coherent structures have played an important role in the understanding of turbulence organization and its dynamics. Nowadays, data from individual snapshots of direct numerical simulations allow to study the threedimensional statistical properties of those objects, but their dynamics can only be fully understood by tracking them in time. Although the temporal evolution has already been studied for small structures at moderate Reynolds numbers, e.g., Robinson (1991), a temporal analysis of three-dimensional structures spanning from the smallest to the largest scales across the logarithmic layer has yet to be performed and is the goal of the present thesis. The most interesting problems lie in the logarithmic region, which is the seat of cascades of vorticity, energy, and momentum. Different models involving coherent structures have been proposed to represent the organization of wall-bounded turbulent flows in the logarithmic layer. One of the most extended ones was conceived by Adrian et al. (2000) and built on packets of hairpins that grow from the wall and work cooperatively to gen- ´ erate low-momentum ramps. A different view was presented by del Alamo & Jim´enez (2006), who extracted coherent vortical structures from DNSs and proposed a less organized scenario. Although the two models are kinematically fairly similar, they have important dynamical differences, mostly regarding the relevance of the wall. Another open question is whether such a model can be used to explain the cascade process proposed by Kolmogorov (1941b) in terms of coherent structures. The challenge would be to identify coherent structures undergoing a turbulent cascade that can be quantified. To gain a better insight into the previous questions, we have developed a novel method to track coherent structures in time, and used it to characterize the temporal evolutions of eddies in turbulent channels with Reynolds numbers high enough to include a non-trivial range of length scales, and computational domains sufficiently long and wide to reproduce correctly the dynamics of the logarithmic layer. Our efforts have followed four steps. First, we have conducted a campaign of direct numerical simulations of turbulent channels at different Reynolds numbers and box sizes, and assessed the effect of the computational domain in the one-point statistics and spectra. From the results, we have concluded that computational domains with streamwise and spanwise sizes 2vr and vr times the half-height of the channel, respectively, are large enough to accurately capture the dynamical interactions between structures in the logarithmic layer and the rest of the scales. These simulations are used in the subsequent chapters. Second, the three-dimensional structures of intense tangential Reynolds stress in plane turbulent channels (Qs) have been studied by extending the classical quadrant analysis to three dimensions, with emphasis on the logarithmic and outer layers. The eddies are identified as connected regions of intense tangential Reynolds stress. Qs are then classified according to their streamwise and wall-normal fluctuating velocities as inward interactions, outward interactions, sweeps and ejections. It is found that wall-detached Qs are isotropically oriented background stress fluctuations, common to most turbulent flows, and do not contribute to the mean stress. Most of the stress is carried by a selfsimilar family of larger wall-attached Qs, increasingly complex away from the wall, with fractal dimensions « 2. They have shapes similar to ‘sponges of flakes’, while vortex clusters resemble ‘sponges of strings’. Although their number decays away from the wall, the fraction of the stress that they carry is independent of their heights, and a substantial part resides in a few objects extending beyond the centerline, reminiscent of the very large scale motions of several authors. The predominant logarithmic-layer structures are sideby- side pairs of sweeps and ejections, with an associated vortex cluster, and dimensions and stresses similar to Townsend’s conjectured wall-attached eddies. Third, the temporal evolution of Qs and vortex clusters are studied using time-resolved DNS data up to ReT = 4200 (friction Reynolds number). The eddies are identified following the procedure presented above, and then tracked in time. From the geometric intersection of structures in consecutive fields, we have built temporal connection graphs of all the objects, and defined main and secondary branches in a way that each branch represents the temporal evolution of one coherent structure. Once these evolutions are properly organized, they provide the necessary information to characterize eddies from birth to death. The results show that the eddies are born at all distances from the wall, although with higher probability near it, where the shear is strongest. Most of them stay small and do not last for long times. However, there is a family of eddies that become large enough to attach to the wall while they reach into the logarithmic layer, and become the wall-attached structures previously observed in instantaneous flow fields. They are geometrically self-similar, with sizes and lifetimes proportional to their distance from the wall. Most of them achieve lengths well above the Corrsin’ scale, and hence, their dynamics are controlled by the mean shear. Eddies associated with ejections move away from the wall with an average velocity uT (friction velocity), and their base attaches very fast at the beginning of their lives. Conversely, sweeps move towards the wall at -uT, and attach later. In both cases, they remain attached for 2/3 of their lives. In the streamwise direction, eddies are advected and deformed by the local mean velocity. Finally, we interpret the turbulent cascade not only as a way to conceptualize the flow, but as an actual physical process in which coherent structures merge and split. The volume of an eddy can change either smoothly, when they are not merging or splitting, or through sudden changes. The processes of merging and splitting can be thought of as a direct (when splitting) or an inverse (when merging) cascade, following the ideas envisioned by Richardson (1920) and Obukhov (1941). It is observed that there is a minimum length of 30η (Kolmogorov units) above which mergers and splits begin to be important. Moreover, all eddies above 100η split and merge at least once in their lives. In those cases, the total volume gained and lost is a substantial fraction of the average volume of the structure involved, with slightly more splits (direct cascade) than mergers. Most branch interactions are found to be the shedding or absorption of Kolmogorov-scale fragments by larger structures, but more balanced splits or mergers spanning a wide range of scales are also found to be important. The results show that splits are more probable at the end of the life of the eddy, while mergers take place at the beginning of the life. Although the results for the direct and the inverse cascades are not identical, they are found to be very symmetric, which suggests a high degree of reversibility of the cascade process.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cuando la separación física entre el sistema local y remoto es relativamente corta, el retardo no es perceptible; sin embargo, cuando el manipulador local y el manipulador remoto se encuentran a una distancia lejana uno del otro, el retardo de tiempo ya no es insignificante e influye negativamente en la realización de la tarea. El retardo de tiempo en un sistema de control introduce un atraso de fase que a su vez degrada el rendimiento del sistema y puede causar inestabilidad. Los sistemas de teleoperación pueden sacar provecho de la posibilidad de estar presente en dos lugares simultáneamente, sin embargo, el uso de Internet y otras redes de conmutación de paquetes, tales como Internet2, impone retardos de tiempo variables, haciendo que los esquemas de control ya establecidos elaboren soluciones para hacer frente a inestabilidades causadas por estos retardos de tiempo variables. En este trabajo de tesis se presenta el modelado y análisis de un sistema de teloperación bilateral no lineal de n grados de libertad controlado por convergencia de estado. La comunicación entre el sitio local y remoto se realiza mediante un canal de comunicación con retardo de tiempo. El análisis presentado en este trabajo considera que el retardo puede ser constante o variable. Los principales objetivos de este trabajo son; 1) Desarrollar una arquitectura de control no lineal garantizando la estabilidad del sistema teleoperado, 2) Evaluar la estabilidad del sistema considerando el retardo en la comunicación, y 3) Implementación de los algoritmos desarrollados para probar el desempeño de los mismos en un sistema experimental de 3 grados de libertad. A través de la teoría de Estabilidad de Lyapunov y el funcional Lyapunov-Krasovskii, se demuestra que el sistema de lazo cerrado es asintóticamente estable. Estas conclusiones de estabilidad se han obtenido mediante la integración de la función de Lyapunov y aplicando el Lema de Barbalat. Se demuestra también que se logra sincronizar las posiciones del manipulador local y remoto cuando el operador humano no mueve el manipulador local y el manipulador remoto se mueve libremente. El esquema de control propuesto se ha validado mediante simulación y en forma experimental empleando un sistema de teleoperación real desarrollado en esta tesis doctoral y que consta de un un manipulador serie planar de tres grados de libertad, un manipulador local, PHANTOM Omni, el cual es un dispositivo haptico fabricado que consta de 3 grados de libertad (en fuerza) y que proporciona realimentación de fuerza en los ejes x,y,z. El control en tiempo real se ha diseñado usando el Sistema Operativo en Tiempo Real QuaRC de QUARC en el lado local y el Simulink Real-Time Windows TargetTM en el lado remoto. Para finalizar el resumen se destaca el impacto de esta tesis en el mundo científico a través de los resultados publicados: 2 artículos en revistas con índice de impacto , 1 artículo en una revista indexada en Sistemas, Cibernética e Informática, 7 artículos en congresos y ha obtenido un premio en la 9a. Conferencia Iberoamericana en Sistemas, Cibernética e Informática, 2010. ABSTRACT When the physical separation between the local and remote system is relatively short, the delay is not noticeable; however, when the local manipulator and the remote manipulator are at a far distance from each other, the time delay is no longer negligible and negatively influences the performance of the task. The time delay in a control system introduces a phase delay which in turn degrades the system performance and cause instability. Teleoperation systems can benefit from the ability to be in two places simultaneously, however, the use of Internet and other packet switched networks, such as Internet2, imposes varying time delays, making established control schemes to develop solutions to address these instabilities caused by different time delays. In this thesis work we present a modeling and analysis of a nonlinear bilateral teloperation system of n degrees of freedom controlled by state convergence strategy. Communication between the local and remote site is via a communication channel with time delay. The analysis presented in this work considers that the time-delay can be constant or variable. The main objectives of this work are; 1) Develop a nonlinear control schemes to ensure the stability of the teleoperated system, 2) Evaluate the system stability considering the delay in communication, and 3) Implementation of algorithms developed to test the performance of the teleoperation system in an experimental system of 3 degrees of freedom. Through the Theory of Stability of Lyapunov and the functional Lyapunov-Krasovskii, one demonstrates that the closed loop system is asymptotically stable.. The conclusions about stability were obtained by integration of the Lyapunov function and applying Barbalat Lemma. It further shows that the positions of the local and remote manipulator are synchronize when the human operator stops applying a constant force and the remote manipulator does not interact with the environment. The proposed control scheme has been validated by means of simulation and in experimental form using a developed system of real teleoperation in this doctoral thesis, which consists of a series planar manipulator of three degrees of freedom, a local manipulator, PHANTOM Omni, which is an haptic device that consists of 3 degrees of freedom (in force) and that provide feeback force in x-axis, and, z. The control in real time has been designed using the Operating system in Real time QuaRC of Quanser in the local side and the Simulink Real-Time Windows Target in the remote side. In order to finalize the summary, the highlights impact of this thesis in the scientific world are shows through the published results: 2 articles in Journals with impact factor, one article in a indexed Journal on Systemics, Cybernetics and Informatics, 7 articles in Conferences and has won an award in 9a. Conferencia Iberoamericana en Sistemas, Cibernética e Informática, 2010.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El territorio chileno esta propenso, desde antes que se constituyera como nación, al impacto del comportamiento de la naturaleza que le es inherente y que también le produce daños. Está representado en los seísmos, los más dañinos. Todavía, la sociedad chilena no termina de comprender que esos daños, son parte de un desequilibrio de una convivencia armoniosa entre ella y esa naturaleza, puesto que el ser humano que vive y habita sobre ella, también lo es. Así entonces, cada vez que el territorio y su espacio son remecidos por los seísmos, la naturaleza, manifestada en la sociedad, adquiere nuevos aprendizajes para mejorar la respuesta al próximo evento. El terremoto 2010 de 8.8° Richter, fue el segundo de mayor magnitud después del otro que hasta ahora, es el más grande del planeta, y que pudo ser medido. Aquel, fue el terremoto de Valdivia de 9,5° Richter, ocurrido el 22 de mayo de 1960. Las sociedades no son estáticas, cambian, son dinámicas. Esta vez el seísmo del 2010, ocurrió en una sociedad que hace ya 35 años, adoptó un modelo de economía de libre mercado. La pobreza que tenía a 1990, era de aproximadamente, un 40%. La del 2010, de un 14%. Durante la dictadura militar hubo otro seísmo de 7,8° Richter, recién instalándose el modelo aludido. El del 2010, permite sacar conclusiones en el contexto de este modelo económico. Los resultados aparentemente son interesantes en cuanto a que hubo pocas víctimas pero por otra parte, hubo un gran daño económico. La tesis profundiza en el impacto del seísmo en la dimensión del parque habitacional construido y de la vivienda social y en los habitantes más pobres y vulnerables. Es la primera investigación sobre seísmos y vivienda social en Chile. Se asume la hipótesis que ciertas variables por una parte, y una cultura antisísmica por otra, están presentes y han penetrado en los sectores populares durante los últimos 50 años y que ello, podría estar en la base de los resultados obtenidos. Se plantea una suerte de “matrimonio bien avenido” entre el habitante y políticas públicas en vivienda. De ello, se derivan recomendaciones para mejorar los avances en el problema investigado que se contextualizan en referencia al marco teórico elaborado. Sin embargo, y no obstante lo investigado, lo ya avanzado no garantiza buenos resultados en el próximo evento, Por ello, los aprendizajes nutren a otros, nuevos, que acompañarán a la sociedad chilena en su esencia e identidad como nación. ABSTRACT Long before its establishment as an independent nation, the Chilean territory has been prone to the impact of nature, which is an inherent and damaging feature of this land. Such an impact is represented by earthquakes, which are regarded as the most damaging natural disasters. Today, the Chilean society is still unable to understand that these impacts are part of an unbalanced coexistence between individuals and nature since human beings, who live and inhabit this space, are also an element of nature. Therefore, each time this territory is hit by earthquakes, nature —represented by society— learns new lessons in order to provide a better response to future events. The 2010 earthquake, which rated 8.8 on the Richter scale, was the second largest earthquake after the most powerful earthquake ever recorded. Such an event was the Valdivia earthquake of May 22, 1960, which rated 9.5 on the Richter scale. Societies are not static as they are changing and dynamic. The 2010 earthquake took place within a context in which society operated under a free market economy model that had been running for 35 years. As of 1990, 40 per cent of the population lived in poverty; in 2010, such a figure was reduced to 14 per cent. Likewise, a magnitude 7.8 quake struck the country during the military regime period in the early days of the above model. The 2010 earthquake allows us to draw some conclusions within the context of this economic model. Results are interesting since there were few fatalities but significant economic loss. This thesis provides insights into the impact of the 2010 earthquake on the housing stock, social housing and those living in poverty and vulnerability. This is the first research on earthquakes and social housing conducted in Chile. The hypothesis is that certain variables and anti-seismic culture have permeated popular segments of the population over the last 50 years. The latter may be at the basis of the results obtained during this research. Likewise, this study proposes a certain “happy marriage” between the inhabitant and public policies on housing. The above offers some recommendations intended to further explore this issue; these suggestions are contextualized according to the theoretical framework developed in this research. However, current progress on this matter does not ensure positive results in the event of an earthquake. This is why these lessons will serve as models for future events, which are intrinsically tied to local society and Chilean identity.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

. RESUMEN. La influencia de la Arquitectura en el Cómic es asunto probado. Críticos y estudiosos como Eco, Masotto, Montaner o Smolderen así lo atestiguan. La ciudad y su arquitectura son protagonistas en “The Yellow Kid” de Outcoult de 1896 y de las visiones perspectivas de metrópolis como New York en “Little Nemo” de Mc Cay de 1910. Los aportes más significativos a la visión de la arquitectura desde el cómic tal vez hayan sido los desarrollados por Hergé y sus ciudades de ficción construidas a partir de lugares y ciudades reales. Los arquitectos comienzan a manejar el lenguaje del cómic en los manifiestos de Archigram y de Superstudio, hasta llegar a nuestros días con los aportes de Koolhaas, Big o Herzog y de Meuron. El surgimiento de la dupla de Peeters y Schuiten adquiere en este contexto relevancia significativa. En la serie conocida como las “Ciudades Oscuras” la arquitectura es protagonista, y por tanto sus constructores: promotores inmobiliarios, políticos y arquitectos también lo son. La figura descollante del panorama arquitectónico de las Ciudades Oscuras es Eugéne Robick, en cuya obra es detectable la influencia de arquitectos como Horta o Sant´Elía. La obra de Schuiten y Peeters prueba el valor y la importancia del cómic en la mediática cultural contemporánea; cómic que permite forzar los límites de la realidad y desarrollar nuevas interpretaciones sin otros condicionamientos que los de la imaginación.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La influencia de la Arquitectura en el Cómic es asunto probado. Críticos y estudiosos como Eco, Masotto, Montaner o Smolderen así lo atestiguan. La ciudad y su arquitectura son protagonistas en “The Yellow Kid” de Outcoult de 1896 y de las visiones perspectivas de metrópolis como New York en “Little Nemo” de Mc Cay de 1910. Los aportes más significativos a la visión de la arquitectura desde el cómic tal vez hayan sido los desarrollados por Hergé y sus ciudades de ficción construidas a partir de lugares y ciudades reales. Los arquitectos comienzan a manejar el lenguaje del cómic en los manifiestos de Archigram y de Superstudio, hasta llegar a nuestros días con los aportes de Koolhaas, Big o Herzog y de Meuron. El surgimiento de la dupla de Peeters y Schuiten adquiere en este contexto relevancia significativa. En la serie conocida como las “Ciudades Oscuras” la arquitectura es protagonista, y por tanto sus constructores: promotores inmobiliarios, políticos y arquitectos también lo son. La figura descollante del panorama arquitectónico de las Ciudades Oscuras es Eugéne Robick, en cuya obra es detectable la influencia de arquitectos como Horta o Sant´Elía. La obra de Schuiten y Peeters prueba el valor y la importancia del cómic en la mediática cultural contemporánea; cómic que permite forzar los límites de la realidad y desarrollar nuevas interpretaciones sin otros condicionamientos que los de la imaginación.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El otro centro del laberinto. Consideraciones sobre el sotacoro del Monasterio de El Escorial

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El objetivo de este PFG es aplicar las herramientas de planificación a un proyecto existente y hacer un estudio del análisis de riesgos. El PFC al que se va a aplicar la gestión de riesgos es: “ Remodelación del vial existente que une el municipio de Cañaveruelas (Cuenca) con el embalse de Buendía, mediante una vía de doble sentido tipo C-60 que incluye un carril bici y otro peatonal. Ordenación territorial en las proximidades al embalse”. Fue realizado por Laura Gallego Salagre y por mí, para la defensa del PFC de Ingeniero Técnico en Topografía en junio de 2013. - Descripción breve del proyecto al que se va a aplicar la herramienta de gestión. - Estudio de los métodos y de las herramientas de gestión de análisis de los riesgos - Diseño de una planificación adecuada y eficiente. - Identificación de los riesgos que puedan afectar al proyecto - Realizar un análisis cualitativo y cuantitativo de Riesgos - Planificar las respuestas a los Riesgos - Analizar las diferentes respuestas - Comparar la planificación determinista con la realizada tras el análisis de riesgos. Para hacer un estudio del análisis de riesgos, hay que empezar por una planificación detallada del proyecto e identificar los posibles riesgos que puedan aparecer. Después haremos una estimación de los recursos y los asignaremos a las diferentes actividades. Posteriormente se realizará una red de procedencias, se calculará el camino crítico y se establecerá un plan de hitos para realizar un análisis de riesgos mediante el método Monte Carlo, que nos indicará la incertidumbre de las actividades. Posteriormente identificaremos los posibles riesgos que puedan afectar a nuestra planificación, los analizaremos cualitativa y cuantitativamente y se evaluarán las acciones de mitigación de los riesgos. Por último, se creará el impacto de estos en las actividades y a partir de ellos, se harán los calendarios pre y post mitigados para su posterior análisis.