992 resultados para Maquinas de calcular
Resumo:
En el programa formativo del actual Ingeniero Técnico en Topografía está presente la Astronomía Geodésica o de Posición con el fin de que el futuro profesional conozca los elementos de astronomía necesarios para poder calcular coordenadas latitud y longitud de puntos sobre la superficie terrestre, así como el acimut de direcciones a otros puntos a partir de observaciones a las estrellas. Aunque los métodos astronómicos se van sustituyendo por los métodos por observaciones a satélites (GNSS), ciertos conocimientos astronómicos son necesarios para poder comprender tanto los sistemas de referencias celestes y terrestres, como las observaciones geodésicas y geofísicas. Dentro de este programa formativo juegan un papel fundamental la realización de prácticas en las que el alumno vea y desarrolle sus habilidades para calcular parámetros astronómicos, resultado de su propia observación. En la ETSI de Topografía se viene realizando prácticas de observación a la estrella polar, con el fin de calcular el acimut de una dirección. También observaciones al Sol con el mismo objetivo. La utilización de equipos ópticos clásicos en esta observación entraña cierto riesgo al colocar el ojo sobre el ocular cuando se tiene enfocado el Sol. En prevención de fatales accidentes estas observaciones al Sol fueron retiradas del programa formativo. Recientemente, y gracias a la utilización de un telescopio robotizado, el observatorio Montegancedo (http://om.fi.upm.es), y con registro de imágenes, se ha podido rescatar este tipo de prácticas de observaciones al Sol en la formación de los ingenieros técnicos topográficos (ITT) de la Escuela. Se muestran en este artículo los objetivos perseguidos en esta experiencia, los métodos y materiales utilizados para la misma así como una serie de impresiones finales que se han encontrado en la realización de estas experiencias prácticas.
Resumo:
El tema sobre el que trata este proyecto es un estudio para la instalación de un suelo radiante y unas placas solares para producir A.C.S. en una vivienda unifamiliar situada en Ciudad Rodrigo, en la provincia de Salamanca. Debido a la nueva normativa del CTE, se debe instalar una forma de energía alternativa en las edificaciones de construcción reciente, eligiendo para este caso específico los paneles solares térmicos. Se va a desarrollar el estudio de las instalaciones del suelo radiante y de los paneles solares., calculando la carga térmica necesaria de la vivienda, la demanda de A.C.S. y la energía necesaria para obtenerla. Además se calculará la energía obtenida por las placas y el ahorro aportado por estas. Se valorarán, los diferentes costes de ambas instalaciones para elaborar un presupuesto aproximado, teniendo en cuenta el coste de los materiales empleados. También, se obtendrá el ahorro obtenido con los paneles solares y el tiempo necesario para amortizar la inversión.
Resumo:
Desde los inicios de la codificación de vídeo digital hasta hoy, tanto la señal de video sin comprimir de entrada al codificador como la señal de salida descomprimida del decodificador, independientemente de su resolución, uso de submuestreo en los planos de diferencia de color, etc. han tenido siempre la característica común de utilizar 8 bits para representar cada una de las muestras. De la misma manera, los estándares de codificación de vídeo imponen trabajar internamente con estos 8 bits de precisión interna al realizar operaciones con las muestras cuando aún no se han transformado al dominio de la frecuencia. Sin embargo, el estándar H.264, en gran auge hoy en día, permite en algunos de sus perfiles orientados al mundo profesional codificar vídeo con más de 8 bits por muestra. Cuando se utilizan estos perfiles, las operaciones efectuadas sobre las muestras todavía sin transformar se realizan con la misma precisión que el número de bits del vídeo de entrada al codificador. Este aumento de precisión interna tiene el potencial de permitir unas predicciones más precisas, reduciendo el residuo a codificar y aumentando la eficiencia de codificación para una tasa binaria dada. El objetivo de este Proyecto Fin de Carrera es estudiar, utilizando las medidas de calidad visual objetiva PSNR (Peak Signal to Noise Ratio, relación señal ruido de pico) y SSIM (Structural Similarity, similaridad estructural), el efecto sobre la eficiencia de codificación y el rendimiento al trabajar con una cadena de codificación/descodificación H.264 de 10 bits en comparación con una cadena tradicional de 8 bits. Para ello se utiliza el codificador de código abierto x264, capaz de codificar video de 8 y 10 bits por muestra utilizando los perfiles High, High 10, High 4:2:2 y High 4:4:4 Predictive del estándar H.264. Debido a la ausencia de herramientas adecuadas para calcular las medidas PSNR y SSIM de vídeo con más de 8 bits por muestra y un tipo de submuestreo de planos de diferencia de color distinto al 4:2:0, como parte de este proyecto se desarrolla también una aplicación de análisis en lenguaje de programación C capaz de calcular dichas medidas a partir de dos archivos de vídeo sin comprimir en formato YUV o Y4M. ABSTRACT Since the beginning of digital video compression, the uncompressed video source used as input stream to the encoder and the uncompressed decoded output stream have both used 8 bits for representing each sample, independent of resolution, chroma subsampling scheme used, etc. In the same way, video coding standards force encoders to work internally with 8 bits of internal precision when working with samples before being transformed to the frequency domain. However, the H.264 standard allows coding video with more than 8 bits per sample in some of its professionally oriented profiles. When using these profiles, all work on samples still in the spatial domain is done with the same precision the input video has. This increase in internal precision has the potential of allowing more precise predictions, reducing the residual to be encoded, and thus increasing coding efficiency for a given bitrate. The goal of this Project is to study, using PSNR (Peak Signal to Noise Ratio) and SSIM (Structural Similarity) objective video quality metrics, the effects on coding efficiency and performance caused by using an H.264 10 bit coding/decoding chain compared to a traditional 8 bit chain. In order to achieve this goal the open source x264 encoder is used, which allows encoding video with 8 and 10 bits per sample using the H.264 High, High 10, High 4:2:2 and High 4:4:4 Predictive profiles. Given that no proper tools exist for computing PSNR and SSIM values of video with more than 8 bits per sample and chroma subsampling schemes other than 4:2:0, an analysis application written in the C programming language is developed as part of this Project. This application is able to compute both metrics from two uncompressed video files in the YUV or Y4M format.
Resumo:
Este proyecto tiene como objetivo caracterizar la presión de los nitratos dentro de la cuenca del río Llobregat, España, entre los años 2000 y 2009. Con ello se consigue una herramienta que permite un análisis de las distintas fuentes de contaminación, una gestión y planificación de medidas correctoras y el cálculo de la presión de nitratos en un futuro, de acuerdo con el artículo 5 de la Directiva Marco del Agua y para la aplicación de la Directiva Europea sobre Nitratos. Para determinar dichas presiones, se ha usado un modelo estocástico que requiere pocos datos, siendo éstos de fácil accesibilidad: las precipitaciones y las longitudes de los ríos. Dividida la cuenca del Llobregat en nueve subcuencas, sólo se ha podido calcular la presión de los nitratos para cinco de ellas. Los resultados han demostrado que la mayor parte de la presión de los nitratos se debe a las fuentes difusas, siendo este tipo de fuente la que determina los cambios en la presión de los nitratos. En cuanto a las fuentes aisladas, se tienen que tener en cuenta debido a que su presencia en la presión de los nitratos es significante en varias subcuencas, alrededor del 20%, siéndolo aún más en las cuencas que no se han podido estudiar.
Resumo:
La tesis MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS Y MATRICES DE HESSENBERG se enmarca entre las áreas de la teoría geométrica de la medida, la teoría de polinomios ortogonales y la teoría de operadores. La memoria aborda el estudio de medidas con soporte acotado en el plano complejo vistas con la óptica de las matrices infinitas de momentos y de Hessenberg asociadas a estas medidas que en la teoría de los polinomios ortogonales las representan. En particular se centra en el estudio de las medidas autosemejantes que son las medidas de equilibrio definidas por un sistema de funciones iteradas (SFI). Los conjuntos autosemejantes son conjuntos que tienen la propiedad geométrica de descomponerse en unión de piezas semejantes al conjunto total. Estas piezas pueden solaparse o no, cuando el solapamiento es pequeño la teoría de Hutchinson [Hut81] funciona bien, pero cuando no existen restricciones falla. El problema del solapamiento consiste en controlar la medida de este solapamiento. Un ejemplo de la complejidad de este problema se plantea con las convoluciones infinitas de distribuciones de Bernoulli, que han resultado ser un ejemplo de medidas autosemejantes en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaba este problema, lejos de ser sencillo ha sido estudiado durante más de setenta y cinco años y siguen sin resolverse las principales cuestiones planteadas ya por A. Garsia [Gar62] en 1962. El interés que ha despertado este problema así como la complejidad del mismo está demostrado por las numerosas publicaciones que abordan cuestiones relacionadas con este problema ver por ejemplo [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05],[JKS07] [JKS11]. En el primer capítulo comenzamos introduciendo con detalle las medidas autosemejante en el plano complejo y los sistemas de funciones iteradas, así como los conceptos de la teoría de la medida necesarios para describirlos. A continuación se introducen las herramientas necesarias de teoría de polinomios ortogonales, matrices infinitas y operadores que se van a usar. En el segundo y tercer capítulo trasladamos las propiedades geométricas de las medidas autosemejantes a las matrices de momentos y de Hessenberg, respectivamente. A partir de estos resultados se describen algoritmos para calcular estas matrices a partir del SFI correspondiente. Concretamente, se obtienen fórmulas explícitas y algoritmos de aproximación para los momentos y matrices de momentos de medidas fractales, a partir de un teorema del punto fijo para las matrices. Además utilizando técnicas de la teoría de operadores, se han extendido al plano complejo los resultados que G. Mantica [Ma00, Ma96] obtenía en el caso real. Este resultado es la base para definir un algoritmo estable de aproximación de la matriz de Hessenberg asociada a una medida fractal u obtener secciones finitas exactas de matrices Hessenberg asociadas a una suma de medidas. En el último capítulo, se consideran medidas, μ, más generales y se estudia el comportamiento asintótico de los autovalores de una matriz hermitiana de momentos y su impacto en las propiedades de la medida asociada. En el resultado central se demuestra que si los polinomios asociados son densos en L2(μ) entonces necesariamente el autovalor mínimo de las secciones finitas de la matriz de momentos de la medida tiende a cero. ABSTRACT The Thesis work “Self-similar Measures on the Plane, Moments and Hessenberg Matrices” is framed among the geometric measure theory, orthogonal polynomials and operator theory. The work studies measures with compact support on the complex plane from the point of view of the associated infinite moments and Hessenberg matrices representing them in the theory of orthogonal polynomials. More precisely, it concentrates on the study of the self-similar measures that are equilibrium measures in a iterated functions system. Self-similar sets have the geometric property of being decomposable in a union of similar pieces to the complete set. These pieces can overlap. If the overlapping is small, Hutchinson’s theory [Hut81] works well, however, when it has no restrictions, the theory does not hold. The overlapping problem consists in controlling the measure of the overlap. The complexity of this problem is exemplified in the infinite convolutions of Bernoulli’s distributions, that are an example of self-similar measures in the real case. As early as 1935 [JW35], Jessen and Wintner posed this problem, that far from being simple, has been studied during more than 75 years. The main cuestiones posed by Garsia in 1962 [Gar62] remain unsolved. The interest in this problem, together with its complexity, is demonstrated by the number of publications that over the years have dealt with it. See, for example, [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11]. In the first chapter, we will start with a detailed introduction to the self-similar measurements in the complex plane and to the iterated functions systems, also including the concepts of measure theory needed to describe them. Next, we introduce the necessary tools from orthogonal polynomials, infinite matrices and operators. In the second and third chapter we will translate the geometric properties of selfsimilar measures to the moments and Hessenberg matrices. From these results, we will describe algorithms to calculate these matrices from the corresponding iterated functions systems. To be precise, we obtain explicit formulas and approximation algorithms for the moments and moment matrices of fractal measures from a new fixed point theorem for matrices. Moreover, using techniques from operator theory, we extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96]. This result is the base to define a stable algorithm that approximates the Hessenberg matrix associated to a fractal measure and obtains exact finite sections of Hessenberg matrices associated to a sum of measurements. In the last chapter, we consider more general measures, μ, and study the asymptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with its impact on the properties of the associated measure. In the main result we demonstrate that, if the associated polynomials are dense in L2(μ), then necessarily follows that the minimum eigenvalue of the finite sections of the moments matrix goes to zero.
Resumo:
El objetivo principal de esta tesis fue incrementar el valor proteico para rumiantes de la harina de girasol mediante tratamientos combinados con ácidos y calor para proteger sus proteínas frente a la degradación ruminal. Estos estudios comprenden dos experimentos realizados sobre ovinos mediante tecnologías in vitro (experimento 1) o in situ e in vivo (experimento 2), empleando siempre dos ácidos: málico u ortofosfórico. Aprovechando este último experimento, también se consideraron otros objetivos de carácter metodológico con el fin de mejorar la precisión de las estimas de i) la degradabilidad ruminal y la digestibilidad intestinal de la proteína y los aminoácidos (AAs) de los alimentos y ii) la síntesis microbiana ruminal y su contribución al flujo post-ruminal de nutrientes al animal. En el experimento 1 (capítulo 2) se efectuaron cuatro ensayos in vitro para estudiar la influencia de distintos factores que puedan afectar la eficacia de estos tratamientos. En cada ensayo se utilizó una réplica por tratamiento (dos para el tratamiento control) y dos bolsas vacías (empleadas para corregir la contaminación microbiana) en cada una de las cuatro botellas del incubador (ANKOM Daisy II). Cada botella contenía 2 l de medio de incubación, saturado con CO2 para asegurar la anaerobiosis. Este medio consistió en una mezcla de solución McDougall y liquido ruminal filtrado en relación 4:1. El liquido ruminal fue obtenido de 2 corderos canulados en rumen, utilizándose bien solo o mezclado con el del otro cordero en una relación 3:1. Así, cada botella de incubación contenía un inoculo ruminal diferente. Las incubaciones se realizaron a 39 ºC durante 20 h, siendo las bolsas lavadas con agua corriente y almacenadas a -20 ºC. Tras ser descongeladas, se lavaron 3 veces durante 5 min en una mini-lavadora de turbina, se desecaron a 80 ºC durante 48 h y se destinaron íntegras al análisis de N-Kjeldahl. En el ensayo 1 se estudió el efecto del volumen de disolución de dos dosis de ácido ortofosfórico (0,4 y 1,2 equivalentes gramo (eq)/kg de harina de girasol), testando cinco volúmenes de disolución (80, 160, 240, 320 and 400 ml/kg de harina) para cada dosis, desecándose las harinas a 60 ºC hasta sequedad al tacto. La proteína bruta (PB) indegradada se incremento con la dosis de ácido empleada y también (como tendencia, P < 0,1) con el volumen de dilución. En base a ello en los siguientes ensayos se utilizo el volumen de dilución mayor (400 ml/kg). En el ensayo 2 se estudió el efecto de la dosis y del tipo de ácido a cuatro dosis (1,2; 2,4; 3,6 y 4,8 eq/kg), secándose igualmente las muestras tratadas a 60 ºC. La PB indegradada aumentó con la dosis de ácido, siendo también mayor para el ácido málico, tanto en este ensayo como en los posteriores. En el ensayo 3 se estudiaron los efectos de los dos ácidos, cuatro concentraciones (0,6; 1,2; 1,8 y 2,4 eq/kg) y tres tratamientos térmicos para el secado de las muestras (100, 150 and 200 ºC durante 60, 30 y 20 minutos, respectivamente). Con los tratamientos térmicos a 100 y 150 ºC no hubo un incremento de protección para concentraciones superiores a 0,8 eq/kg para ambos ácidos. Para incrementar la protección fue necesario aumentar la temperatura a 200 ºC y la dosis a 1,2 eq/kg, no observándose un aumento de protección a dosis mayores. En el ensayo 4 se estudiaron los efectos sobre la lisina disponible, la solubilidad de la PB en saliva artificial de McDougall y la PB indegradada in vitro de tratar la harina solo con agua o con disoluciones de ambos ácidos a dosis de 0,8 eq/kg y temperaturas de secado de 100 ó 150 ºC en las mismas condiciones que en el ensayo 3. No se apreciaron efectos sobre la lisina disponible para ninguno de los tratamientos. El efecto específico de los ácidos quedo demostrado tanto por la fuerte reducción de la solubilidad de la PB como por el aumento de la PB indegradada frente al tratamiento con agua. En conjunto, los resultados de este experimento mostraron que la eficacia de estos tratamientos depende del tipo y dosis de ácido y de su dilución, así como de las condiciones de secado. Como tratamiento de mayor interés a aplicar posteriormente en el experimento 2 se consideró una dosis de 0,8 eq/kg de harina, aplicada en un volumen de 400 ml/kg (correspondiente a soluciones 1 M y 0,67 M para los ácidos málico y ortofosfórico, respectivamente) y desecación a 150 ºC. El experimento 2 (capítulos 3 a 7) se realizó con un diseño en cuadrado latino 3x3, empleando tres corderos canulados en rumen y duodeno y tres dietas isoproteicas: U, M y P, que incluían harinas de girasol sin tratar (control) y tratadas con acido málico u ortofosfórico, respectivamente. La harina de girasol se trató en las condiciones ya indicadas siendo necesarias 6 horas para su secado en estufa. Las dietas incluían 40% de heno de raigrás italiano y 60% de concentrado a base de harina de girasol (tratada y/o sin tratar), trigo y corrector vitamínico-mineral, siendo suministradas a 75 g/kg P0.75 (equivalente a 2,3 × mantenimiento). La relación harina de girasol sin tratar y tratada fue de 100:0 en la dieta U y entorno a 40:60 en las dietas M y P. Tras 10 días de adaptación a la dieta, se estudiaron sucesivamente: i) el tránsito hasta el duodeno de las partículas del heno (solo en la dieta control) y de la harina de girasol marcadas previamente con europio e iterbio, respectivamente; ii) la fermentación ruminal durante el periodo postprandial, iii) la degradación ruminal in situ de la harina de girasol específica de cada dieta (y del trigo y el heno en la dieta control) y iv) la magnitud y composición del contenido ruminal mediante el vaciado manual del rumen-retículo. Durante todo el periodo experimental se infundio de forma continua una solución de sulfato amónico enriquecido en 15N (98 átomos %) para corregir la contaminación microbiana ruminal en los estudios in situ y para establecer las diferencias de composición química entre las bacterias libres (BAL) y adherentes (BAS) del rumen. Esta solución incluyó en los dos últimos días Li-Cr- EDTA para determinar la tasa de dilución ruminal. Posteriormente, y tras un periodo de al menos 10 días para eliminar el enriquecimiento en 15N de la digesta, se estudió la digestibilidad intestinal de los distintos alimentos mediante la técnica de bolsas móviles. La determinación del bypass (BP) o de la degradabilidad efectiva (DE) de la materia seca (MS) y de la PB se realizó por el método tradicional de integración matemática; estos valores se obtuvieron también para la PB y los AAs generando una muestra representativa del flujo post-ruminal del alimento en estudio en cada animal. Ello se realizó mediante la mezcla de los distintos residuos de incubación en base a la función que describe el flujo de alimento indegradado que abandona el rumen. Todos estos trabajos se realizaron considerando la tasa de salida de partículas del rumen (kp) y, según casos, considerando también la tasa de conminución y mezcla de las partículas en este compartimento (kc). Para este último caso se ha desarrollado también el modelo matemático que describe este flujo y permite este cálculo. Los valores no corregidos por la contaminación microbiana del BP (o de DE) de la PB resultantes de ambos métodos se han comparado tanto en las harinas de girasol como en los restantes alimentos de la dieta, obteniéndose valores similares, sin apreciarse desviaciones sistemáticas. Sobre las muestras compuestas representativas de la composición química del BP se determino la digestibilidad intestinal efectiva (DIE) de la MS, PB y AAs. Todos los valores resultantes de esta técnica fueron corregidos para la contaminación microbiana de las partículas que tiene lugar en el rumen. Los estudios de transito digestivo se realizaron tras suministrar en el comedero a los corderos una dosis simple de los alimentos marcados, seguida de la toma de muestras de la digesta duodenal durante 82 h. En la dieta testigo se suministraron simultáneamente el heno de raigrás y la harina de girasol, mientras que en las otras dietas solo se suministró esta última. La harina de girasol mostro un mayor valor para kc frente al heno (0,5766 v. 0,0892, /h), mientras que no hubo diferencias entre los dos alimentos para kp (0,0623 v. 0,0609, /h). Para la harina de girasol no se apreciaron diferencias entre dietas para kc, pero si se redujo de manera moderada la tasa kp con los tratamientos, siendo ésta también menor al utilizar ácido ortofosfórico frente al uso de ácido malico (0,0577 v. 0,0600, /h). El empleo de las harinas tratadas no modifico los parámetros de fermentación ruminal, la composición de los contenidos ruminales o la tasa de dilución del rumen. Los valores efectivos del BP y de DIE de la MS, PB y AAs de las harinas de girasol se obtuvieron considerando kc y kp, conjuntamente. Los tratamientos de protección incrementaron el BP de MS y PB en 48,5 y 268% de media, respectivamente. Estos incrementos se debieron principalmente al descenso de la fracción soluble y de la velocidad de degradación, pero también al aumento de la fracción indegradable, especialmente usando ácido ortofosfórico. Con los tratamientos se incrementó también la DIE de la MS (108% de media) y de la PB con gran diferencia entre los ácidos málico y ortofosfórico (20,7 v. 11,8%). Como consecuencia de estos cambios la protección aumentó la fracción realmente digerida en el intestino en 211% (MS) y 325% (PB), sin efectos entre ambos ácidos. Considerando la reducción del suministro de energía fermentable para los microorganismos ruminales asociada a la protección y los parámetros indicados por el sistema PDI francés para la síntesis de proteína microbiana digestible, la eficacia de conversión de PB en proteína metabolizable aumentó de 0,244 a 0,559 y 0,515 con el tratamiento con acido málico y ortofosfórico, respectivamente. El contenido en aminoácidos (AAs) fue similar en todas las harinas salvo por una disminución de lisina en las harinas tratadas. De forma análoga a la PB, los tratamientos de protección incrementaron el BP y la DIE de la mayoría de AAs. El aporte de AAs metabolizabes de la harina se multiplico en 3,87 para los AAs azufrados y en menor medida (2,5 veces) para la lisina, como consecuencia de las pérdidas sufridas a consecuencia del tratamiento térmico. Estos tratamientos se muestran, por tanto, útiles para incrementar el valor proteico de la harina de girasol, si bien su empleo junto con concentrados proteicos ricos en lisina bypass digestible mejoraría el perfil de la proteína metabolizable. La corrección de la contaminación microbiana de las partículas que tiene lugar en el rumen se asoció en todos los alimentos testados y, de forma general, con reducciones del BP y de su DIE en todas las fracciones estudiadas. Estas reducciones fueron pequeñas en todos los concentrados, de forma acorde con los muy pequeños niveles de contaminación registrados tanto en las harinas de girasol como en el grano de trigo. Por el contrario, esta contaminación, al igual que los efectos de su corrección, fueron muy importantes en el heno de raigrás. Esta contaminación aumentó al tener en cuenta kc. Así, para la proporción de PB de origen microbiano existente en las muestras compuestas representativas del BP, este aumento fue significativo para el heno de raigrás (0,463 v. 0,706) y solo numérico para la harina de girasol (0,0170 v. 0,0208). La reducción de las estimas de DIE al corregir esta contaminación fue consecuencia de la eliminación de forma casi completa de los microorganismos adherentes en todos los residuos testados. Así, esta biomasa se redujo en 96,1% como media de 7x3 observaciones. Como resultado de las diferencias acumulativas a nivel del rumen e intestino, la no corrección de la contaminación microbiana junto con la no consideración de kc condujo a fuertes sobrestimaciones de la PB digerida en el intestino. Ésta fue de 39% en la harina de girasol (0,146 v. 0,105) y de 761% en el heno de raigrás (0,373 v. 0,0433). Estos resultados muestran que es necesario considerar tanto kc como corregir la contaminación microbiana para obtener estimas in situ precisas en forrajes, mientras que en concentrados, siempre que la contaminación microbiana sea pequeña, es más importante considerar kc. La elevada contaminación microbiana observada en el heno de raigrás se asoció también con importantes errores a nivel del N asociado a la fibra neutro (FND) y ácido (FAD) detergente (NDIN y ADIN, respectivamente) e incluso de estas fracciones de fibra, evidenciándose que estos métodos no eliminan completamente la contaminación microbiana que sufren los alimentos en su paso por el retículorumen. Así, en la muestra compuesta representativa de la composición química del flujo postruminal antes descrita, la sobrevaloración por no corregir la contaminación microbiana fue de 99,8; 24,2; 3,34 y 0,48% para NDIN, ADIN, FND y FAD, respectivamente. Las subvaloraciones asociadas para su DE fueron 34,1; 8,79; 4,41 y 0,51%, respectivamente. La DE corregida del NDIN y ADIN (0,743 y 0,728, respectivamente) mostró un aprovechamiento ruminal elevado de estos compuestos, si bien menor al de la PB total (0,85). El estudio de este aprovechamiento sobre los residuos de incubación ruminal a 6 y 72 h demostró, además, una más rápida degradación del ADIN frente al NDIN, así como un mayor potencial de degradación de este último en este alimento. Para comprobar si la digestión en el abomaso eliminaba la contaminación microbiana en la FND y FAD se estudio esta contaminación y sus posibles errores en muestras liofilizadas de contenidos ruminales y duodenales correspondientes a una dieta mixta de similar composición a la utilizada en el experimento 2, comparándose, además, las diferencias entre la extracción secuencial o directa de la FAD. Utilizando como referencia las BAS se apreciaron elevadas contaminaciones en la FND y FAD y su N asociado tanto en las muestras ruminales como en las duodenales. Sin embargo, los resultados de enriquecimiento en 15N de las partículas fueron intermedios entre los correspondientes a BAS y BAL lo que evidencia una elevada contaminación con BAL en estas muestras probablemente durante el proceso de liofilización. Ello conlleva una sobrevaloración de esta estimación. El método de extracción directa de FAD se mostró, por otra parte, marcadamente menos eficaz en la eliminación de la contaminación microbiana. Los resultados muestran la necesidad de corregir la contaminación microbiana para obtener estimaciones precisas de la degradabilidad de las proteínas de las paredes celulares vegetales. Estos errores deberían ser también considerados para FND y FAD en estudios in situ e in vivo. La elevada tasa fraccional de degradación del grano de trigo (60,9 y 42,0%/h para MS y PB, respectivamente) implico que su flujo de material indegradado (calculado solo en base a la kp obtenida para la harina de girasol) se redujera muy rápidamente, de forma que es casi nulo a 8 h tras la ingestión. Los valores corregidos de PB digerida en el intestino (0,15) representan solo el 18,7% de la proteína metabolizable, lo que muestra que el valor proteico del grano de trigo está estrechamente ligado a la síntesis de proteína microbiana derivada de su fermentación. En el experimento 2 se observaron menores concentraciones para materia orgánica, lípidos y PB, así como en la proporción N-AAs/N total en BAL que en BAS, siendo, por el contrario, mayor su enriquecimiento en 15N. Estos últimos resultados se utilizaron (junto con los de otros trabajos previos de este equipo) para validar una predicción preexistente del enriquecimiento en 15N de las BAS a partir de este valor en las BAL. Esta ecuación, de muy alta precisión (R2 = 0.995), permite calcular la subvaloración que se comete en los aportes de nutrientes correspondientes a las BAS al usar las BAL como muestra de referencia. Esta subvaloración representa aproximadamente 21, 32,5 y 60% para PB, proteína verdadera y lípidos.
Resumo:
Los estudios realizados hasta el momento para la determinación de la calidad de medida del instrumental geodésico han estado dirigidos, fundamentalmente, a las medidas angulares y de distancias. Sin embargo, en los últimos años se ha impuesto la tendencia generalizada de utilizar equipos GNSS (Global Navigation Satellite System) en el campo de las aplicaciones geomáticas sin que se haya establecido una metodología que permita obtener la corrección de calibración y su incertidumbre para estos equipos. La finalidad de esta Tesis es establecer los requisitos que debe satisfacer una red para ser considerada Red Patrón con trazabilidad metrológica, así como la metodología para la verificación y calibración de instrumental GNSS en redes patrón. Para ello, se ha diseñado y elaborado un procedimiento técnico de calibración de equipos GNSS en el que se han definido las contribuciones a la incertidumbre de medida. El procedimiento, que se ha aplicado en diferentes redes para distintos equipos, ha permitido obtener la incertidumbre expandida de dichos equipos siguiendo las recomendaciones de la Guide to the Expression of Uncertainty in Measurement del Joint Committee for Guides in Metrology. Asimismo, se han determinado mediante técnicas de observación por satélite las coordenadas tridimensionales de las bases que conforman las redes consideradas en la investigación, y se han desarrollado simulaciones en función de diversos valores de las desviaciones típicas experimentales de los puntos fijos que se han utilizado en el ajuste mínimo cuadrático de los vectores o líneas base. Los resultados obtenidos han puesto de manifiesto la importancia que tiene el conocimiento de las desviaciones típicas experimentales en el cálculo de incertidumbres de las coordenadas tridimensionales de las bases. Basándose en estudios y observaciones de gran calidad técnica, llevados a cabo en estas redes con anterioridad, se ha realizado un exhaustivo análisis que ha permitido determinar las condiciones que debe satisfacer una red patrón. Además, se han diseñado procedimientos técnicos de calibración que permiten calcular la incertidumbre expandida de medida de los instrumentos geodésicos que proporcionan ángulos y distancias obtenidas por métodos electromagnéticos, ya que dichos instrumentos son los que van a permitir la diseminación de la trazabilidad metrológica a las redes patrón para la verificación y calibración de los equipos GNSS. De este modo, ha sido posible la determinación de las correcciones de calibración local de equipos GNSS de alta exactitud en las redes patrón. En esta Tesis se ha obtenido la incertidumbre de la corrección de calibración mediante dos metodologías diferentes; en la primera se ha aplicado la propagación de incertidumbres, mientras que en la segunda se ha aplicado el método de Monte Carlo de simulación de variables aleatorias. El análisis de los resultados obtenidos confirma la validez de ambas metodologías para la determinación de la incertidumbre de calibración de instrumental GNSS. ABSTRACT The studies carried out so far for the determination of the quality of measurement of geodetic instruments have been aimed, primarily, to measure angles and distances. However, in recent years it has been accepted to use GNSS (Global Navigation Satellite System) equipment in the field of Geomatic applications, for data capture, without establishing a methodology that allows obtaining the calibration correction and its uncertainty. The purpose of this Thesis is to establish the requirements that a network must meet to be considered a StandardNetwork with metrological traceability, as well as the methodology for the verification and calibration of GNSS instrumental in those standard networks. To do this, a technical calibration procedure has been designed, developed and defined for GNSS equipment determining the contributions to the uncertainty of measurement. The procedure, which has been applied in different networks for different equipment, has alloweddetermining the expanded uncertainty of such equipment following the recommendations of the Guide to the Expression of Uncertainty in Measurement of the Joint Committee for Guides in Metrology. In addition, the three-dimensional coordinates of the bases which constitute the networks considered in the investigationhave been determined by satellite-based techniques. There have been several developed simulations based on different values of experimental standard deviations of the fixed points that have been used in the least squares vectors or base lines calculations. The results have shown the importance that the knowledge of experimental standard deviations has in the calculation of uncertainties of the three-dimensional coordinates of the bases. Based on high technical quality studies and observations carried out in these networks previously, it has been possible to make an exhaustive analysis that has allowed determining the requirements that a standard network must meet. In addition, technical calibration procedures have been developed to allow the uncertainty estimation of measurement carried outby geodetic instruments that provide angles and distances obtained by electromagnetic methods. These instruments provide the metrological traceability to standard networks used for verification and calibration of GNSS equipment. As a result, it has been possible the estimation of local calibration corrections for high accuracy GNSS equipment in standardnetworks. In this Thesis, the uncertainty of calibration correction has been calculated using two different methodologies: the first one by applying the law of propagation of uncertainty, while the second has applied the propagation of distributions using the Monte Carlo method. The analysis of the obtained results confirms the validity of both methodologies for estimating the calibration uncertainty of GNSS equipment.
Resumo:
Se está construyendo actualmente un nuevo túnel de 8.6 km de longitud bajo los Pirineos en una zona donde se ha observado una sismicidad de cierta importancia. Independientemente de los estudios que se realizarán para zonas especiales, como los correspondientes a los edificios adosados a las boquillas, se ha elaborado un análisis global para ver la influencia que los numerosos cambios en las condiciones del suelo pueden tener sobre las tensiones y desplazamientos del sostenimiento. El artículo describe las condiciones de peligrosidad sísmica y muestra alguno de los modelos utilizados para calcular la respuesta sísmica del túnel.
Resumo:
En este artículo se hace una breve descripción de la evolución en el Siglo XX de los modelos abstractos utilizados para calcular el comportamiento de los sistemas constructivos y se analizan algunos temas con futuro.
Resumo:
El suelo es un importante recurso natural que necesita ser preservado y mejorado para permitirle mantener su calidad y capacidad productiva, para ello se deben proponer y aplicar prácticas sostenibles que permitan recuperar aquellos suelos degradados por un mal manejo del hombre, como por ejemplo la salinización. El objetivo planteado fue evaluar la biorecuperación de un suelo con problemas salino-sódico con la aplicación de dos proporciones (1,5 y 3% (p/p)) de tres enmiendas orgánicas: compost, vermicompost sólido y Lemna mesclados o no con el 100% de los requerimientos de fosfoyeso, generándose 15 tratamientos (incluyendo tres controles). La evaluación se realizó a través de tres ensayos: 1. Columnas simuladas de suelo. 2. Evolución de CO2 y 3. Crecimiento de plántulas de tomate. El suelo objeto de estudio está clasificado my como Fluventic Haplustepts, y fue tomado de una zona de la Hacienda Alto Viento, con una latitud de 10° 2' 15 N y una longitud de 72 ° 34' 15 W, en el estado de Zulia – Venezuela. Se tomó una muestra compuesta por 20 submuestras de 20 cm de profundidad del área problema, se secó al aire (2,3% de humedad), se tamizó y homogenizó. El suelo y las enmiendas orgánicas fueron caracterizadas. Los materiales orgánicos; compost y vermicompost fueron procesados en la misma Hacienda con el uso de estiércol de ganado bovino; la Lemna fue recolectada de orillas del Lago de Maracaibo en la ciudad de Maracaibo. El suelo se mezcló a las proporciones indicadas se le midió respiración basal y el efecto sobre la germinación de semillas de tomate y se empaquetó en un tubo de polietileno de 7,1 cm de diámetro y 70 a 90 cm de longitud, según la altura de la mezcla del suelo con la enmienda. El fondo de cada columna fue rellenado con 40 cm de arena lavada para facilitar el drenaje. En cada columna se utilizó la misma cantidad de suelo (1055 mg), la altura que ocupó dentro de las columnas dependió del tipo de enmienda orgánica y su proporción, la cual modificó la Da del suelo (1,328±0,05 g•cm-3). La altura dentro de la columna varió desde 20 cm para el suelo sin enmienda hasta 38,33±0,8 cm para el suelo enmendado con Lemna al 3,0%. Transcurrido el periodo de tres meses tiempo en el cual el suelo enmendado y colocado en las columnas fue lavado con una cantidad de agua que equivalente a la tasa de infiltración, la cual se calculó a partir de la precipitación anual de la zona y las perdidas por evaporación y escorrentía; se fraccionó en tres secciones de 7, 7 y 6 cm de longitud, y el suelo de cada fracción se secó al aire y se tamizó, y se le midió CEextr, pH, cationes en solución y cationes extraíbles para calcular el RAS y el PSI. Se tomó una cantidad equivalente de cada sección para conformar una muestra de 50 g de suelos a los cuales se le midió respiración basal e igualmente se tomó suelo para evaluar la germinación y crecimiento de plántulas de tomate. Se detectaron diferencias significativa (p<0,05) entre tratamientos, según la prueba de Tukey, para la variables evaluadas, aunque no hubo diferencias entre las proporciones ni entre la utilización del fosfoyeso mezclado con las enmiendas orgánicas. La enmienda que mostró menos potencial en la bio remediación fue la Lemna por sus altos contenidos de Na+. La metodología de las columnas simuladas del suelo, bajo las condiciones de estudio, no fue del todo adecuada para evaluar la bio remediación debido que en el suelo control por efecto de la aplicación de agua también hubo recuperación del mismo por su disminución en el la CE, RAS y PSI y en algunas variables su recuperación fue mayor que en aquellos enmendados con Lemna. Tomando en la respuesta del cultivo la mejor enmienda fue el vermicompost Abstract The soil is an important natural resource that needs to be preserved and improved to maintain its quality and production potential. Therefore, it is necessary to propose and apply sustainable practices that permit the recovery of soils that have been degraded by inadequate management, among these saline soils. The objective of this study was to evaluate the bioremediation of a saline-sodic soil through the application of two proportions (1,5 and 3% (p/p) of three organic amendments: compost, vermicompost and Lemna, mixed or not with gypsum phosphate, resulting in 15 treatments (including 3 controls). The evaluation was conducted through three tests: 1. Simulated soil columns. 2. Evolution of CO2 and 3. Growth of tomato seedlings The soil under evaluation was classified as Fluventic Haplustepts and was collected from the Alto Viento farm located at 10° 2' 15 North Latitude and 72° 34' 15 West longitude, in Zulia State, Venezuela. A composite soil sample, integrated of 20 subsamples taken to a depth of 20 cm collected in the problem area, was air dried (2.3 % moisture), sieved and homogenized. Soil and organic amendments were characterized. Organic material for the compost and vermicompost were obtained on the farm using cattle manure, whereas the Lemna was collected from the shores of Lake Maracaibo outside Maracaibo city. The soil was mixed in the above-mentioned proportions and its baseline respiration rate and effect on the germination of tomato seeds were recorded. Soil was packed in a PVC pipe (7,1 cm diameter and 70-90 cm length) to simulate a soil column. The bottom of each column was filled out with 40 cm of washed sand to facilitate drainage. The same amount of soil was used in each column (1,055 mg), but the height of the column varied according to the organic amendment and its proportion, which modified the apparent density of the soil (1,328±0,05 g•cm-3). The height of each column varied from 20 cm for the soil without amendment to 38,33±0,8 cm for the soil with 3% Lemna. After three months, the soil was treated with water (using the equivalent of the problem area infiltration rate), and was divided into three sections (7, 7 and 6 cm length). The soil from each section was air dried, sieved and its cationic exchange capacity, pH, cation solutions and extractable cations were measured to estimate RAS and PSI. An equivalent portion of each section was collected to compose a 50 g soil sample, and baseline respiration rate and tomato seedlings growth were recorded. Statistical differences (p<0,05) were observed among treatments for the variables under evaluation. Tukey test showed no differences among the proportions of organic amendments nor with the addition of gypsum phosphate to the organic amendments. The amendment which showed the lowest bioremediation potential was the Lemna, as a result of its high Na+ concentration. Under the conditions of this study, the soil column methodology used showed limitations to evaluate bioremediation because the control soil column, after being rinsed with water, also showed improvements as CE, RAS and PSI values were reduced. For some variables, the improvement noted in the control soil column surpassed those obtained with the soil amended with Lemna. Based on the best crop response amendment was vermicompost 3%.
Resumo:
En este artículo se presentan los resultados obtenidos con un método aproximado para calcular las historias temporales de los coeficientes aerodinámicos correspondientes a las fuerzas y los momentos a que están sometidos los coches de cabeza durante el cruce de dos trenes de alta velocidad al aire libre.
Resumo:
La corrosión bajo tensiones (SCC) es un problema de gran importancia en las aleaciones de aluminio de máxima resistencia (serie Al-Zn-Mg-Cu). La utilización de tratamientos térmicos sobremadurados, en particular el T73, ha conseguido prácticamente eliminar la susceptibilidad a corrosión bajo tensiones en dichas aleaciones pero a costa de reducir su resistencia mecánica. Desde entonces se ha tratado de optimizar simultáneamente ambos comportamientos, encontrándose para ello diversos inconvenientes entre los que destacan: la dificultad de medir experimentalmente el crecimiento de grieta por SCC, y el desconocimiento de las causas y el mecanismo por el cual se produce la SCC. Los objetivos de esta Tesis son mejorar el sistema de medición de grietas y profundizar en el conocimiento de la SCC, con el fin de obtener tratamientos térmicos que aúnen un óptimo comportamiento tanto en SCC como mecánico en las aleaciones de aluminio de máxima resistencia utilizadas en aeronáutica. Para conseguir los objetivos anteriormente descritos se han realizado unos cuarenta tratamientos térmicos diferentes, de los cuales la gran mayoría son nuevos, para profundizar en el conocimiento de la influencia de la microestructura (fundamentalmente, de los precipitados coherentes) en el comportamiento de las aleaciones Al-Zn-Mg-Cu, y estudiar la viabilidad de nuevos tratamientos apoyados en el conocimiento adquirido. Con el fin de obtener unos resultados aplicables a productos o semiproductos de aplicación aeronáutica, los tratamientos térmicos se han realizado a trozos grandes de una plancha de 30 mm de espesor de la aleación de aluminio 7475, muy utilizada en las estructuras aeronáuticas. Asimismo con el objeto de conseguir una mayor fiabilidad de los resultados obtenidos se han utilizado, normalmente, tres probetas de cada tratamiento para los diferentes ensayos realizados. Para la caracterización de dichos tratamientos se han utilizado diversas técnicas: medida de dureza y conductividad eléctrica, ensayos de tracción, calorimetría diferencial de barrido (DSC), metalografía, fractografía, microscopia electrónica de transmisión (MET) y de barrido (MEB), y ensayos de crecimiento de grieta en probeta DCB, que a su vez han permitido hacer una estimación del comportamiento en tenacidad del material. Las principales conclusiones del estudio realizado se pueden resumir en las siguientes: Se han diseñado y desarrollado nuevos métodos de medición de grieta basados en el empleo de la técnica de ultrasonidos, que permiten medir el crecimiento de grieta por corrosión bajo tensiones con la precisión y fiabilidad necesarias para valorar adecuadamente la susceptibilidad a corrosión bajo tensiones. La mejora de medida de la posición del frente de grieta ha dado lugar, entre otras cosas, a la definición de un nuevo ensayo a iniciación en probetas preagrietadas. Asimismo, se ha deducido una nueva ecuación que permite calcular el factor de intensidad de tensiones existente en punta de grieta en probetas DCB teniendo en cuenta la influencia de la desviación del plano de crecimiento de la grieta del plano medio de la probeta. Este aspecto ha sido determinante para poder explicar los resultados experimentales obtenidos ya que el crecimiento de la grieta por un plano paralelo al plano medio de la probeta DCB pero alejado de él reduce notablemente el factor de intensidades de tensiones que actúa en punta de grieta y modifica las condiciones reales del ensayo. Por otro lado, se han identificado los diferentes constituyentes de la microestructura de precipitación de todos los tratamientos térmicos estudiados y, en especial, se ha conseguido constatar (mediante MET y DSC) la existencia de zonas de Guinier-Preston del tipo GP(II) en la microestructura de numerosos tratamientos térmicos (no descrita en la bibliografía para las aleaciones del tipo de la estudiada) lo que ha permitido establecer una nueva interpretación de la evolución de la microestructura en los diferentes tratamientos. Al hilo de lo anterior, se han definido nuevas secuencias de precipitación para este tipo de aleaciones, que han permitido entender mejor la constitución de la microestructura y su relación con las propiedades en los diferentes tratamientos térmicos estudiados. De igual manera, se ha explicado el papel de los diferentes microconstituyentes en diversas propiedades mecánicas (propiedades a tracción, dureza y tenacidad KIa); en particular, el estudio realizado de la relación de la microestructura con la tenacidad KIa es inédito. Por otra parte, se ha correlacionado el comportamiento en corrosión bajo tensiones, tanto en la etapa de incubación de grieta como en la de propagación, con las características medidas de los diferentes constituyentes microestructurales de los tratamientos térmicos ensayados, tanto de interior como de límite de grano, habiéndose obtenido que la microestructura de interior de grano tiene una mayor influencia en el comportamiento en corrosión bajo tensiones que la de límite de grano. De forma especial, se ha establecido la importancia capital, y muy negativa, de la presencia en la microestructura de zonas de Guinier-Preston en el crecimiento de la grieta por corrosión bajo tensiones. Finalmente, como consecuencia de todo lo anterior, se ha propuesto un nuevo mecanismo por el que se produce la corrosión bajo tensiones en este tipo de aleaciones de aluminio, y que de forma muy resumida se puede concretar lo siguiente: la acumulación de hidrógeno (formado, básicamente, por un proceso corrosivo de disolución anódica) delante de la zonas GP (en especial, de las zonas GP(I)) próximas a la zona libre de precipitados que se desarrolla alrededor del límite de grano provoca enfragilización local y causa el rápido crecimiento de grieta característico de algunos tratamientos térmicos de este tipo de aleaciones. ABSTRACT The stress corrosion cracking (SCC) is a major problem in the aluminum alloys of high resistance (series Al-Zn-Mg-Cu). The use of overaged heat treatments, particularly T73 has achieved virtually eliminate the susceptibility to stress corrosion cracking in such alloys but at the expense of reducing its mechanical strength. Since then we have tried to simultaneously optimize both behaviors, several drawbacks found for it among them: the difficulty of measuring experimentally the SCC crack growth, and ignorance of the causes and the mechanism by which SCC occurs. The objectives of this thesis are to improve the measurement system of cracks and deeper understanding of the SCC, in order to obtain heat treatments that combine optimum performance in both SCC and maximum mechanical strength in aluminum alloys used in aerospace To achieve the above objectives have been made about forty different heat treatments, of which the vast majority are new, to deepen the understanding of the influence of microstructure (mainly of coherent precipitates) in the behavior of the alloys Al -Zn-Mg-Cu, and study the feasibility of new treatments supported by the knowledge gained. To obtain results for products or semi-finished aircraft application, heat treatments were performed at a large pieces plate 30 mm thick aluminum alloy 7475, widely used in aeronautical structures. Also in order to achieve greater reliability of the results obtained have been used, normally, three specimens of each treatment for various tests. For the characterization of these treatments have been used several techniques: measurement of hardness and electrical conductivity, tensile testing, differential scanning calorimetry (DSC), metallography, fractography, transmission (TEM) and scanning (SEM) electron microscopy, and crack growth tests on DCB specimen, which in turn have allowed to estimate the behavior of the material in fracture toughness. The main conclusions of the study can be summarized as follows: We have designed and developed new methods for measuring crack based on the use of the ultrasound technique, for measuring the growth of stress corrosion cracks with the accuracy and reliability needed to adequately assess the susceptibility to stress corrosion. Improved position measurement of the crack front has resulted, among other things, the definition of a new initiation essay in pre cracked specimens. Also, it has been inferred a new equation to calculate the stress intensity factor in crack tip existing in DCB specimens considering the influence of the deviation of the plane of the crack growth of the medium plane of the specimen. This has been crucial to explain the experimental results obtained since the crack growth by a plane parallel to the medium plane of the DCB specimen but away from it greatly reduces the stress intensity factor acting on the crack tip and modifies the actual conditions of the essay. Furthermore, we have identified the various constituents of the precipitation microstructure of all heat treatments studied and, in particular note has been achieved (by TEM and DSC) the existence of the type GP (II) of Guinier-Preston zones in the microstructure of several heat treatments (not described in the literature for alloys of the type studied) making it possible to establish a new interpretation of the evolution of the microstructure in the different treatments. In line with the above, we have defined new precipitation sequences for these alloys, which have allowed a better understanding of the formation of the microstructure in relation to the properties of different heat treatments studied. Similarly, explained the role of different microconstituents in various mechanical properties (tensile properties, hardness and toughness KIa), in particular, the study of the relationship between the tenacity KIa microstructure is unpublished. Moreover, has been correlated to the stress corrosion behavior, both in the incubation step as the crack propagation, with the measured characteristics of the various microstructural constituents heat treatments tested, both interior and boundary grain, having obtained the internal microstructure of grain has a greater influence on the stress corrosion cracking behavior in the grain boundary. In a special way, has established the importance, and very negative, the presence in the microstructure of Guinier-Preston zones in crack growth by stress corrosion. Finally, following the above, we have proposed a new mechanism by which stress corrosion cracking occurs in this type of aluminum alloy, and, very briefly, one can specify the following: the accumulation of hydrogen (formed basically by a corrosive process of anodic dissolution) in front of the GP zones (especially the GP (I) zones) near the precipitates free zone that develops around grain boundary causes local embrittlement which characterizes rapid crack growth of some heat treatments such alloys.
Resumo:
Este estudio está dedicado al tramo del río Valdemembra a su paso por Motilla del Palancar, el cual pertenece a la Confederación Hidrográfica del río Júcar (CHJ). A través de un estudio histórico, se determinará la magnitud de inundaciones pasadas, así como los puntos más propicios al desbordamiento, obteniendo la información de fuentes bibliográficas, pero sobre todo, de los testimonios de los vecinos de Motilla del Palancar. Posteriormente se realizará un estudio geomorfológico, que se podría dividir en dos fases. En la primera de ellas se determinará una aproximación de la extensión de la llanura de inundación, a través de la estratigrafía de la zona. El tercer y último estudio, sería el estudio hidráulico. En él, utilizando las ecuaciones fundamentales de la hidráulica, se calculará la mancha de inundación asociada a los períodos de retorrno de 10, 100 y 500 años, así como el Dominio Público Hidráulico, con la finalidad de poder elaborar posteriormente los mapas de peligrosidad de inundación, además de los mapas de riesgo de inundación. Para ello, utilizaremos dos software de cálculo hidráulico. El primero se conoce con el nombre de HecRas y realiza los cálculos de manera unidimensional, el segundo se llama Iber, este calcula flujos bidimensionales, por lo que ofrece resultados más precisos. Por último, realizaremos un Plan de Gestión del Riesgo de Inundación que permitirá disminuir los daños humanos y materiales ocasionados por las avenidas futuras,tomando las medidas estructurales o no estructurales necesarias.
Resumo:
El proyecto tiene como objetivo realizar el diseño de la cimentación de Torre Reforma. Torre Reforma se ubica en Av. Paseo de la Reforma No. 483, en la esquina con Rio Elba, en la ciudad de México. Dicha ubicación geotécnicamente corresponde a lo que se conoce como la Zona de Lago. La superficie construida será de 2780 m2 y el edificio contará con una altura de 244 m y un total de 57 plantas. Por debajo del nivel de calle el edificio constará de 10 niveles de sótano destinados a aparcamiento. Partiendo de los parámetros geotécnicos del terreno, el proyecto consistirá en calcular una parte de la cimentación empleada en este edificio. Este proyecto se podrá utilizar como guía para realizar cimentaciones parecidas para otros edificios. ABSTRACT The objective of this Project is to make the design of the foundation of Torre Reforma. Torre Reforma is located in Av. Paseo de la Reforma No. 483, on the corner with Río Elba in México City. Geotechnically this location corresponds to what it is known as “la Zona del Lago” or Lake Zone. The constructed area is of 2780 m2 and the building will have a height of 244 m and a total of 57 floors. Below street level the building will include ten basement levels for parking. Based on the geotechnical parameters of the site, the project will consist in calculating a part of the foundation used in this building. This project will be able to be used as a guide for future projects of foundations of buildings in similar conditions.
Resumo:
- Resumen La hipótesis que anima esta tesis doctoral es que algunas de las características del entorno urbano, en particular las que describen la accesibilidad de su red de espacio público, podrían estar relacionadas con la proporción de viajes a pie o reparto modal, que tiene cada zona o barrio de Madrid. Uno de los puntos de partida de dicha hipótesis que el entorno urbano tiene una mayor influencia sobre los viaje a pie que en sobre otros modos de transporte, por ejemplo que en los viajes de bicicleta o en transporte público; y es que parece razonable suponer que estos últimos van a estar más condicionadas por ejemplo por la disponibilidad de vías ciclistas, en el primer caso, o por la existencia de un servicio fiable y de calidad, en el segundo. Otra de las motivaciones del trabajo es que la investigación en este campo de la accesibilidad del espacio público, en concreto la denominada “Space Syntax”, ha probado en repetidas ocasiones la influencia de la red de espacio público en cómo se distribuye la intensidad del tráfico peatonal por la trama urbana, pero no se han encontrado referencias de la influencia de dicho elemento sobre el reparto modal. De acuerdo con la hipótesis y con otros trabajos anteriores se propone una metodología basada en el análisis empírico y cuantitativo. Su objetivo es comprobar si la red de espacio público, independientemente de otras variables como los usos del suelo, incluso de las variables de ajenas entorno no construido, como las socioeconómicas, está o no relacionada estadísticamente con la proporción de peatones viajes en las zonas urbanas. Las técnicas estadísticas se utilizan para comprobar sistemáticamente la asociación de las variables del entorno urbano, denominadas variables independientes, con el porcentaje de viajes a pie, la variable dependiente. En términos generales, la metodología es similar a la usada en otros trabajos en este campo como los de CERVERÓ y KOCKLEMAN (1997), CERVERÓ y DUNCAN (2003), o para los que se utilizan principalmente en la revisión general de TRB (2005) o, más recientemente, en ZEGRAS (2006) o CHATMAN (2009). Otras opciones metodológicas, como los métodos de preferencias declaradas (ver LOUVIERE, HENSHER y SWAIT, 2000) o el análisis basado en agentes (PENN & TURNER, 2004) fueron descartados, debido a una serie de razones, demasiado extensas para ser descritas aquí. El caso de estudio utilizado es la zona metropolitana de Madrid, abarcándola hasta la M-50, es decir en su mayor parte, con un tamaño aproximado de 31x34 Km y una población de 4.132.820 habitantes (aproximadamente el 80% de la población de la región). Las principales fuentes de datos son la Encuesta Domiciliaria de Movilidad de 2004 (EDM04), del Consorcio Regional de Transportes de Madrid que es la última disponible (muestra: > 35.000 familias,> 95.000 personas), y un modelo espacial del área metropolitana, integrando el modelo para calcular los índices de Space Syntax y un Sistema de Información Geográfica (SIG). La unidad de análisis, en este caso las unidades espaciales, son las zonas de transporte (con una población media de 7.063 personas) y los barrios (con una población media de 26.466 personas). Las variables del entorno urbano son claramente el centro del estudio. Un total de 20 índices (de 21) se seleccionan de entre los más relevantes encontrados en la revisión de la producción científica en este campo siendo que, al mismo tiempo, fueran accesibles. Nueve de ellos se utilizan para describir las características de los usos del suelo, mientras que otros once se usan para describir la red de espacios públicos. Estos últimos incluyen las variables de accesibilidad configuracional, que son, como se desprende de su título, el centro del estudio propuesto. La accesibilidad configuracional es un tipo especial de accesibilidad que se basa en la configuración de la trama urbana, según esta fue definida por HILLIER (1996), el autor de referencia dentro de esta línea de investigación de Space Syntax. Además se incluyen otras variables de la red de espacio público más habituales en los estudios de movilidad, y que aquí se denominan características geométricas de los elementos de la red, tales como su longitud, tipo de intersección, conectividad, etc. Por último se incluye además una variable socioeconómica, es decir ajena al entorno urbano, para evaluar la influencia de los factores externos, pues son varios los que pueden tener un impacto en la decisión de caminar (edad, género, nivel de estudios, ingresos, tasa de motorización, etc.). La asociación entre las variables se han establecido usando análisis de correlación (bivariante) y modelos de análisis multivariante. Las primeras se calculan entre por pares entre cada una de las 21 variables independientes y la dependiente, el porcentaje de viajes a pie. En cuanto a los segundos, se han realizado tres tipos de estudios: modelo multivariante general lineal, modelo multivariante general curvilíneo y análisis discriminante. Todos ellos son capaces de generar modelos de asociación entre diversas variables, pudiéndose de esta manera evaluar con bastante precisión en qué medida cada modelo reproduce el comportamiento de la variable dependiente, y además, el peso o influencia de cada variable en el modelo respecto a las otras. Los resultados fundamentales del estudio se expresan en dos modelos finales alternativos, que demuestran tener una significativa asociación con el porcentaje de viajes a pie (R2 = 0,6789, p <0,0001), al explicar las dos terceras partes de su variabilidad. En ellos, y en general en todo el estudio realizado, se da una influencia constante de tres índices en particular, que quedan como los principales. Dos de ellos, de acuerdo con muchos de los estudios previos, corresponden a la densidad y la mezcla de usos del suelo. Pero lo más novedoso de los resultados obtenidos es que el tercero es una medida de la accesibilidad de la red de espacio público, algo de lo que no había referencias hasta ahora. Pero, ¿cuál es la definición precisa y el peso relativo de cada uno en el modelo, es decir, en la variable independiente? El de mayor peso en la mayor parte de los análisis realizados es el índice de densidad total (n º residentes + n º puestos de trabajo + n º alumnos / Ha). Es decir, una densidad no sólo de población, sino que incluye algunas de las actividades más importantes que pueden darse una zona para generar movilidad a pie. El segundo que mayor peso adquiere, llegando a ser el primero en alguno de los análisis estadísticos efecturados, es el índice de accesibuilidad configuracional denominado integración de radio 5. Se trata de una medida de la accesibilidad de la zona, de su centralidad, a la escala de, más un menor, un distrito o comarca. En cuanto al tercero, obtiene una importancia bastante menor que los anteriores, y es que representa la mezcla de usos. En concreto es una medida del equilibrio entre los comercios especializados de venta al por menor y el número de residentes (n º de tiendas especializadas en alimentación, bebidas y tabaco / n º de habitantes). Por lo tanto, estos resultados confirman buena parte de los de estudios anteriores, especialmente los relativas a los usos del suelo, pero al mismo tiempo, apuntan a que la red de espacio público podría tener una influir mayor de la comprobada hasta ahora en la proporción de peatones sobre el resto de modos de transportes. Las razones de por qué esto puede ser así, se discuten ampliamente en las conclusiones. Finalmente se puede precisar que dicha conclusión principal se refiere a viajes de una sola etapa (no multimodales) que se dan en los barrios y zonas del área metropolitana de Madrid. Por supuesto, esta conclusión tiene en la actualidad, una validez limitada, ya que es el resultado de un solo caso — Abstract The research hypothesis for this Ph.D. Thesis is that some characteristics of the built environment, particularly those describing the accessibility of the public space network, could be associated with the proportion of pedestrians in all trips (modal split), found in the different parts of a city. The underlying idea is that walking trips are more sensitive to built environment than those by other transport modes, such as for example those by bicycle or by public transport, which could be more conditioned by, e.g. infrastructure availability or service frequency and quality. On the other hand, it has to be noted that the previously research on this field, in particular within Space Syntax’s where this study can be referred, have tested similar hypothesis using pedestrian volumes as the dependent variable, but never against modal split. According to such hypothesis, research methodology is based primarily on empirical quantitative analysis, and it is meant to be able to assess whether public space network, no matter other built environment and non-built environment variables, could have a relationship with the proportion of pedestrian trips in urban areas. Statistical techniques are used to check the association of independent variables with the percentage of walking in all trips, the dependent one. Broadly speaking this methodology is similar to that of previous studies in the field such as CERVERO&KOCKLEMAN (1997), CERVERO & DUNCAN (2003), or to those used mainly in the general review of T.R.B. (2005) or, more recently in ZEGRAS (2006) or CHATMAN (2009). Other methodological options such as stated choice methods (see LOUVIERE, HENSHER & SWAIT, 2000) or agent based analysis (PENN & TURNER, 2004), were discarded, due to a number of reasons, too long to be described here. The case study is not the entire Madrid’s metropolitan area, but almost (4.132.820 inhabitants, about 80% of region´s population). Main data sources are the Regional Mobility Home Based Survey 2004 (EDM04), which is the last available (sample: >35.000 families, > 95.000 individuals), and a spatial model of the metropolitan area, developed using Space Syntax and G.I.S. techniques. The analysis unit, in this case spatial units, are both transport zones (mean population = 7.063) and neighborhoods (mean population = 26.466). The variables of the built environment are clearly the core of the study. A total of 20 (out of 21) are selected from among those found in the literature while, at the same time, being accessible. Nine out of them are used to describe land use characteristics while another eleven describe the network of public spaces. Latter ones include configurational accessibility or Space Syntax variables. This is a particular sort of accessibility related with the concept of configuration, by HILLIER (1996), one of the main authors of Space Syntax, But it also include more customary variables used in mobility research to describe the urban design or spatial structure (here public space network), which here are called geometric characteristics of the such as its length, type of intersection, conectivity, density, etc. Finally a single socioeconomic variable was included in order to assess the influence non built environment factors that also may have an impact on walking (age, income, motorization rate, etc.). The association among variables is worked out using bi-variate correlation analysis and multivariate-analysis. Correlations are calculated among the 21 independent variables and the dependent one, the percentage of walking trips. Then, three types of multi-variate studies are run: general linear, curvilinear and discriminant multi-variate analysis. The latter are fully capable of generating complex association models among several variables, assessing quite precisely to what extent each model reproduces the behavior of the dependent variable, and also the weight or influence of each variable in the model. This study’s results show a consistent influence of three particular indexes in the two final alternative models of the multi-variate study (best, R2=0,6789, p<0,0000). Not surprisingly, two of them correspond to density and mix of land uses. But perhaps more interesting is that the third one is a measure of the accessibility of the public space network, a variable less important in the literature up to now. Additional precisions about them and their relative weight could also be of some interest. The density index is not only about population but includes most important activities in an area (nº residents + nº jobs+ nº students/Ha). The configurational index (radius 5 integration) is a measure of the accessibility of the area, i.e. centrality, at the scale of, more a less, a district. Regarding the mix of land uses index, this one is a measure of the balance between retail, in fact local basic retail, and the number of residents (nº of convenience shops / nº of residents). Referring to their weights, configurational index (radius 5 integration) gets the higher standardized coefficient of the final equation. However, in the final equations, there are a higher number of indexes coming from the density or land use mix categories than from public space network enter. Therefore, these findings seem to support part of the field’s knowledge, especially those concerning land uses, but at the same time they seem to bring in the idea that the configuration of the urban grid could have an influence in the proportion of walkers (as a part of total trips on any transport mode) that do single journey trips in the neighborhoods of Madrid, Spain. Of course this conclusion has, at present, a limited validity since it’s the result of a single case. The reasons of why this can be so, are discussed in the last part of the thesis.