991 resultados para Receptores del Factor de Necrosis Tumoral
Resumo:
Incluye Bibliografía
Resumo:
[ES] El jurel dentón Pseudocaranx dentex (Bloch & Schneider, 1801) es una especie habitualmente asociada al entorno de instalaciones comerciales de engorde de doradas Sparus aurata L., 1758 y lubinas Dicentrarchus labrax (L., 1758) en jaulas flotantes en las islas Canarias. Con el objetivo de conocer el potencial de esta especie para la acuicultura se ha llevado a cabo un estudio de su ciclo reproductivo anual. Durante un año se han recogido muestras de gónadas, evaluado variables morfométricas a partir de especímenes salvajes y registrado los valores de temperatura y fotoperiodo en el momento de los muestreos. Los análisis macroscópicos y microscópicos realizados de las gónadas, junto con la determinación mensual del índice gonadosomático (IGS) y del factor de condición (FC), han servido para establecer el ciclo anual de maduración de esta especie. El estadio de vitelogénesis avanzada fue observado entre mayo y noviembre, sugiriendo un prolongado periodo de desove para esta especie en aguas de las islas Canarias.
Resumo:
El sector riego representa en Argentina el 70% de todas las extracciones para uso del agua y tiene una eficiencia promedio del 40%, que resulta baja. Entre otros motivos, esto se debe principalmente al predominio de los métodos de riego por escurrimiento superficial sobre aquellos más modernos. Un síntoma de esta ineficiencia generalizada se manifiesta en el hecho de que de los 1,6 millones de hectáreas bajo riego que hay en el país, un tercio tiene problemas de salinización de suelo y/o de drenaje. El área regadía del río Mendoza es -sin dudas- la más importante de la provincia y sobre ella está asentada gran parte de la población provincial. Cuenta con un gran desarrollo industrial y con actividades que involucran a los distintos usos del agua. La reciente construcción sobre el río Mendoza, del dique Potrerillos, permitirá la regulación del mismo posibilitando una entrega programada a los usuarios a través de las 6 zonas de riego que la operan. El objetivo general del estudio es conocer el grado de aprovechamiento del agua de riego en el interior de las propiedades agrícolas pertenecientes al área de influencia del río Mendoza y estimar las eficiencias potenciales factibles de alcanzar considerando los posibles cambios operativos y el balance salino asegurando así un adecuado nivel productivo. Se plantean como objetivos específicos: conocer las láminas de riego, las eficiencias actuales y potenciales, la salinidad del suelo en la rizósfera y del agua de riego superficial, conocer los parámetros físicos (velocidad de infiltración, ecuaciones de avance del frente de agua y caracterizar la geometría de los surcos de la zona) y operativos (caudal de manejo y unitario). La unidad de análisis es la propiedad o finca. El tamaño de la muestra fue de 101 propiedades. La selección de las fincas fue realizada teniendo en cuenta principalmente dos criterios: primero, que las mismas se distribuyeran aproximadamente en igual cantidad en las 6 zonas de riego y sobre los canales más representativos de cada una de ellas para que las comparaciones fueran equivalentes y segundo, evaluar aquella propiedad, con derecho de riego superficial, que estuviera recibiendo el turno de riego habitual. Dentro de estos grupos las propiedades se seleccionaron en forma aleatoria. Para el estudio de la eficiencia de riego se ha utilizado la metodología de Chambouleyron y Morábito (1982) al tratar los casos de riego sin desagüe al pie y la metodología de Walker & Skogerboe (1987) para los casos de riego con desagüe al pie. El equipamiento utilizado comprendió aforadores portátiles, minimolinetes, anillos infiltrómetros, cintas métricas, nivel óptico, etc. Para conocer la salinidad de los suelos se extrajeron en cada propiedad evaluada seis muestras de suelo en los surcos o melgas (cabeza, medio y pie) a dos profundidades por cada ubicación (cultivos perennes: 0 a 50 y 50 a 100 cm y cultivos hortícolas: 0 a 25 y 25 a 50 cm) y en laboratorio se midió la conductividad eléctrica del extracto de saturación (CEes) expresándola en dS m-1 a 25ºC. También se realizaron los análisis de salinidad del agua en muestras tomadas en la bocatoma de la propiedad, expresada en dS m-1 a 25ºC. Se evaluó la respuesta de la salinidad del suelo a diferentes factores mediante un análisis de varianza unifactorial. Se consideraron los siguientes factores: zona de riego, cultivo, ubicación dentro de la parcela (cabeza, medio y pie), estrato de suelo (primero y segundo) y método de riego (surcos con/sin desagüe y melgas sin desagüe). La comparación de medias de los niveles de cada uno de los factores se realizó utilizando la prueba de Scheffé. Como la producción está vinculada a la disponibilidad de agua y al nivel de salinidad del suelo, se analizó también la relación que existe entre la salinidad del suelo (CEes) y las eficiencias de riego, para ello se consideró el coeficiente de variación (CV) de la CEes de los dos estratos de suelo (primer y segundo) y las tres ubicaciones dentro de cada parcela respecto de las eficiencias de distribución (EDI) y de almacenaje (EAL), según cultivos y método de riego. Para la relación EAL y CEes del perfil del suelo se realizó una discriminación de datos en tres estratos: EAL = 100%, 80% < EAL < 100% y EAL < 80%. Se analizó además la variación de la salinidad del agua de riego superficial en las distintas zonas. El estudio incluyó la estimación del valor de la Eficiencia de riego potencial (EAPp) utilizando dos metodologías: (a) una según el manejo del método de riego (EAPM) definida como aquella factible de alcanzar cuando se han optimizado las variables de riego (caudal unitario, tiempo de aplicación, pendiente, oportunidad de riego, etc.) y que indica el grado de eficiencia que puede alcanzar el método si el manejo es óptimo. Los valores EAPM fueron obtenidos con el modelo matemático SIRMOD (Walker, 1993); (b) otra considerando el balance salino del suelo (EAPS) y la relación entre la lámina media infiltrada y almacenada en la zona radical y la lámina media aplicada en el riego, considerando el requerimiento de lixiviación. Los componentes del balance salino que afectan la eficiencia de aplicación potencial utilizados fueron: evapotranspiración de los cultivos; probabilidad de ocurrencia de Etr; zona de riego y textura del suelo. Se realizó también un análisis de sensibilidad de las variables mencionadas, a fin de ordenarlas por su importancia. En todos los casos se calcularon las medidas de posición y dispersión de los parámetros sobre todas las combinaciones posibles entre niveles de todas las variables. La lámina percolada que asegure la EAPS se calculó con la ecuación de van der Molen (1983). Se utilizaron tres niveles diferentes del factor conductividad eléctrica del extracto de saturación final “CEesf" (después de un ciclo de riego), que fueron combinados con todos los demás niveles de los otros factores. Los resultados muestran que las láminas brutas de riego aplicadas con surcos s/D (76 mm) son significativamente menores (α = 0,05) que las registradas con surcos c/D (152 mm) y que ambas láminas anteriores no difieren significativamente de las aplicadas con melgas (117 mm). Con respecto a las láminas infiltradas (dinf) el resultado indica que hay diferencias significativas (α = 0,05) en las láminas infiltradas con los diferentes métodos: surcos c/D (36 mm), surcos s/D (76 mm) y melgas (113 mm) y que las melgas producen las mayores láminas percoladas: 47 mm respecto a 34 mm en los surcos s/D y a 8 mm en los surcos c/D, solo hay diferencias significativas (α = 0,05) entre melgas y surcos c/D. Con respecto a las velocidades de infiltración representativas de las series de suelos del río Mendoza se observa que son bajas con valores extremos de infiltración básica de 1,3 y 7,3 mm/h. Se han obtenido ecuaciones de avance del frente de agua que caracterizan los tres métodos de riego evaluados, ya sea en función del tiempo como en función del tiempo y el caudal unitario. Se ha caracterizado la geometría de los distintos tamaños o categorías de surcos locales disponiendo de información para mejorar el diseño. Hay diferencias significativas (α = 0,05) entre los caudales de manejo de surcos c/D (19 L s-1) y melgas (114 L s-1). Este último valor resulta alto -pero dentro de valores razonables- no obstante ello debería reducirse la variabilidad observada para mejorar las eficiencias. Con respecto a los caudales unitarios hay diferencias significativas (α = 0,05) entre surcos c/D (0,50 L s-1) respecto de surcos s/D (2,22 L s-1) y melgas (1,99 L s-1 m-1). La eficiencia de aplicación (EAP) media del área es de 59% correspondiéndole la calificación de desempeño “Mala". Dicho valor no es significativamente diferente en las distintas zonas de riego ni en las distintos estaciones del año. Hay diferencias significativas (α = 0,05) cuando se comparan: los métodos de riego s/D (surcos: 67% y melgas: 69%) respecto a aquellos métodos c/D (39%) y los cultivos: frutales (62%) y hortalizas (47%). Con respecto a EAL hay diferencias significativas (α = 0,05) de la zona 4 respecto a las zonas 1, 2 y 3; también son significativamente diferentes (α =0,05) los valores de EAL entre surcos c/D (71%) respecto a los métodos sin desagüe (86%). Para la eficiencia de distribución (EDI) resultan diferencias significativas (α = 0,05) entre melgas s/D (79%) y los surcos que presentan valores más altos (88 y 96%). Se observa que para el tamaño de muestra utilizado (n =101) corresponde una precisión en porcentaje respecto a la media para EAP = 10%, EAL = 6% y EDI = 5 %, para una confiabilidad del 95%. En cuanto a la salinidad del suelo en la rizósfera, la 4ta. zona de riego presenta los valores más altos (3,8 dS m-1), con diferencias significativas (α=0,05) del resto. Si bien la zona 3 tiene una salinidad media (2,1 dS m-1) más alta que el resto, las diferencias no son significativas. También se observa -sólo en el caso de los métodos de riego s/D- mayor salinidad (α=0,05) en la cabecera de la unidad de riego respecto al medio y al pie por alteración del patrón de infiltración y mayor cantidad de sales acumuladas (α=0,05) en el estrato superior (primero) que en el estrato inferior (segundo). La precisión del muestreo realizado para determinar la salinidad del suelo alcanza un valor de 6% del valor de la media para el tamaño de muestra utilizado (n = 537) y para una confiabilidad del 95%. El agua de riego posee un nivel de sales significativamente mayor en las zonas 4 (α = 0,05) y 5 (α = 0,1), resultando la zona 4 con una conductividad eléctrica 75% mayor (1,624 dS.m-1) y la zona 5 con una CE 25% mayor (1,161 dS.m-1) que la zona 2 (0,926 dS.m-1). Se observa que para el tamaño de muestra utilizado (n = 20 en zona 1 y n = 16 en zona 4) corresponde una precisión para CEagua menor al 5% del valor de la media (zona 1) y menor al 13% del valor de la media (zona 4) para una confiabilidad del 95%. El factor que más influye en la variación de la EAPS es la “zona de riego" definida por las variables “salinidad del suelo" y “salinidad del agua". Para el oasis del río Mendoza la eficiencia de aplicación factible de alcanzar en la parcela (considerando la salinidad medida en el agua de riego) si se propone como objetivo mantener el nivel salino actual del suelo, es del 61%. Este valor resulta muy próximo al medido a campo (59%) y al que asegura obtener el máximo rendimiento de los cultivos (según Maas-Hoffman) del 58%. Si -en cambio- se planteara como objetivo un 90% de la producción máxima debida a la salinidad del suelo, sería factible aumentar la eficiencia de aplicación al 71%, mientras que aquella factible de alcanzar optimizando los factores de manejo del riego sería del 79%. Las recomendaciones para mejorar las actuales eficiencias de riego se presentan en función del método de riego. Para el caso de riego con desagüe -cuya causa de ineficiencia es consecuencia de las excesivas pérdidas por escurrimiento al pie- se aconseja disminuir el volumen de agua escurrido al pie y asegurar el mojado del suelo en la rizósfera. Con respecto a los métodos de riego sin desagüe, las causas de ineficiencia más importantes son la excesiva percolación y los problemas de pendiente longitudinal que afecta la uniformidad de distribución del agua. Por ello, la estrategia deberá ser reducir las láminas de riego y corregir la pendiente de la unidad de riego.
Resumo:
La finalidad de este trabajo fué determinar las especies parásitas e hiperparásitas del "bicho del cesto" común, Oiketicus Kirbyi Guild, en Mendoza, a fin de obtener supervivencia de la que se encuentra en mayor número e intensidad. Como resultado de estas investigaciones se comprobó que el calcídido Psychidosmicra Brethesi Blanchard constituye un eficáz enemigo específico del psíquico, llegándose a la conclusión que debe preservarse dicho material por el método de aislamiento en su época oportuna, permitiendo esto incrementar las poblaciones por dispersión artificial y atenuar la acción del factor hiperparasitismo.
Resumo:
El presente artículo pretende aportar algunos conocimientos teóricos y empíricos sobre las profundas transformaciones del sector rural pampeano argentino, donde los cambios tecnológicos han impactado significativamente en la vida cotidiana y productiva como nunca antes en la historia. En particular, se intenta identificar en qué medida la incorporación de nuevas tecnologías y lógicas productivas modificó el tradicional modelo socio-productivo de tipo familiar que primaba entre los pequeños y medianos productores agropecuarios de una localidad del sur de la provincia de Santa Fe (Bigand), donde desde hace varias décadas viene imponiéndose un proceso sostenido de "agriculturización", tecnificación y especialización de su producción primaria agropecuaria en función del monocultivo de soja. Este trabajo argumenta su diseño metodológico en un estudio de casos e intenta transmitir al lector la complejidad y diversidad de estrategias socio-productivas de los casos de explotaciones agropecuarias seleccionadas en su contexto. Las estrategias de los productores agropecuarios, que derivan de la combinación compleja de factores económicos y sociales en cada caso, nos permitieron observar el grado de articulación entre emprendimiento productivo y proyecto familiar, y la incidencia del "factor tecnológico" y del contexto socio-productivo de esta localidad del sur santafesino en cada uno de los mismos
Resumo:
El presente artículo pretende aportar algunos conocimientos teóricos y empíricos sobre las profundas transformaciones del sector rural pampeano argentino, donde los cambios tecnológicos han impactado significativamente en la vida cotidiana y productiva como nunca antes en la historia. En particular, se intenta identificar en qué medida la incorporación de nuevas tecnologías y lógicas productivas modificó el tradicional modelo socio-productivo de tipo familiar que primaba entre los pequeños y medianos productores agropecuarios de una localidad del sur de la provincia de Santa Fe (Bigand), donde desde hace varias décadas viene imponiéndose un proceso sostenido de "agriculturización", tecnificación y especialización de su producción primaria agropecuaria en función del monocultivo de soja. Este trabajo argumenta su diseño metodológico en un estudio de casos e intenta transmitir al lector la complejidad y diversidad de estrategias socio-productivas de los casos de explotaciones agropecuarias seleccionadas en su contexto. Las estrategias de los productores agropecuarios, que derivan de la combinación compleja de factores económicos y sociales en cada caso, nos permitieron observar el grado de articulación entre emprendimiento productivo y proyecto familiar, y la incidencia del "factor tecnológico" y del contexto socio-productivo de esta localidad del sur santafesino en cada uno de los mismos
Resumo:
El presente artículo pretende aportar algunos conocimientos teóricos y empíricos sobre las profundas transformaciones del sector rural pampeano argentino, donde los cambios tecnológicos han impactado significativamente en la vida cotidiana y productiva como nunca antes en la historia. En particular, se intenta identificar en qué medida la incorporación de nuevas tecnologías y lógicas productivas modificó el tradicional modelo socio-productivo de tipo familiar que primaba entre los pequeños y medianos productores agropecuarios de una localidad del sur de la provincia de Santa Fe (Bigand), donde desde hace varias décadas viene imponiéndose un proceso sostenido de "agriculturización", tecnificación y especialización de su producción primaria agropecuaria en función del monocultivo de soja. Este trabajo argumenta su diseño metodológico en un estudio de casos e intenta transmitir al lector la complejidad y diversidad de estrategias socio-productivas de los casos de explotaciones agropecuarias seleccionadas en su contexto. Las estrategias de los productores agropecuarios, que derivan de la combinación compleja de factores económicos y sociales en cada caso, nos permitieron observar el grado de articulación entre emprendimiento productivo y proyecto familiar, y la incidencia del "factor tecnológico" y del contexto socio-productivo de esta localidad del sur santafesino en cada uno de los mismos
Resumo:
La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
El objetivo final de las investigaciones recogidas en esta tesis doctoral es la estimación del volumen de hielo total de los ms de 1600 glaciares de Svalbard, en el Ártico, y, con ello, su contribución potencial a la subida del nivel medio del mar en un escenario de calentamiento global. Los cálculos más exactos del volumen de un glaciar se efectúan a partir de medidas del espesor de hielo obtenidas con georradar. Sin embargo, estas medidas no son viables para conjuntos grandes de glaciares, debido al coste, dificultades logísticas y tiempo requerido por ellas, especialmente en las regiones polares o de montaña. Frente a ello, la determinación de áreas de glaciares a partir de imágenes de satélite sí es viable a escalas global y regional, por lo que las relaciones de escala volumen-área constituyen el mecanismo más adecuado para las estimaciones de volúmenes globales y regionales, como las realizadas para Svalbard en esta tesis. Como parte del trabajo de tesis, hemos elaborado un inventario de los glaciares de Svalbard en los que se han efectuado radioecosondeos, y hemos realizado los cálculos del volumen de hielo de más de 80 cuencas glaciares de Svalbard a partir de datos de georradar. Estos volúmenes han sido utilizados para calibrar las relaciones volumen-área desarrolladas en la tesis. Los datos de georradar han sido obtenidos en diversas campañas llevadas a cabo por grupos de investigación internacionales, gran parte de ellas lideradas por el Grupo de Simulación Numérica en Ciencias e Ingeniería de la Universidad Politécnica de Madrid, del que forman parte la doctoranda y los directores de tesis. Además, se ha desarrollado una metodología para la estimación del error en el cálculo de volumen, que aporta una novedosa técnica de cálculo del error de interpolación para conjuntos de datos del tipo de los obtenidos con perfiles de georradar, que presentan distribuciones espaciales con unos patrones muy característicos pero con una densidad de datos muy irregular. Hemos obtenido en este trabajo de tesis relaciones de escala específicas para los glaciares de Svalbard, explorando la sensibilidad de los parámetros a diferentes morfologías glaciares, e incorporando nuevas variables. En particular, hemos efectuado experimentos orientados a verificar si las relaciones de escala obtenidas caracterizando los glaciares individuales por su tamaño, pendiente o forma implican diferencias significativas en el volumen total estimado para los glaciares de Svalbard, y si esta partición implica algún patrón significativo en los parámetros de las relaciones de escala. Nuestros resultados indican que, para un valor constante del factor multiplicativo de la relacin de escala, el exponente que afecta al área en la relación volumen-área decrece según aumentan la pendiente y el factor de forma, mientras que las clasificaciones basadas en tamaño no muestran un patrón significativo. Esto significa que los glaciares con mayores pendientes y de tipo circo son menos sensibles a los cambios de área. Además, los volúmenes de la población total de los glaciares de Svalbard calculados con fraccionamiento en grupos por tamaño y pendiente son un 1-4% menores que los obtenidas usando la totalidad de glaciares sin fraccionamiento en grupos, mientras que los volúmenes calculados fraccionando por forma son un 3-5% mayores. También realizamos experimentos multivariable para obtener estimaciones óptimas del volumen total mediante una combinación de distintos predictores. Nuestros resultados muestran que un modelo potencial simple volumen-área explica el 98.6% de la varianza. Sólo el predictor longitud del glaciar proporciona significación estadística cuando se usa además del área del glaciar, aunque el coeficiente de determinación disminuye en comparación con el modelo más simple V-A. El predictor intervalo de altitud no proporciona información adicional cuando se usa además del área del glaciar. Nuestras estimaciones del volumen de la totalidad de glaciares de Svalbard usando las diferentes relaciones de escala obtenidas en esta tesis oscilan entre 6890 y 8106 km3, con errores relativos del orden de 6.6-8.1%. El valor medio de nuestras estimaciones, que puede ser considerado como nuestra mejor estimación del volumen, es de 7.504 km3. En términos de equivalente en nivel del mar (SLE), nuestras estimaciones corresponden a una subida potencial del nivel del mar de 17-20 mm SLE, promediando 19_2 mm SLE, donde el error corresponde al error en volumen antes indicado. En comparación, las estimaciones usando las relaciones V-A de otros autores son de 13-26 mm SLE, promediando 20 _ 2 mm SLE, donde el error representa la desviación estándar de las distintas estimaciones. ABSTRACT The final aim of the research involved in this doctoral thesis is the estimation of the total ice volume of the more than 1600 glaciers of Svalbard, in the Arctic region, and thus their potential contribution to sea-level rise under a global warming scenario. The most accurate calculations of glacier volumes are those based on ice-thicknesses measured by groundpenetrating radar (GPR). However, such measurements are not viable for very large sets of glaciers, due to their cost, logistic difficulties and time requirements, especially in polar or mountain regions. On the contrary, the calculation of glacier areas from satellite images is perfectly viable at global and regional scales, so the volume-area scaling relationships are the most useful tool to determine glacier volumes at global and regional scales, as done for Svalbard in this PhD thesis. As part of the PhD work, we have compiled an inventory of the radio-echo sounded glaciers in Svalbard, and we have performed the volume calculations for more than 80 glacier basins in Svalbard from GPR data. These volumes have been used to calibrate the volume-area relationships derived in this dissertation. Such GPR data have been obtained during fieldwork campaigns carried out by international teams, often lead by the Group of Numerical Simulation in Science and Engineering of the Technical University of Madrid, to which the PhD candidate and her supervisors belong. Furthermore, we have developed a methodology to estimate the error in the volume calculation, which includes a novel technique to calculate the interpolation error for data sets of the type produced by GPR profiling, which show very characteristic data distribution patterns but with very irregular data density. We have derived in this dissertation scaling relationships specific for Svalbard glaciers, exploring the sensitivity of the scaling parameters to different glacier morphologies and adding new variables. In particular, we did experiments aimed to verify whether scaling relationships obtained through characterization of individual glacier shape, slope and size imply significant differences in the estimated volume of the total population of Svalbard glaciers, and whether this partitioning implies any noticeable pattern in the scaling relationship parameters. Our results indicate that, for a fixed value of the factor in the scaling relationship, the exponent of the area in the volume-area relationship decreases as slope and shape increase, whereas size-based classifications do not reveal any clear trend. This means that steep slopes and cirque-type glaciers are less sensitive to changes in glacier area. Moreover, the volumes of the total population of Svalbard glaciers calculated according to partitioning in subgroups by size and slope are smaller (by 1-4%) than that obtained considering all glaciers without partitioning into subgroups, whereas the volumes calculated according to partitioning in subgroups by shape are 3-5% larger. We also did multivariate experiments attempting to optimally predict the volume of Svalbard glaciers from a combination of different predictors. Our results show that a simple power-type V-A model explains 98.6% of the variance. Only the predictor glacier length provides statistical significance when used in addition to the predictor glacier area, though the coefficient of determination decreases as compared with the simpler V-A model. The predictor elevation range did not provide any additional information when used in addition to glacier area. Our estimates of the volume of the entire population of Svalbard glaciers using the different scaling relationships that we have derived along this thesis range within 6890-8106 km3, with estimated relative errors in total volume of the order of 6.6-8.1% The average value of all of our estimates, which could be used as a best estimate for the volume, is 7,504 km3. In terms of sea-level equivalent (SLE), our volume estimates correspond to a potential contribution to sea-level rise within 17-20 mm SLE, averaging 19 _ 2 mm SLE, where the quoted error corresponds to our estimated relative error in volume. For comparison, the estimates using the V-A scaling relations found in the literature range within 13-26 mm SLE, averaging 20 _ 2 mm SLE, where the quoted error represents the standard deviation of the different estimates.
Resumo:
El proceso de cambio de una sociedad industrial a una sociedad del conocimiento, que experimenta el mundo globalizado en el siglo XXI, induce a las empresas y organizaciones a desarrollar ventajas competitivas y sostenibles basadas en sus activos intangibles, entre los cuales destacan los sistemas de gestión en general y los sistemas de gestión de la calidad (SGC) en particular. Las organizaciones dedicadas a la producción de petróleo están influenciadas por dicha tendencia. El petróleo es un recurso natural con reservas limitadas, cuya producción y consumo ha crecido progresivamente, aportando la mayor cuota (35 %) del total de la energía que se consume en el mundo contemporáneo, aporte que se mantendrá hasta el año 2035, según las previsiones más conservadoras. Por tanto, se hace necesario desarrollar modelos de producción innovadores, que contribuyan a la mejora del factor de recobro de los yacimientos y de la vida útil de los mismos, al tiempo que satisfagan los requerimientos de producción y consumo diarios de los exigentes mercados globales. El objeto de esta investigación es el desarrollo de un modelo de gestión de la calidad y su efecto en el desempeño organizacional, a través del efecto mediador de los constructos satisfacción del cliente interno y gestión del conocimiento en la producción de petróleo. Esta investigación de carácter explicativo, no experimental, transeccional y ex-postfacto, se realizó en la región petrolífera del lago de Maracaibo, al occidente de Venezuela, la cual tiene más de 70 años en producción y cuenta con yacimientos maduros. La población objeto de estudio fue de 369 trabajadores petroleros, quienes participaron en las mesas técnicas de la calidad, durante los meses de mayo y julio del año 2012, los cuales en su mayoría están en proceso de formación como analistas, asesores y auditores de los SGC. La técnica de muestreo aplicada fue de tipo aleatorio simple, con una muestra de 252 individuos. A la misma se le aplicó un cuestionario diseñado ad hoc, el cual fue validado por las técnicas de juicio de expertos y prueba piloto. El procedimiento de investigación se realizó a través de una secuencia, que incluyó la elaboración de un modelo teórico, basado en la revisión del estado del arte; un modelo factorial, sobre la base del análisis factorial de los datos de la encuesta; un modelo de regresión lineal, elaborado a través del método de regresión lineal simple y múltiple; un modelo de análisis de sendero, realizado con el software Amos 20 SPSS y finalmente, un modelo informático, realizado con el simulador Vensim PLE v.6.2. Los resultados obtenidos indican que el modelo teórico se transformó en un modelo empírico, en el cual, la variable independiente fue el SGC, la variable mediadora fue la integración de las dimensiones eliminación de la no conformidad, satisfacción del cliente interno y aprendizaje organizacional (ENCSCIAO) y la variable respuesta la integración de las dimensiones desempeño organizacional y aprendizaje organizacional (DOOA). Se verificó el efecto mediador del ENSCIAO sobre la relación SGC-DOOA con una bondad del ajuste, del 42,65%. En el modelo de regresión múltiple se encontró que las variables determinantes son eliminación de la no conformidad (ENC), conocimiento adquirido (CA) y conocimiento espontáneo (CE), lo cual fue corroborado con el modelo de análisis de sendero. El modelo informático se desarrolló empleando datos aproximados de una unidad de producción tipo, generándose cuatro escenarios; siendo el más favorable, aquel en el cual se aplicaba el SGC y variables relacionadas, reduciendo la desviación de la producción, incrementando el factor de recobro y ampliando la vida útil del yacimiento. Se concluye que la aplicación del SGC y constructos relacionados favorece el desempeño y la producción de las unidades de explotación de yacimientos petrolíferos maduros. Los principales aportes de la tesis son la obtención de un modelo de gestión de la producción de petróleo en yacimientos maduros, basado en los SGC. Asimismo, el desarrollo de un concepto de gestión de la calidad asociado a la reducción de la desviación de la producción petrolífera anual, al incremento del factor de recobro y al aumento de la vida útil del yacimiento. Las futuras líneas de investigación están orientadas a la aplicación del modelo en contextos reales y específicos, para medir su impacto y realizar los ajustes pertinentes. ABSTRACT The process of change from an industrial society to a knowledge-based society, which undergoes the globalized world in the twenty-first century, induces companies and organizations to develop a sustainable and competitive advantages based on its intangible assets, among which are noteworthy the management systems in general and particularly the quality management systems (QMS). Organizations engaged in oil production are influenced by said trend. Oil is a natural resource with limited reserves, where production and consumption has grown progressively, providing the largest share (35%) of the total energy consumed in the contemporary world, a contribution that will remain until the year 2035 according to the more conservative trust estimations. Therefore, it becomes necessary to develop innovative production models which contribute with the improvement of reservoirs´ recovery factor and the lifetime thereof, while meeting the production requirements and daily consumption of demanding global markets. The aim of this research is to develop a model of quality management and its effect on organizational performance through the mediator effect of the constructs, internal customer satisfaction and knowledge management in oil production. This research of explanatory nature, not experimental, transactional and expos-facto was carried out in the oil-region of Maracaibo Lake located to the west of Venezuela, which has more than 70 years in continuous production and has mature reservoirs. The population under study was 369 oil workers who participated in the technical quality workshops, during the months of May and July of 2012, the majority of which were in the process of training as analysts, consultants and auditors of the QMS. The sampling technique applied was simple random type. To a sample of 252 individuals of the population it was applied an ad hoc designed questionnaire, which was validated by the techniques of expert judgment and pilot test. The research procedure was performed through a sequence, which included the elaboration of a theoretical model, based on the review of the state of the art; a factorial model with based on factorial analysis of the survey data; a linear regression model, developed through the method of simple and multiple linear regression; a structural equation model, made with software °Amos 20 SPSS° and finally, a computer model, performed with the simulator Vensim PLE v.6.2. The results indicate that the theoretical model was transformed into an empirical model, in which the independent variable was the QMS, the mediator variable was the integration of the dimensions: elimination of non-conformity, internal customer satisfaction and organizational learning (ENCSCIAO) and the response variable the integration of the dimensions, organizational performance and learning organizational (DOOA). ENSCIAO´s mediator effect on the relation QMS-DOOA was verified with a goodness of fit of 42,65%. In the multiple regression model was found to be the determining variables are elimination of nonconformity (ENC), knowledge acquired (CA) and spontaneous knowledge (EC), which was verified with the structural equation model. The computer model was developed based on approximate data of an oil production unit type, creating four (04) scenarios; being the most favorable, that one which it was applied the QMS and related variables, reducing the production deviation, increasing the recovery factor and extending the lifetime of the reservoir. It is concluded that QMS implementation powered with the related constructs, favors performance and production of mature oilfield of exploitation reservoirs units. The main contributions of this thesis are obtaining a management model for oil production in mature oilfields, based on QMS. In addition, development of a concept of quality associated to reduce the annual oil production deviation, increase the recovery factor and increase oilfield lifetime. Future lines of research are oriented to the implementation of this model in real and specific contexts to measure its impact and make the necessary adjustments that might take place.
Resumo:
La erosión hídrica en España es un problema grave, por las consecuencias que comporta en términos de pérdida del recurso suelo, sobre el que se sustenta la vida. Desde la década de los años ochenta del pasado siglo, la Administración Central ha realizado dos inventarios de erosión del suelo a nivel nacional: Los Mapas de Estados Erosivos (MEEs) y el Inventario Nacional de Erosión del Suelo (INES). En la presente Tesis Doctoral se han abordado las siguientes cuestiones: - Se ha profundizado en el análisis y aplicación de nuevas herramientas en la estimación del factor topográfico y del factor vegetación, que intervienen en los modelos de cálculo de las pérdidas de suelo, para mejorar la precisión en los resultados de la estimación de las tasas de erosión con los mismos. - Se ha establecido un procedimiento que permita realizar un inventario continuo de los Estados Erosivos de España, fijando como premisa el tiempo para su actualización. La Tesis desarrolla un procedimiento que permite comprobar que, la precisión utilizada en la cartografía base para determinar el factor vegetación y el factor topográfico del modelo USLE, influye en los resultados de la estimación de las tasas de erosión. También se ha realizado un estudio multi-temporal, analizado cuatro períodos: desde 1982 a 2014, con el fin de investigar las posibilidades de implementar un inventario continuo de los Estados Erosivos a nivel nacional; utilizando sensores remotos y técnicas de teledetección como herramienta para la actualización de los usos del suelo, factor determinante para estudiar la evolución de las tasas de erosión a lo largo del tiempo. Los resultados obtenidos de las investigaciones mencionadas, se han aplicado al tramo medio de la cuenca del río Jarama en la provincia de Guadalajara y han permitido comprobar que, la precisión de los datos utilizados en la aplicación del modelo USLE, influyen de una forma determinante en la estimación de las tasas de erosión y, además, hacen posible que la metodología, propuesta en esta Tesis, contribuya a establecer un inventario continuo de la evolución de los Estados Erosivos en un espacio multitemporal y a nivel de escenarios que abarcan una gran superficie. Gracias a este inventario se ha podido aportar información de la evolución de la cubierta vegetal y las pérdidas de suelo en la zona de estudio en el período analizado 1984-2015. ABSTRACT Water erosion in Spain is a serious problem and the consequences in terms of loss of soil resources on which life is based. Since the early eighties of last century, the central government has made two inventories of soil erosion nationwide: Maps of Erosive States (MEES) and the National Inventory of Soil Erosion (INES). In this Doctoral Thesis we have addressed the following issues: - It has deepened in the analysis and implementation of new tools in estimating the topographic factor and vegetation factor involved in the calculation models of soil loss, to improve accuracy in the results of the estimation of rates erosion therewith. - It has established a procedure allowing a continuous inventory of Erosion States of Spain, setting premised time for update. The thesis develops a method that allows to check that the precision used in the base map to determine the vegetation factor and topographical factor USLE model, influences the results of estimating erosion rates. There has also develop a multi-temporal study analyzed four periods: from 1982-2014, in order to investigate the possibilities of implementing a continuous inventory of erosion states at national level; using remote sensing techniques as a tool for updating land use, determining to study the evolution of erosion rates along the time factor. The results of the investigations referred to, have been applied to area around the middle reach of the Jarama river basin in the province of Guadalajara and would have shown that the accuracy of the data used in the model application USLE influence of decisive way estimating erosion rates and also make it possible that the methodology proposed in this thesis, help establish a continuous inventory of the evolution of erosive states in a multi-temporal space and level scenarios covering a large area. Thanks to this inventory was it able to provide information on the evolution of the vegetation cover and soil loss in the study area in the analyzed period 1984-2015.
Resumo:
Este estudio ofrece una herramienta de aproximación al espacio morfológico-métrico en el que se formula la ciudad de alta densidad desde la vivienda colectiva. La vivienda colectiva es la célula básica de la ciudad. El estudio configurativo y dimensional del tejido urbano muestra la importancia del fondo edificatorio como parámetro clave a mitad de camino entre la vivienda y la ciudad. El fondo edificatorio traza el margen de la arquitectura en la ciudad y desde él se equipa y cuantifica el territorio urbano. Sus dinámicas van caracterizando los distintos entornos, mientras en su interior se formula el tipo en un ajuste de continua verificación y adaptación. La forma de la ciudad y sus distintas posibilidades configurativas —en cuanto masa construida y espacio público, pero sin perder de vista la relación entre ambos— depende en gran medida del fondo edificatorio. Se trata, por tanto, de un parámetro importante de relación entre las distintas configuraciones del espacio exterior e interior. Al proyectar, una vez establecido un fondo, algunas propiedades se adaptan con facilidad mientras que otras requieren un cierto grado de interpretación o deben ser descartadas. Dada una superficie, la especificación del fondo fuerza la dimensión del frente en las configuraciones posibles. Ambas dimensiones son vitales en el valor del factor de forma del continuo edificado y en su relación se produce el complejo rango de posibilidades. Partiendo de la ciudad, un gran fondo encierra y mezcla en su interior todo tipo de usos sin distinción, repercute un menor coste por unidad de superficie edificada y comparte su frente reduciendo los intercambios térmicos y lumínicos. Sin embargo la ciudad de fondo reducido ajusta la forma al uso y se desarrolla linealmente con repetitividad a lo largo de sus frentes exteriores. En ella, el fuerte intercambio energético se opone a las grandes posibilidades del espacio libre. En cambio desde la casa las distintas medidas del fondo se producen bajo determinados condicionantes: clima, compacidad, ocupación, hibridación, tamaño de casa, etc., mientras que el tipo se desarrolla en base a una métrica afín. Este trabajo parte de esta dialéctica. Estudia la relación de dependencia entre las condiciones del edificio de viviendas y su métrica. Jerarquiza edificios en base al parámetro “fondo” para constituir una herramienta que como un ábaco sea capaz de visibilizar las dinámicas relacionales entre configuración y métrica bajo la condición de alta densidad. Para ello en una primera fase se gestiona una extensa muestra de edificios representativos de vivienda colectiva principalmente europea, extraída de tres prestigiosos libros en forma de repertorio. Se ordenan y categorizan extrayendo datos conmensurables y temas principales que ligan la profundidad de la huella a la morfología y posteriormente, esta información se estudia en diagramas que ponen de manifiesto convergencias y divergencias, acumulaciones y vacíos, límites, intervalos característicos, márgenes y ejes, parámetros y atributos... cuya relación trata de factorizar el lugar morfológico y métrico de la casa como metavivienda y ciudad. La herramienta se establece así como un complejo marco relacional en el que posicionar casos concretos y trazar nexos transversales, tanto de tipo morfológico como cultural, climático o técnico, normativo o tecnológico. Cada nuevo caso o traza añadida produce consonancias y disonancias en el marco que requieren interpretación y verificación. De este modo este instrumento de análisis comparativo se tempera, se especializa, se completa y se perfecciona con su uso. La forma de la residencia en la ciudad densa se muestra así sobre un subsistema morfológico unitario y su entendimiento se hace más fácilmente alcanzable y acumulable tanto para investigaciones posteriores como para el aprendizaje o el ejercicio profesional. ABSTRACT This research study offers a tool to approach the morphometric space in which (multi-family) housing defines high-density cities. Multi-family housing is the basic cell of the city. The configuration and dimension studies of the urban fabric render the importance of building depth as a key parameter half way between the dwelling and the city. The building depth traces de limit of architecture in the city. It qualifies and quantifies the urban territory. Its dynamics characterize the different environments while in its essence, an adjustment process of continuous verification and adaption defines type. The shape of the city and its different configuration possibilities —in terms of built fabric and public space, always keeping an eye on the relationship between them— depend majorly on the building depth. Therefore, it is a relevant parameter that relates the diverse configurations between interior and exterior space. When designing, once the depth is established, some properties are easily adpated. However, others require a certain degree of interpretation or have to be left out of the study. Given a ceratin surface, the establishment of the depth forces the dimensions of the facade in the different configurations. Both depth and facade dimensions are crucial for the form factor of the built mass. Its relationship produces a complex range of possibilities. From an urban point of view, great depth means multiple uses (making no distinction whatsoever,) it presents a lower cost per unit of built area and shares its facade optimizing temperature and light exchange. On the contrary, the city of reduced depth adjusts its shape to the use, and develops linearly and repetitively along its facades. The strong energy exchange opposes to the great possibilities of free space. From the perspective of the dwelling, the different dimensions of depth are produced under certain determinants: climate, compactness, occupancy, hybridization, dwelling size, etc. Meanwhile, the type is developed based on a related meter (as in poetry). This work starts from the previous premise. It studies the dependency relation bewteen the conditions of the dwellings and their meter (dimensions). It organizes buildings hierarchically based on the parameter “depth” to create a tool that, as an abacus, is able to visibilise the relational dynamics between configuration and dimension in high density conditions. For this, in the first stage a large group of representative multi-family housing buildings is managed, mostly from Europe, picked from three prestigious books as a repertoir. They are categorized and ordered drawing commensurable data and key issues that link the depth of the fooprint to its morphology. Later, this information is studied deeply with diagrams that bring out connections and discrepancies, voids and accumulations, limits, charasteristic intervals, margins and axii, parameters, attributes, etc. These relationships try to create factors from a morphological and metrical point of view of the house as a metadwelling. This tool is established as a complex relation frame in which case studies are postitioned and cross-cutting nexii are traced. These can deal with morphology, climate, technique, law or technology. Each new case or nexus produces affinities and discrepancies that require interpretation and verification. Thus, this instrument of comparative analysis is fine-tuned, especialized and completed as its use is improved. The way housing is understood in high density cities is shown as a unitary metric subsystem and its understanding is easy to reach and accumulate for future researchers, students or practicing architects.
Resumo:
El estudio sistemático de la transmisión de energía eléctrica en sistemas no lineales (no sinusoidales) cobra una primordial importancia por la implantación, cada vez más ex-tendida, de sistemas no lineales de conversión de la energía eléctrica en las redes de distribución de energía eléctrica. El hecho de la deformación de las corrientes de distribución (periódicas no sinusoidales) en instalaciones de iluminación y alumbrado, es ya conocido por el uso de reactancias con lámparas de descarga, provocadas por los efectos de histéresis en sus núcleos, y por la utilización de equipos auxiliares, tales como fuentes de alimentación conmutadas, o no, con lámparas halógenas, lámparas de bajo consumo y lámparas Led, con un uso mucho mas extendido hoy en día. En este trabajo se desarrollan las expresiones del flujo de energía eléctrica en cargas no lineales, para su aplicación en circuitos eléctricos no lineales de iluminación y alum-brado. Se reconsideran las definiciones y formulaciones de los distintos conceptos de potencia: instantánea, activa, aparente, reactiva y se establece la potencia de distorsión. Se definen los conceptos de ángulo de desplazamiento y factor de desplazamiento, para proponer una definición más genérica del factor de potencia. Se analiza el concepto de corrección del factor de potencia mediante la conexión de una rama capacitiva en para-lelo con la luminaria o instalación, y se evalúan sus posibles limitaciones y efectos. Se comprueban y comentan algunos resultados obtenidos experimentalmente en ensayos realizados en laboratorio con ciertas lámparas de estos tipos, estableciéndose unas conclusiones significativas.
Resumo:
La principal aportación del trabajo es la formulación de una alternativa que facilita la determinación experimental del factor de pérdidas y, en consecuencia, mejorar las predicciones de aislamiento a ruido aéreo para vidrios con una o más capas intermedias sea cual fuere su naturaleza. Además, se realiza una revisión de las normativas relacionadas con los ensayos de los parámetros mecánicos necesarios para la caracterizar los vidrios, centrándonos en los monolíticos y los laminados. En efecto, uno de los problemas que se plantea en el contexto de la acústica de la edificación actualmente es el de cumplir con los requisitos de aislamiento acústico a ruido aéreo en fachada que exige el vigente Código Técnico de la Edificación (CTE). Como sabemos, en la fachada podemos distinguir la parte ciega y la parte hueca. La parte más débil en lo concerniente a aislamiento a ruido aéreo es la hueca (compuesta por el vidrio, carpintería y otros elementos). Si la carpintería es la adecuada, la superficie de vidrio se convierte en el elemento limitante. El Catálogo de Elementos Constructivos (CEC) del CTE, la propia norma UNE-EN 12758:2011, así como algunos, cada vez más, fabricantes ofrecen datos del aislamiento de vidrios simples, vidrios laminados y vidrios dobles. En el caso de vidrios laminados, estos datos se limitan únicamente en los que tienen un sola lámina intermedia y, además, no acústicos. Podemos hablar, por tanto, de una laguna de información en este sentido. Para obtener predicciones fiables de aislamiento acústico a ruido aéreo de particiones multicapa, como pueden ser los vidrios laminados es necesario disponer de las características mecánicas y una de las más relevantes es el factor de pérdidas.
Resumo:
Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014