13 resultados para Lighter trivalent lanthanides
em Universidad Politécnica de Madrid
Resumo:
A total of 200 (Landrace3Large White dam3Pietrain3Large White sire) gilts of 5063 days of age (23.361.47 kg BW) were used to investigate the effects of castration (intact gilt, IG v. castrated gilt, CG) and slaughter weight (SW; 106 v. 122 kg BW) on productive performance, carcass and meat quality. Four treatments were arranged factorially and five replicates of 10 pigs each per treatment. Half of the gilts were ovariectomized at 58 days of age (8 days after the beginning of the trial at 29.861.64 kg BW), whereas the other half remained intact. The pigs were slaughtered at 106 or 122 kg BW. Meat samples were taken at Musculus longissimus thoracis at the level of the last rib and subcutaneous fat samples were taken at the tail insertion. For the entire experimental period, CG had higher ( P,0.05) BW gain and higher ( P,0.001) backfat and Musculus gluteus medius fat thickness than IG. However, IG had higher ( P,0.05) loin and trimmed primal cut yields than CG. Meat quality was similar for IG and CG but the proportion of linoleic acid in subcutaneous fat was higher ( P,0.001) for IG. Pigs slaughtered at 122 kg BW had higher ( P,0.001) feed intake and poorer feed efficiency than pigs slaughtered at 106 kg BW. An increase in SW improved ( P,0.001) carcass yield but decreased ( P,0.05) trimmed primal cut yield. Meat from pigs slaughtered at the heavier BW was redder (a*; P,0.001) and had more ( P,0.01) intramuscular fat and less thawing ( P,0.05) and cooking ( P,0.10) loss than meat from pigs slaughtered at the lighter BW. In addition, pigs slaughtered at 122 kg BW had less ( P,0.01) linoleic acid content in subcutaneous fat than pigs slaughtered at 106 kg BW. Castration of gilts and slaughtering at heavier BW are useful practices for the production of heavy pigs destined to the dry-cured industry in which a certain amount of fat in the carcass is required. In contrast, when the carcasses are destined to fresh meat production, IG slaughtered at 106 kg BW is a more efficient alternative.
Unimanual and Bimanual Weight Perception of Virtual Objects with a new Multi-finger Haptic Interface
Resumo:
Accurate weight perception is important particularly in tasks where the user has to apply vertical forces to ensure safe landing of a fragile object or precise penetration of a surface with a probe. Moreover, depending on physical properties of objects such as weight and size we may switch between unimanual and bimanual manipulation during a task. Research has shown that bimanual manipulation of real objects results in a misperception of their weight: they tend to feel lighter than similarly heavy objects which are handled with one hand only [8]. Effective simulation of bimanual manipulation with desktop haptic interfaces should be able to replicate this effect of bimanual manipulation on weight perception. Here, we present the MasterFinger-2, a new multi-finger haptic interface allowing bimanual manipulation of virtual objects with precision grip and we conduct weight discrimination experiments to evaluate its capacity to simulate unimanual and bimanual weight. We found that the bimanual ‘lighter’ bias is also observed with the MasterFinger-2 but the sensitivity to changes of virtual weights deteriorated.
Resumo:
Turbulent mixing is a very important issue in the study of geophysical phenomena because most fluxes arising in geophysics fluids are turbulent. We study turbulent mixing due to convection using a laboratory experimental model with two miscible fluids of different density with an initial top heavy density distribution. The fluids that form the initial unstable stratification are miscible and the turbulence will produce molecular mixing. The denser fluid comes into the lighter fluid layer and it generates several forced plumes which are gravitationally unstable. As the turbulent plumes develop, the denser fluid comes into contact with the lighter fluid layer and the mixing process grows. Their development is caused by the lateral interaction between these plumes at the complex fractal surface between the dense and light fluids
Resumo:
El objetivo general de esta Tesis Doctoral fue estudiar la influencia de diversos factores nutricionales y de manejo sobre la productividad y la calidad del huevo en gallinas ponedoras comerciales rubias. Los factores estudiados fueron: 1) Cereal principal y tipo de grasa en la dieta; 2) Nivel de proteína bruta y grasa en la dieta; 3) Nivel energético de la dieta; 4) Peso vivo al inicio del período de puesta. En el experimento 1, la influencia del cereal principal en la dieta y el tipo de grasa suplementada en la dieta sobre los parámetros productivos y la calidad del huevo fue estudiado en 756 gallinas rubias de la estirpe Lohmann desde la sem 22 hasta las 54 de vida. El experimento se realizó mediante un diseño completamente al azar con 9 tratamientos ordenados factorialmente, con 3 cereales bases (maíz, trigo blando y cebada) y 3 tipos de grasa que variaban en su contenido en ácido linoléico (aceite de soja, oleína vegetal mezcla y manteca). Todas las dietas satisfacian las recomendaciones nutricionales para gallinas ponedoras rubias según el NRC (1994) y FEDNA (2008). La unidad experimental fue la jaula para todas las variables. Cada tratamiento fue replicado 4 veces, y la unidad experimental estuvo formada por 21 gallinas alojadas en grupos de 7. Las dietas fueron formuladas con un contenido nutritivo similar, excepto para el ácido linoléico, que varió en función del tipo de cereal y grasa utilizado. Así, dependiendo de la combinación de estos elementos el contenido de este ácido graso varió desde un 0.8% (dieta trigo-manteca) a un 3.4% (dieta maíz-aceite de soja). Este rango de ácido linoléico permitió estimar el nivel mínimo de este nutriente en el pienso que permite maximizar el peso del huevo. Los parámetros productivos y la calidad del huevo se controlaron cada 28 días y el peso de las aves se midió individualmente al inicio y al final del experimento con el objetivo de estudiar la variación en el peso vivo de los animales. No se observaron interacciones entre el tipo de cereal y grasa en la dieta para ninguna de las variables productivas estudiadas. Los tratamientos experimentales no afectaron a las principales variables productivas (porcentaje de puesta, peso del huevo y masa de huevo). Sin embargo, la ganancia de peso fue mayor en gallinas alimentadas con maíz o trigo que las gallinas alimentadas con cebada (243 vs. 238 vs. 202 g, respectivamente; P< 0.05). En el mismo sentido, las gallinas alimentadas con manteca obtuvieron una mayor ganancia de peso que las gallinas alimentadas con aceite de soja u oleína vegetal (251 vs. 221 vs. 210 g, respectivamente; P< 0.05). En cuanto a las variables estudiadas en relación con la calidad del huevo, ninguna de las variables estudiadas se vio afectada por el tratamiento experimental, salvo la pigmentación de la yema. Así, las gallinas alimentadas con maíz como cereal principal obtuvieron una mayor puntuación en relación con la escala de color que las gallinas alimentadas con trigo y con cebada (9.0 vs. 8.3 vs. 8.3, respectivamente; P< 0.001). La pigmentación de la yema también se vio afectada por el tipo de grasa en la dieta, así, las gallinas alimentadas con manteca obtuvieron una mayor puntuación de color en relación con la escala de color que las gallinas alimentadas con aceite de soja u oleína vegetal (8.9 vs. 8.5 vs. 8.2, respectivamente; P< 0.001). La influencia del contenido en ácido linoléico respecto al peso de huevo y masa de huevo fue mayor a medida que el contenido de dicho ácido graso se redujo en la dieta. Así, la influencia de la dieta en los radios peso de huevo/g linoléico ingerido y masa de huevo/g linoléico ingerido fue significativamente mayor a medida que el contenido en dicho ácido graso disminuyo en la dieta (P< 0.001). Los resultados del ensayo indican que las gallinas ponedoras rubias no necesitan más de un 1.0% de ácido linoléico en la dieta para maximizar la producción y el tamaño del huevo. Además, se pudo concluir que los 3 cereales y las 3 grasas utilizadas pueden sustituirse en la dieta sin ningún perjuicio productivo o referente a la calidad del huevo siempre que los requerimientos de los animales sean cubiertos. En el experimento 2, la influencia del nivel de proteína bruta y el contenido de grasa de la dieta sobre los parámetros productivos y la calidad del huevo fue estudiado en 672 gallinas ponedoras rubias de la estirpe Lohmann entre las sem 22 y 50 de vida. El experimento fue conducido mediante un diseño completamente al azar con 8 tratamientos ordenados factorialmente con 4 dietas y 2 pesos vivos distintos al inicio de puesta (1592 vs. 1860g). Tres de esas dietas diferían en el contenido de proteína bruta (16.5%, 17.5% y 18.5%) y tenían un contenido en grasa añadida de 1.8%. La cuarta dieta tenía el nivel proteico más elevado (18.5%) pero fue suplementada con 3.6% de grasa añadida en vez de 1.8%. Cada tratamiento fue replicado 4 veces y la unidad experimental consistió en 21 gallinas alojadas dentro de grupos de 7 animales en 3 jaulas contiguas. Todas las dietas fueron isocalóricas (2750 kcal EMAn/kg) y cubrieron las recomendaciones en aminoácidos para gallinas ponedoras rubias (Arg, Ile, Lys, Met, Thr, Trp, TSAA y Val) según el NRC (1994) y FEDNA (2008). Los efectos de los tratamientos sobre las variables productivas y la calidad de huevo fueron estudiados cada 28 días. La dieta no afecto a ninguna de las variables productivas estudiadas a lo largo del período productivo. Sin embargo, el peso inicial origino que las gallinas pesadas consumieran más (120.6 vs. 113.9 g; P< 0.001), obtuvieran un porcentaje de puesta mayor (92.5 vs. 89.8%; P< 0.01) y un peso del huevo mayor (64.9 vs. 62.4 g; P< 0.001) que las gallinas ligeras. El peso inicial de las gallinas no afecto al IC por kg de huevo ni a la mortalidad, sin embargo, la ganancia de peso fue mayor (289 vs. 233 g; P< 0.01) y el IC por docena de huevos fue mejor (1.52 vs. 1.57; P< 0.01) en las gallinas ligeras que en las gallinas pesadas. En cuanto a la calidad del huevo, la dieta no influyó sobre ninguna de las variables estudiadas. Los resultados del ensayo muestran que las gallinas ponedoras rubias, independientemente de su peso vivo al inicio de la puesta, no necesitan una cantidad de proteína bruta superior a 16.5% para maximizar la producción, asegurando que las dietas cubren los requerimientos en AA indispensables. Asimismo, se puedo concluir que las gallinas con un peso más elevado al inicio de puesta producen más masa de huevo que las gallinas con un peso más bajo debido a que las primeras producen más cantidad de huevos y más pesados. Sin embargo, ambos grupos de peso obtuvieron el mismo IC por kg de huevo y las gallinas más livianas en peso obtuvieron un mejor IC por docena de huevo que las pesadas. En el experimento 3 la influencia de la concentración energética sobre los parámetros productivos y la calidad del huevo fue estudiada en 520 gallinas ponedoras rubias de la estirpe Hy-Line en el período 24-59 sem de vida. Se utilizaron 8 tratamientos ordenados factorialmente con 4 dietas que variaron en el contenido energético (2650, 2750, 2850 y 2950 kcal EMAn/kg) y 2 pesos vivos distintos al inicio del período de puesta (1733 vs. 1606g). Cada tratamiento fue replicado 5 veces y la unidad experimental consistió en una jaula con 13 aves. Todas las dietas se diseñaron para que tuvieran una concentración nutritiva similar por unidad energética. Las variables productivas y de calidad de huevo se estudiaron mediante controles cada 28 días desde el inicio del experimento. No se observaron interacciones entre el nivel energético y el peso inicial del ave para ninguna de las variables estudiadas. Un incremento en la concentración energética de la dieta incrementó la producción de huevos (88.8 % vs. 91.2 % vs. 92.7 % vs. 90.5 %), masa de huevo (56.1 g/d vs. 58.1 g/d vs. 58.8 g/d vs. 58.1 g/d), y eficiencia energética (5.42 vs. 5.39 vs. 5.38 vs. 5.58 kcal EMA/g huevo) de forma lineal y cuadrática (P< 0.05) y afectó significativamente a la ganancia de peso (255 g vs. 300 g vs. 325 g vs. 359 g; P<0.05) . Sin embargo, un incremento en la concentración energética provocó un descenso lineal en el consumo de los animales (115 g vs. 114 g vs. 111 g vs. 110 g; P< 0.001) y un descenso lineal y cuadrático en el IC por kg de huevo (2.05 vs. 1.96 vs. 1.89 vs. 1.89; P< 0.01). En cuanto a la calidad del huevo, un incremento en el contenido energético de la dieta provocó una reducción en la calidad del albumen de forma lineal en forma de reducción de Unidades Haugh (88.4 vs. 87.8 vs. 86.3 vs. 84.7; P< 0.001), asimismo el incremento de energía redujo de forma lineal la proporción relativa de cáscara en el huevo (9.7 vs. 9.6 vs. 9.6 vs. 9.5; P< 0.001). Sin embargo, el incremento energético propició un incremento lineal en la pigmentación de la yema del huevo (7.4 vs. 7.4 vs. 7.6 vs. 7.9; P< 0.001). El peso vivo al inicio de la prueba afecto a las variables productivas y a la calidad del huevo. Así, los huevos procedentes de gallinas pesadas al inicio de puesta tuvieron una mayor proporción de yema (25.7 % vs. 25.3 %; P< 0.001) y menor de albumen (64.7 vs. 65.0; P< 0.01) y cáscara (9.5 vs. 9.6; P< 0.05) respecto de los huevos procedentes de gallinas ligeras. Consecuentemente, el ratio yema:albumen fue mayor (0.40 vs. 0.39; P< 0.001) para las gallinas pesadas. Según los resultados del experimento se pudo concluir que las actuales gallinas ponedoras rubias responden con incrementos en la producción y en la masa del huevo a incrementos en la concentración energética hasta un límite que se sitúa en 2850 kcal EMAn/kg. Asimismo, los resultados obtenidos entre los 2 grupos de peso al inicio de puesta demostraron que las gallinas pesadas al inicio de puesta tienen un mayor consumo y producen huevos más pesados, con el consecuente aumento de la masa del huevo respecto de gallinas más ligeras. Sin embargo, el IC por kg de huevo fue el mismo en ambos grupos de gallinas y el IC por docena de huevo fue mejor en las gallinas ligeras. Asimismo, la eficiencia energética fue mejor en las gallinas ligeras. Abstract The general aim of this PhD Thesis was to study the influence of different nutritional factors and management on the productivity and egg quality of comercial Brown laying hens. The factor studied were: 1) The effect of the main cereal and type of fat of the diet; 2) The effect of crude protein and fat content of the diet; 3) The effect of energy concentration of the diet; 4) The effect of initial body weight of the hens at the onset of lay period. In experiment 1, the influence of the main cereal and type of supplemental fat in the diet on productive performance and egg quality of the eggs was studied in 756 Lohmann brown-egg laying hens from 22 to 54 wk of age. The experiment was conducted as a completely randomized design with 9 treatments arranged factorially with 3 cereals (dented corn, soft wheat, and barley) and 3 types of fat (soy oil, acidulated vegetable soapstocks, and lard). Each treatment was replicated 4 times (21 hens per replicate). All diets were formulated according to NRC (1994) and FEDNA (2008) to have similar nutrient content except for linoleic acid that ranged from 0.8 (wheat-lard diet) to 3.4% (corn-soy bean oil) depending on the combination of cereal and fat source used. This approach will allow to estimate the minimum level of linoleic acid in the diets that maximizes egg weight. Productive performance and egg quality traits were recorded every 28 d and BW of the hens was measured individually at the beginning and at the end of the experiment. No significant interactions between main factors were detected for any of the variables studied. Egg production, egg weight, and egg mass were not affected by dietary treatment. Body weight gain was higher (243 vs. 238 vs. 202 g; P<0.05) for hens fed corn or wheat than for hens fed barley and also for hens fed lard than for hens fed soy oil or acidulated vegetable soapstocks (251 vs. 221 vs. 210 g; P< 0.05). Egg quality was not influenced by dietary treatment except for yolk color that was greater (9.0 vs. 8.3 vs. 8.3; P< 0.001) for hens fed corn than for hens fed wheat or barley and for hens fed lard than for hens fed soy oil or acidulated vegetable soapstocks (8.9 vs. 8.5 vs. 8.2, respectivamente; P< 0.001). The influence of linoleic acid on egg weight and egg mass was higher when the fatty acid was reduced in the diet. Thus, the influence of the diet in egg weight/g linoleic acid intake and egg mass/g linolec acid intake was higher when the amount of this fatty acid decreased in the diet (P< 0.001). It is concluded that brown egg laying hens do not need more than 1.0% of linoleic acid in the diet (1.16 g/hen/d) to maximize egg production and egg size. The 3 cereals and the 3 fat sources tested can replace each other in the diet provided that the linoleic acid requirements to maximize egg size are met. In experiment 2, the influence of CP and fat content of the diet on performance and egg quality traits was studied in 672 Lohmann brown egg-laying hens from 22 to 50 wk of age. The experiment was conducted as a completely randomized design with 8 treatments arranged factorially with 4 diets and 2 initial BW of the hens (1,592 vs. 1,860 g). Three of these diets differed in the CP content (16.5, 17.5, and 18.5%) and included 1.8% added fat. The fourth diet had also 18.5% CP but was supplemented with 3.6% fat instead of 1.8% fat. Each treatment was replicated 4 times and the experimental unit consisted of 21 hens allocated in groups of 7 in 3 adjacent cages. All diets were isocaloric (2,750 kcal AME/kg) and met the recommendations of brown egg-laying hens for digestible Arg, Ile, Lys, Met, Thr, Trp, TSAA, and Val. Productive performance and egg quality were recorded by replicate every 28-d. For the entire experimental period, diet did not affect any of the productive performance traits studied but the heavier hens had higher ADFI (120.6 vs. 113.9g; P< 0.001), egg production (92.5 vs. 89.8%; P< 0.01), and egg weight (64.9 vs. 62.4g; P< 0.001) than the lighter hens. Initial BW did not affect feed conversion per kilogram of eggs or hen mortality but BW gain was higher (289 vs. 233g; P< 0.01) and FCR per dozen of eggs was better (1.52 vs. 1.57; P< 0.01) for the lighter than for the heavier hens. None of the egg quality variables studied was affected by dietary treatment or initial BW of the hens. It is concluded that brown egg-laying hens, irrespective of their initial BW, do not need more than 16.5% CP to maximize egg production provided that the diet meet the requirements for key indispensable amino acids. Heavier hens produce more eggs that are larger than lighter hens but feed efficiency per kilogram of eggs is not affected. In experiment 3, the influence of AMEn concentration of the diet on productive performance and egg quality traits was studied in 520 Hy-Line brown egg-laying hens differing in initial BW from 24 to 59 wks of age. There were 8 treatments arranged factorially with 4 diets varying in energy content (2,650, 2,750, 2,850, and 2,950 kcal AMEn/kg) and 2 initial BW of the hens (1,733 vs. 1,606 g). Each treatment was replicated 5 times (13 hens per replicate) and all diets had similar nutrient content per unit of energy. No interactions between energy content of the diet and initial BW of the hens were detected for any trait. An increase in energy concentration of the diet increased (linear, P< 0.05; quadratic P< 0.05) egg production (88.8 % vs. 91.2 % vs. 92.7 % vs. 90.5 %), egg mass (56.1 g/d vs. 58.1 g/d vs. 58.8 g/d vs. 58.1 g/d), energy efficiency (5.42 vs. 5.39 vs. 5.38 vs. 5.58 kcal AMEn/g of egg), and BW gain (255 g vs. 300 g vs. 325 g vs. 359 g; P<0.05) but decreased ADFI (115 g vs. 114 g vs. 111 g vs. 110 g; P< linear, P< 0.001) and FCR per kg of eggs (2.05 vs. 1.96 vs. 1.89 vs. 1.89; linear, P< 0.01; quadratic P< 0.01). An increase in energy content of the diet reduced Haugh units (88.4 vs. 87.8 vs. 86.3 vs. 84.7; P< 0.01) and the proportion of shell in the egg (9.7 vs. 9.6 vs. 9.6 vs. 9.5; P< 0.001). Feed intake (114.6 vs. 111.1 g/hen per day), AMEn intake (321 vs. 311 kcal/hen per day), egg weight (64.2 vs. 63.0 g), and egg mass (58.5 vs. 57.0 g) were higher for the heavier than for the lighter hens (P<0.01) but FCR per kg of eggs and energy efficiency were not affected. Eggs from the heavier hens had higher proportion of yolk (25.7 % vs. 25.3 %; P< 0.001) and lower of albumen (64.7 vs. 65.0; P< 0.01) and shell (9.5 vs. 9.6; P< 0.05) than eggs from the lighter hens. Consequently, the yolk to albumen ratio was higher (0.40 vs. 0.39; P< 0.001) for the heavier hens. It is concluded that brown egg-laying hens respond with increases in egg production and egg mass, to increases in AMEn concentration of the diet up to 2,850 kcal/kg. Heavy hens had higher feed intake and produced heavier eggs and more egg mass than light hens. However, energy efficiency was better for the lighter hens.
Resumo:
Modern object oriented languages like C# and JAVA enable developers to build complex application in less time. These languages are based on selecting heap allocated pass-by-reference objects for user defined data structures. This simplifies programming by automatically managing memory allocation and deallocation in conjunction with automated garbage collection. This simplification of programming comes at the cost of performance. Using pass-by-reference objects instead of lighter weight pass-by value structs can have memory impact in some cases. These costs can be critical when these application runs on limited resource environments such as mobile devices and cloud computing systems. We explore the problem by using the simple and uniform memory model to improve the performance. In this work we address this problem by providing an automated and sounds static conversion analysis which identifies if a by reference type can be safely converted to a by value type where the conversion may result in performance improvements. This works focus on C# programs. Our approach is based on a combination of syntactic and semantic checks to identify classes that are safe to convert. We evaluate the effectiveness of our work in identifying convertible types and impact of this transformation. The result shows that the transformation of reference type to value type can have substantial performance impact in practice. In our case studies we optimize the performance in Barnes-Hut program which shows total memory allocation decreased by 93% and execution time also reduced by 15%.
Resumo:
The performance efficiency of electrodynamic bare tethers acting as thrusters in low Earth orbit, as gauged by the ratio of the system mass dedicated to thrust over mission impulse, is analyzed and compared to the performance efficiency of electrical thrusters. Tether systems are much lighter for times beyond six months in space-tug operations, where there is a dedicated solar array, and beyond one month for reboost of the International Space Station, where the solar array is already in place. Bare-tether propulsive efficiency itself, with the tether considered as part of the power plant, is higher for space tugs. Tether optimization shows that thin tapes have greater propulsive efficiency and are less sensitive to plasma density variations in orbit than cylindrical tethers. The efficiency increases with tape length if some segment next to the power supply at the top is insulated to make the tether potential bias vanish at the lower end; multitape tethers must be used to keep the efficiency high at high thrust levels. The efficiency has a maximum for tether-hardware mass equal to the fraction of power-subsystem mass going into ohmic power, though the maximum is very flat. For space tugs, effects of induced-bias changes in orbit might need to be reduced by choosing a moderately large power-subsystem to tether-hardware mass ratio or by tracking the current-voltage characteristic of the solar array.
Resumo:
El desarrollo de sensores está ganando cada vez mayor importancia debido a la concienciación ciudadana sobre el medio ambiente haciendo que su desarrollo sea muy elevado en todas las disciplinas, entre las que cabe destacar, la medicina, la biología y la química. A pesar de la existencia de estos dispositivos, este área está aún por mejorar, ya que muchos de los materiales propuestos hasta el momento e incluso los ya comercializados muestran importantes carencias de funcionamiento, eficiencia e integrabilidad entre otros. Para la mejora de estos dispositivos, se han propuesto diversas aproximaciones basadas en nanosistemas. Quizá, uno de las más prometedoras son las nanoestructuras de punto cuántico, y en particular los semiconductores III-V basados en la consolidada tecnología de los arseniuros, las cuáles ofrecen excelentes propiedades para su uso como sensores. Además, estudios recientes demuestran su gran carácter sensitivo al medio ambiente, la posibilidad de funcionalizar la superficie para la fabricación de sensores interdisciplinares y posibilididad de mejorar notablemente su eficiencia. A lo largo de esta tesis, nos centramos en la investigación de SQD de In0.5Ga0.5As sobre substratos de GaAs(001) para el desarrollo de sensores de humedad. La tesis abarca desde el diseño, crecimiento y caracterización de las muestras hasta la el posterior procesado y caracterización de los dispositivos finales. La optimización de los parámetros de crecimiento es fundamental para conseguir una nanoestructura con las propiedades operacionales idóneas para un fin determinado. Como es bien sabido en la literatura, los parámetros de crecimiento (temperatura de crecimiento, relación de flujos del elemento del grupo V y del grupo I II (V/III), velocidad de crecimiento y tratamiento térmico después de la formación de la capa activa) afectan directamente a las propiedades estructurales, y por tanto, operacionales de los puntos cuánticos (QD). En esta tesis, se realiza un estudio de las condiciones de crecimiento para el uso de In0.5Ga0.5As SQDs como sensores. Para los parámetros relacionados con la temperatura de crecimiento de los QDs y la relación de flujos V / I I I se utilizan los estudios previamente realizados por el grupo. Mientras que este estudio se centrará en la importancia de la velocidad de crecimiento y en el tratamiento térmico justo después de la nucleación de los QDs. Para ello, se establece la temperatura de creciemiento de los QDs en 430°C y la relación de flujos V/III en 20. Como resultado, los valores más adecuados que se obtienen para la velocidad de crecimiento y el tratamiento térmico posterior a la formación de los puntos son, respectivamente, 0.07ML/s y la realización de una bajada y subida brusca de la temperatura del substrato de 100°C con respecto a la temperatura de crecimiento de los QDs. El crecimiento a una velocidad lo suficientemente alta que permita la migración de los átomos por la superficie, pero a su vez lo suficientemente baja para que se lleve a cabo la nucleación de los QDs; en combinación con el tratamiento brusco de temperatura que hace que se conserve la forma y composición de los QDs, da lugar a unos SQDs con un alto grado de homogeneidad y alta densidad superficial. Además, la caracterización posterior indica que estas nanoestructuras de gran calidad cristalina presentan unas propiedades ópticas excelentes incluso a temperatura ambiente. Una de las características por la cual los SQD de Ino.5Gao.5As se consideran candidatos prometedores para el desarrollo de sensores es el papel decisivo que juega la superficie por el mero hecho de estar en contacto directo con las partículas del ambiente y, por tanto, por ser capaces de interactuar con sus moléculas. Así pues, con el fin de demostrar la idoneidad de este sistema para dicha finalidad, se evalúa el impacto ambiental en las propiedades ópticas y eléctricas de las muestras. En un primer lugar, se analiza el efecto que tiene el medio en las propiedades ópticas. Para dicha evaluación se compara la variación de las propiedades de emisión de una capa de puntos enterrada y una superficial en distintas condiciones externas. El resultado que se obtiene es muy claro, los puntos enterrados no experimentan un cambio óptico apreciable cuando se varían las condiciones del entorno; mientras que, la emisión de los SQDs se modifica significativamente con las condiciones del medio. Por una parte, la intensidad de emisión de los puntos superficiales desaparece en condiciones de vacío y decrece notablemente en atmósferas secas de gases puros (N2, O2). Por otra parte, la fotoluminiscencia se conserva en ambientes húmedos. Adicionalmente, se observa que la anchura a media altura y la longitud de onda de emisión no se ven afectadas por los cambios en el medio, lo que indica, que las propiedades estructurales de los puntos se conservan al variar la atmósfera. Estos resultados apuntan directamente a los procesos que tienen lugar en la superficie entre estados confinados y superficiales como responsables principales de este comportamiento. Así mismo, se ha llevado a cabo un análisis más detallado de la influencia de la calidad y composición de la atmósfera en las propiedades ópticas de los puntos cuánticos superficiales. Para ello, se utilizan distintas sustancias con diferente polaridad, composición atómica y masa molecular. Como resultado se observa que las moléculas de menor polaridad y más pesadas causan una mayor variación en la intensidad de emisión. Además, se demuestra que el oxígeno juega un papel decisivo en las propiedades ópticas. En presencia de moléculas que contienen oxígeno, la intensidad de fotoluminiscencia disminuye menos que en atmósferas constituidas por especies que no contienen oxígeno. Las emisión que se observa respecto a la señal en aire es del 90% y del 77%, respectivamente, en atmósferas con presencia o ausencia de moléculas de oxígeno. El deterioro de la señal de emisión se atribuye a la presencia de defectos, enlaces insaturados y, en general, estados localizados en la superficie. Estos estados actúan como centros de recombinación no radiativa y, consecuentemente, se produce un empeoramiento de las propiedades ópticas de los SQDs. Por tanto, la eliminación o reducción de la densidad de estos estados superficiales haría posible una mejora de la intensidad de emisión. De estos experimentos de fotoluminiscencia, se deduce que las interacciones entre las moléculas presentes en la atmósfera y la superficie de la muestra modifican la superficie. Esta alteración superficial se traduce en un cambio significativo en las propiedades de emisión. Este comportamiento se atribuye a la posible adsorción de moléculas sobre la superficie pasivando los centros no radiativos, y como consecuencia, mejorando las propiedades ópticas. Además, los resultados demuestran que las moléculas que contienen oxígeno con mayor polaridad y más ligeras son adsorbidas con mayor facilidad, lo que hace que la intensidad óptica sufra variaciones despreciables con respecto a la emisión en aire. Con el fin de desarrollar sensores, las muestras se procesan y los dispositivos se caracterizan eléctricamente. El procesado consiste en dos contactos cuadrados de una aleación de Ti/Au. Durante el procesado, lo más importante a tener en cuenta es no realizar ningún ataque o limpieza que pueda dañar la superficie y deteriorar las propiedades de las nanostructuras. En este apartado, se realiza un análisis completo de una serie de tres muestras: GaAs (bulk), un pozo cuántico superficial (SQW) de Ino.5Gao.5As y SQDs de Ino.5Gao.5As. Para ello, a cada una de las muestras se le realizan medidas de I-V en distintas condiciones ambientales. En primer lugar, siguiendo los resultados obtenidos ópticamente, se lleva a cabo una comparación de la respuesta eléctrica en vacío y aire. A pesar de que todas las muestras presentan un carácter más resistivo en vacío que en aire, se observa una mayor influencia sobre la muestra de SQD. En vacío, la resistencia de los SQDs decrece un 99% respecto de su valor en aire, mientras que la variación de la muestras de GaAs e Ino.5Gao.5As SQW muestran una reducción, respectivamente, del 31% y del 20%. En segundo lugar, se realiza una evaluación aproximada del posible efecto de la humedad en la resistencia superficial de las muestras mediante la exhalación humana. Como resultado se obtiene, que tras la exhalación, la resistencia disminuye bruscamente y recupera su valor inicial cuando dicho proceso concluye. Este resultado preliminar indica que la humedad es un factor crítico en las propiedades eléctricas de los puntos cuánticos superficiales. Para la determinación del papel de la humedad en la respuesta eléctrica, se somete a las muestras de SQD y SQW a ambientes con humedad relativa (RH, de la siglas del inglés) controlada y se analiza el efecto sobre la conductividad superficial. Tras la variación de la RH desde 0% hasta el 70%, se observa que la muestra SQW no cambia su comportamiento eléctrico al variar la humedad del ambiente. Sin embargo, la respuesta de la muestra SQD define dos regiones bien diferenciadas, una de alta sensibilidad para valores por debajo del 50% de RH, en la que la resistencia disminuye hasta en un orden de magnitud y otra, de baja sensibilidad (>50%), donde el cambio de la resistencia es menor. Este resultado resalta la especial relevancia no sólo de la composición sino también de la morfología de la nanostructura superficial en el carácter sensitivo de la muestra. Por último, se analiza la influencia de la iluminación en la sensibilidad de la muestra. Nuevamente, se somete a las muestras SQD y SQW a una irradiación de luz de distinta energía y potencia a la vez que se varía controladamente la humedad ambiental. Una vez más, se observa que la muestra SQW no presenta ninguna variación apreciable con las alteraciones del entorno. Su resistencia superficial permanece prácticamente inalterable tanto al modificar la potencia de la luz incidente como al variar la energía de la irradiación. Por el contrario, en la muestra de SQD se obtiene una reducción la resistencia superficial de un orden de magnitud al pasar de condiciones de oscuridad a iluminación. Con respecto a la potencia y energía de la luz incidente, se observa que a pesar de que la muestra no experimenta variaciones notables con la potencia de la irradiación, esta sufre cambios significativos con la energía de la luz incidente. Cuando se ilumina con energías por encima de la energía de la banda prohibida (gap) del GaAs (Eg ~1.42 eV ) se produce una reducción de la resistencia de un orden de magnitud en atmósferas húmedas, mientras que en atmósferas secas la conductividad superficial permanece prácticamente constante. Sin embargo, al inicidir con luz de energía menor que Eg, el efecto que se produce en la respuesta eléctrica es despreciable. Esto se atribuye principalmente a la densidad de portadores fotoactivados durante la irradiación. El volumen de portadores excita dos depende de la energía de la luz incidente. De este modo, cuando la luz que incide tiene energía menor que el gap, el volumen de portadores generados es pequeño y no contribuye a la conductividad superficial. Por el contrario, cuando la energía de la luz incidente es alta (Eg), el volumen de portadores activados es elevado y éstos contribuyen significantemente a la conductividad superficial. La combinación de ambos agentes, luz y humedad, favorece el proceso de adsorción de moléculas y, por tanto, contribuye a la reducción de la densidad de estados superficiales, dando lugar a una modificación de la estructura electrónica y consecuentemente favoreciendo o dificultando el transporte de portadores. ABSTRACT Uncapped three-dimensional (3D) nanostructures have been generally grown to assess their structural quality. However, the tremendous growing importance of the impact of the environment on life has become such nanosystems in very promising candidates for the development of sensing devices. Their direct exposure to changes in the local surrounding may influence their physical properties being a perfect sign of the atmosphere quality. The goal of this thesis is the research of Ino.5Gao.5As surface quantum dots (SQDs) on GaAs(001), covering from their growth to device fabrication, for sensing applications. The achievement of this goal relies on the design, growth and sample characterization, along with device fabrication and characterization. The first issue of the thesis is devoted to analyze the main growth parameters affecting the physical properties of the Ino.5Gao.5As SQDs. It is well known that the growing conditions (growth temperature , deposition rate, V/III flux ratio and treatment after active layer growth) directly affect the physical properties of the epilayer. In this part, taking advantage of the previous results in the group regarding Ino.5Gao.5As QD growth temperature and V/III ratio, the effect of the growth rate and the temperature treatment after QDs growth nucleation is evaluated. Setting the QDs growth temperature at 430°C and the V/III flux ratio to ~20, it is found that the most appropriate conditions rely on growing the QDs at 0.07ML/s and just after QD nucleation, rapidly dropping and again raising 100°C the substrate temperature with respect to the temperature of QD growth. The combination of growing at a fast enough growth rate to promote molecule migration but sufficiently slow to allow QD nucleation, together with the sharp variation of the temperature preserving their shape and composition yield to high density, homogeneous Ino.5Gao.5As SQDs. Besides, it is also demonstrated that this high quality SQDs show excellent optical properties even at room temperature (RT). One of the characteristics by which In0.5Ga0.5As/GaAs SQDs are considered promising candidates for sensing applications is the crucial role that surface plays when interacting with the gases constituting the atmosphere. Therefore, in an attempt to develop sensing devices, the influence of the environment on the physical properties of the samples is evaluated. By comparing the resulting photoluminescence (PL) of SQDs with buried QDs (BQDs), it is found that BQDs do not exhibit any significant variation when changing the environmental conditions whereas, the external conditions greatly act on the SQDs optical properties. On one hand, it is evidenced that PL intensity of SQDs sharply quenches under vacuum and clearly decreases under dry-pure gases atmospheres (N2, O2). On the other hand, it is shown that, in water containing atmospheres, the SQDs PL intensity is maintained with respect to that in air. Moreover, it is found that neither the full width at half maximun nor the emission wavelength manifest any noticeable change indicating that the QDs are not structurally altered by the external atmosphere. These results decisively point to the processes taking place at the surface such as coupling between confined and surface states, to be responsible of this extraordinary behavior. A further analysis of the impact of the atmosphere composition on the optical characteristics is conducted. A sample containing one uncapped In0.5Ga0.5As QDs layer is exposed to different environments. Several solvents presenting different polarity, atomic composition and molecular mass, are used to change the atmosphere composition. It is revealed that low polarity and heavy molecules cause a greater variation on the PL intensity. Besides, oxygen is demonstrated to play a decisive role on the PL response. Results indicate that in presence of oxygen-containing molecules, the PL intensity experiments a less reduction than that suffered in presence of nonoxygen-containing molecules, 90% compared to 77% signal respect to the emission in air. In agreement with these results, it is demonstrated that high polarity and lighter molecules containing oxygen are more easily adsorbed, and consequently, PL intensity is less affected. The presence of defects, unsaturated bonds and in general localized states in the surface are proposed to act as nonradiative recombination centers deteriorating the PL emission of the sample. Therefore, suppression or reduction of the density of such states may lead to an increase or, at least, conservation of the PL signal. This research denotes that the interaction between sample surface and molecules in the atmosphere modifies the surface characteristics altering thus the optical properties. This is attributed to the likely adsoption of some molecules onto the surface passivating the nonradiative recombination centers, and consequently, not deteriorating the PL emission. Aiming for sensors development, samples are processed and electrically characterized under different external conditions. Samples are processed with two square (Ti/Au) contacts. During the processing, especial attention must be paid to the surface treatment. Any process that may damage the surface such as plasma etching or annealing must be avoided to preserve the features of the surface nanostructures. A set of three samples: a GaAs (bulk), In0.5Ga0.5As SQDs and In0.5Ga0.5As surface quantum well (SQW) are subjected to a throughout evaluation. I-V characteristics are measured following the results from the optical characterization. Firstly, the three samples are exposed to vacuum and air. Despite the three samples exhibit a more resistive character in vacuum than in air, it is revealed a much more clear influence of the pressure atmosphere in the SQDs sample. The sheet resistance (Rsh) of SQDs decreases a 99% from its response value under vacuum to its value in air, whereas Rsh of GaAs and In0.5Ga0.5As SQW reduces its value a 31% and a 20%, respectively. Secondly, a rough analysis of the effect of the human breath on the electrical response evidences the enormous influence of moisture (human breath is composed by several components but the one that overwhelms all the rest is the high concentration of water vapor) on the I-V characteristics. Following this result, In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW are subjected to different controlled relative humidity (RH) environments (from 0% to 70%) and electrically characterized. It is found that SQW shows a nearly negligible Rsh variation when increasing the RH in the surroundings. However, the response of SQDs to changes in the RH defines two regions. Below 50%, high sensitive zone, Rsh of SQD decreases by more than one order of magnitude, while above 50% the dependence of Rsh on the RH becomes weaker. These results remark the role of the surface and denote the existence of a finite number of surface states. Nevertheless, most significantly, they highlight the importance not only of the material but also of the morphology. Finally, the impact of the illumination is determined by means of irradiating the In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW samples with different energy and power sources. Once again, SQW does not exhibit any correlation between the surface conductivity and the external conditions. Rsh remains nearly unalterable independently of the energy and power of the incident light. Conversely, Rsh of SQD experiences a decay of one order of magnitude from dark-to-photo conditions. This is attributed to the less density of surface states of SQW compared to that of SQDs. Additionally, a different response of Rsh of SQD with the energy of the impinging light is found. Illuminating with high energy light results in a Rsh reduction of one order of mag nitude under humid atmospheres, whereas it remains nearly unchanged under dry environments. On the contrary, light with energy below the bulk energy bandgap (Eg), shows a negligible effect on the electrical properties regardless the local moisture. This is related to the density of photocarriers generated while lighting up. Illuminating with excitation energy below Eg affects a small absorption volume and thus, a low density of photocarriers may be activated leading to an insignificant contribution to the conductivity. Nonetheless, irradiating with energy above the Eg can excite a high density of photocarriers and greatly improve the surface conductivity. These results demonstrate that both illumination and humidity are therefore needed for sensing. The combination of these two agents improves the surface passivation by means of molecule adsorption reducing the density of surface states, thus modifying the electronic structures, and consequently, promoting the carrier motion.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
A Space tether is a thin, multi-kilometers long conductive wire, joining a satellite and some opposite end mass, and keeping vertical in orbit by the gravity-gradient. The ambient plasma, being highly conductive, is equipotential in its own co-moving frame. In the tether frame, in relative motion however, there is in the plasma a motional electric field of order of 100 V/km, product of (near) orbital velocity and geomagnetic field. The electromotive force established over the tether length allows plasma contactor devices to collect electrons at one polarized-positive (anodic) end and eject electrons at the opposite end, setting up a current along a standard, fully insulated tether. The Lorentz force exerted on the current by the geomagnetic field itself is always drag; this relies on just thermodynamics, like air drag. The bare tether concept, introduced in 1992 at the Universidad Politécnica de Madrid (UPM), takes away the insulation and has electrons collected over the tether segment coming out polarized positive; the concept rests on 2D (Langmuir probe) current-collection in plasmas being greatly more efficient than 3D collection. A Plasma Contactor ejects electrons at the cathodic end. A bare tether with a thin-tape cross section has much greater perimeter and de-orbits much faster than a (corresponding) round bare tether of equal length and mass. Further, tethers being long and thin, they are prone to cuts by abundant small space debris, but BETs has shown that the tape has a probability of being cut per unit time smaller by more than one order of magnitude than the corresponding round tether (debris comparable to its width are much less abundant than debris comparable to the radius of the corresponding round tether). Also, the tape collects much more current, and de-orbits much faster, than a corresponding multi-line “tape” made of thin round wires cross-connected to survive debris cuts. Tethers use a dissipative mechanism quite different from air drag and can de-orbit in just a few months; also, tape tethers are much lighter than round tethers of equal length and perimeter, which can capture equal current. The 3 disparate tape dimensions allow easily scalable design. Switching the cathodic Contactor off-on allows maneuvering to avoid catastrophic collisions with big tracked debris. Lorentz braking is as reliable as air drag. Tethers are still reasonably effective at high inclinations, where the motional field is small, because the geomagnetic field is not just a dipole along the Earth polar axis. BETs is the EC FP7/Space Project 262972, financed in about 1.8 million euros, from 1 November 2010 to 31 January 2014, and carrying out RTD work on de-orbiting space debris. Coordinated by UPM, it has partners Università di Padova, ONERA-Toulouse, Colorado State University, SME Emxys, DLR–Bremen, and Fundación Tecnalia. BETs work involves 1) Designing, building, and ground-testing basic hardware subsystems Cathodic Plasma Contactor, Tether Deployment Mechanism, Power Control Module, and Tape with crosswise and lengthwise structure. 2) Testing current collection and verifying tether dynamical stability. 3) Preliminary design of tape dimensions for a generic mission, conducive to low system-to-satellite mass ratio and probability of cut by small debris, and ohmic-effects regime of tether current for fast de-orbiting. Reaching TRL 4-5, BETs appears ready for in-orbit demostration.
Resumo:
Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.
Resumo:
The main objetive of this Doctoral Thesis was to study the influence of female castration and pig sex on growth performance and carcass and meat quality of white pigs slaughtered at different final weights. Three experiments (Exp.) were conducted. In Exp. 1, a total of 200 (Landrace * Large White dam x Pietrain * Large White sire) gilts of 50 ± 3 days of age (23.3 ± 1.47 kg BW) was used to investigate the effects of castration (intact females, IF vs. castrated feamles, CF) and slaughter weight (106 vs. 122 kg BW) on productive performance and carcass and meat quality. There were four experimental treatments arranged as a 2 x 2 factorial and 5 replicates of 10 pigs each per treatment. Half of the gilts were ovariectomized at 58 d of age (8 days after the beginning of the trial; 29.8 ± 1.64 kg BW) whereas the other half remained intact. Meat samples were taken at m. Longissimus thoracis at the level of the last rib and subcutaneous fat samples were taken at the tail insertion. For the entire experiment period, CF had higher BW gain (P<0.05) and backfat and m. Gluteus medius (GM) fat thickness (P<0.001) than IF. However, IF had higher loin and trimmed primal cut yields (P<0.05) than CF. Meat quality was similar for IF and CF but the proportion of linoleic acid in subcutaneous fat was higher (P<0.001) for IF. Pigs slaughtered at 122 kg BW had higher (P<0.001) feed intake and poorer feed efficiency than pigs slaughtered at 106 kg BW. An increase in slaughter weight (SW) improved (P<0.001) carcass yield but decreased (P<0.05) trimmed primal cut yield. Meat from females slaughtered at the heavier BW was redder (a*; P<0.001) and had more (P<0.01) intramuscular fat and less thawing (P<0.05) and cooking (P<0.10) loss than meat from females slaughtered at the lighter BW. Also, females slaughtered at 122 kg BW had less (P<0.01) linoleic acid content in the subcutaneous fat than pigs slaughtered at 106 kg BW. Castration of gilts and slaughtering at heavier BW might be useful practices for the production of heavy pigs destined to the dry cured industry in which a certain amount of fat in the carcass is required. In contrast, when the carcasses are destined to fresh meat production, IF slaughtered at 106 kg BW are a more efficient alternative. In Exp. 2, crossbred pigs (n=240) from Pietrain*Large White sires mated to Landrace*Large White dams with an average of 100 d of age (60.5 ± 2.3 kg) were used to investigate the effects of gender and slaughter weight (SW) on growth performance and carcass and meat quality characteristics. There were 6 treatments arranged factorially with 3 genders (IF vs. CF vs.castrated males, CM) and 2 SW (114 vs. 122 kg BW). Each of the 6 combinations of treatments was replicated 4 times and the experimental unit was a pen with 10 pigs. Castrated males and CF ate more feed, grew faster and had more carcass backfat depth and fat thickness at the GM muscle, but lower loin yield than IF (P<0.05). In addition, CF and CM had more intramuscular fat (P<0.05) and less linoleic acid content in the subcutaneous fat (P<0.01) than IF. Pigs slaughtered at 122 kg BW had lower ADG (P<0.05), poor gain-to-feed ratio (P<0.05), and more GM fat than pigs slaughtered at 114 kg BW (P < 0.05). It is concluded that CF and CM had similar productive performance and meat quality characteristics when slaughtered at the same age, and that the castration of females improved daily gains and increased weight and fat content of primal cuts with respect to IF. Therefore, castration of females is recommended in pigs destined to the dry-cured industry because of the beneficial effects on the quality of the primal cuts. In Exp. 3, the effects of gender and castration of females (IF vs. CF vs. CM) on performance and carcass and meat quality were studied in crossbred pigs (Landrace x Large White dams x Duroc sires) slaughtered at 119.2 (trial 1) or 131.6 (trial 2) kg BW. Intact females had better feed conversion and less carcass fat than CF and CM. Trimmed shoulder yield was higher for CM than for CF with IF being intermediate. Primal cut yield and meat quality, however were similar for all treatments. Proportion of linoleic acid in backfat was lower for CF than for IF or CM, and the differences were significant in pigs slaughtered witn 131.6 kg BW. The higher fat content and the fatty acid profile favour the use of CF and CM over IF for the production of heavy pigs destined to the dry-cured industry.
Resumo:
El vidrio se trata de un material muy apreciado en la arquitectura debido a la transparencia, característica que pocos materiales tienen. Pero, también es un material frágil, con una rotura inmediata cuando alcanza su límite elástico, sin disponer de un período plástico, que advierta de su futura rotura y permita un margen de seguridad. Por ambas razones, el vidrio se ha utilizado en arquitectura como elemento de plementería o relleno, desde tiempos antiguos, pero no como elemento estructural o portante, pese a que es un material interesante para los arquitectos para ese uso, por su característica de transparencia, ya que conseguiría la desmaterialización visual de la estructura, logrando espacios más ligeros y livianos. En cambio, si se tienen en cuenta las propiedades mecánicas del material se puede comprobar que dispone de unas características apropiadas para su uso estructural, ya que su Módulo elástico es similar al del aluminio, elemento muy utilizado en la arquitectura principalmente en las fachadas desde los últimos años, y su resistencia a compresión es muy superior incluso al hormigón armado; aunque su principal problema es su resistencia a tracción que es muy inferior a su resistencia a compresión, lo que penaliza su resistencia a flexión. En la actualidad se empieza a utilizar el vidrio como elemento portante o estructural, pero debido a su peor resistencia a flexión, se utilizan con grandes dimensiones que, a pesar de su transparencia, tienen una gran presencia. Por ello, la presente investigación pretende conseguir una reducción de las secciones de estos elementos estructurales de vidrio. Entonces, para el desarrollo de la investigación es necesario responder a una serie de preguntas fundamentales, cuyas respuestas serán el cuerpo de la investigación: 1. ¿Cuál es la finalidad de la investigación? El objetivo de esta investigación es la optimización de elementos estructurales de vidrio para su utilización en arquitectura. 2. ¿Cómo se va a realizar esa optimización? ¿Qué sistemas se van a utilizar? El sistema para realizar la optimización será la pretensión de los elementos estructurales de vidrio 3. ¿Por qué se va a utilizar la precompresión? Porque el vidrio tiene un buen comportamiento a compresión y un mal comportamiento a tracción lo que penaliza su utilización a flexión. Por medio de la precompresión se puede incrementar esta resistencia a tracción, ya que los primeros esfuerzos reducirán la compresión inicial hasta comenzar a funcionar a tracción, y por tanto aumentará su capacidad de carga. 4. ¿Con qué medios se va a comprobar y justificar ese comportamiento? Mediante simulaciones informáticas con programas de elementos finitos. 5. ¿Por qué se utilizará este método? Porque es una herramienta que arroja ventajas sobre otros métodos como los experimentales, debido a su fiabilidad, economía, rapidez y facilidad para establecer distintos casos. 6. ¿Cómo se garantiza su fiabilidad? Mediante el contraste de resultados obtenidos con ensayos físicos realizados, garantizando de ésta manera el buen comportamiento de los programas utilizados. El presente estudio tratará de responder a todas estas preguntas, para concluir y conseguir elementos estructurales de vidrio con secciones más reducidas gracias a la introducción de la precompresión, todo ello a través de las simulaciones informáticas por medio de elementos finitos. Dentro de estas simulaciones, también se realizarán comprobaciones y comparaciones entre distintas tipologías de programas para comprobar y contrastar los resultados obtenidos, intentando analizar cuál de ellos es el más idóneo para la simulación de elementos estructurales de vidrio. ABSTRACT Glass is a material very appreciated in architecture due to its transparency, feature that just a few materials share. But it is also a brittle material with an immediate breakage when it reaches its elastic limit, without having a plastic period that provides warning of future breakage allowing a safety period. For both reasons, glass has been used in architecture as infill panels, from old times. However, it has never been used as a structural or load‐bearing element, although it is an interesting material for architects for that use: because of its transparency, structural glass makes possible the visual dematerialization of the structure, achieving lighter spaces. However, taking into account the mechanical properties of the material, it is possible to check that it has appropriate conditions for structural use: its elastic modulus is similar to that of aluminium, element widely used in architecture, especially in facades from recent years; and its compressive strength is much higher than even the one of concrete. However, its main problem consists in its tensile strength that is much lower than its compressive strength, penalizing its resistance to bending. Nowadays glass is starting to be used as a bearing or structural element, but due to its worse bending strength, elements with large dimensions must be used, with a large presence despite its transparency. Therefore this research aims to get smaller sections of these structural glass elements. For the development of this thesis, it is necessary to answer a number of fundamental questions. The answers will be the core of this work: 1. What is the purpose of the investigation? The objective of this research is the optimization of structural glass elements for its use in architecture. 2. How are you going to perform this optimization? What systems will be implemented? The system for optimization is the pre‐stress of the structural elements of glass 3. Why are you going to use the pre‐compression? Because glass has a good resistance to compression and a poor tensile behaviour, which penalizes its use in bending elements. Through the pre‐compression it is possible to increase this tensile strength, due to the initial tensile efforts reducing the pre‐stress and increasing its load capacity. 4. What are the means that you will use in order to verify and justify this behaviour? The means are based on computer simulations with finite element programs (FEM) 5. Why do you use this method? Because it is a tool which gives advantages over other methods such as experimental: its reliability, economy, quick and easy to set different cases. 6. How the reliability is guaranteed? It’s guaranteed comparing the results of the simulation with the performed physical tests, ensuring the good performance of the software. This thesis will attempt to answer all these questions, to obtain glass structural elements with smaller sections thanks to the introduction of the pre‐compression, all through computer simulations using finite elements methods. In these simulations, tests and comparisons between different types of programs will also be implemented, in order to test and compare the obtained results, trying to analyse which one is the most suitable for the simulation of structural glass elements.
Resumo:
Linear Fresnel collectors are identified as a technology that should play a main role in order to reduce cost of Concentrating Solar Power. An optical and thermal analysis of the different blocks of the solar power plant is carried out, where Fresnel arrays are compared with the most extended linear technology: parabolic trough collectors. It is demonstrated that the optical performance of Fresnel array is very close to that of PTC, with similar values of maximum flux intensities. In addition, if the heat carrier fluid flows in series by the tubes of the receiver, relatively high thermal efficiencies are achieved. Thus, an annual solar to electricity efficiency of 19% is expected, which is similar to the state of the art in PTCs; this is done with a reduction of costs, thanks to lighter structures, that drives to an estimation of LCOE of around 6.5 c€/kWh.