37 resultados para feminismo de la diferencia


Relevância:

90.00% 90.00%

Publicador:

Resumo:

El presente trabajo investiga la diferencia existente entre el contenido de Fe teórico definido en marmatita (esfalerita con 10% a 26% Fe) y el contenido real (9% Fe) determinado por Microsonda Electrónica (MS) en muestras de este mineral procedentes del locus typicus. Se trata de determinar si el mineral estaba correctamente definido en origen, combinando los estudios de MS y el Análisis Digital de Imagen (ADI) sobre probetas pulidas de la Mina de Marmato, Colombia. Se demuestra que las inclusiones microscópicas de otras fases portadoras de Fe (pirrotita, calcopirita) en esfalerita aportan una cantidad de Fe que puede ser significativa (~1.5 % en las muestras analizadas). Dichas fases no podían separarse cuando se definió la marmatita (1929) y, por tanto, el Fe de las mismas se habría atribuido a la esfalerita.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Las empresas explotadoras de yacimientos de petróleo y geotérmicos diseñan y construyen sus instalaciones optimizándolas según dos características especialmente representativas: su temperatura y su presión. Por ello, tener información precisa sobre ambos aspectos lo antes posible puede permitir ahorros importantes en las inversiones en infraestructuras y también acortar los plazos de comienzo de explotación; ambos, aspectos esenciales en la rentabilidad del yacimiento. La temperatura estática de una formación es la temperatura existente antes del inicio de las tareas de perforación del yacimiento. Las operaciones de perforación tienen como objetivo perforar, evaluar y terminar un pozo para que produzca de una forma rentable. Durante estas tareas se perturba térmicamente la formación debido a la duración de la perforación, la circulación de fluidos de refrigeración, la diferencia de temperaturas entre la formación y el fluido que perfora, el radio, la difusividad térmica de las formaciones y la tecnología de perforación [7]. La principal herramienta para determinar la temperatura estática de formación son las medidas de temperaturas en los pozos. Estas medidas de temperatura se realizan una vez cesados los trabajos de perforación y circulación de fluidos. El conjunto de medidas de temperatura obtenidas es una serie de valores ascendentes, pero no llega a alcanzar el valor de la temperatura estática de la formación. Para estimar esta temperatura se plantean las ecuaciones diferenciales que describen los fenómenos de transmisión de calor en el yacimiento [14]. Estos métodos se emplean tanto en yacimientos geotérmicos como en yacimientos de petróleo indistintamente [16]. Cada uno de ellos modela el problema de transmisión de calor asociado de una forma distinta, con hipótesis simplificadoras distintas. Se ha comprobado que la aplicación de los distintos métodos a un yacimiento en concreto presenta discrepancias en cuanto a los resultados obtenidos [2,16]. En muchos de los yacimientos no se dispone de información sobre los datos necesarios para aplicar el método de estimación. Esto obliga a adoptar una serie de hipótesis que comprometen la precisión final del método utilizado. Además, puede ocurrir que el método elegido no sea el que mejor reproduce el comportamiento del yacimiento. En el presente trabajo se han analizado los distintos métodos de cálculo. De la gran variedad de métodos existentes [9] se han seleccionado los cuatro más representativos [2,7]: Horner (HM), flujo radial y esférico (SRM), de las dos medidas (TLM) y de fuente de calor cilíndrica (CSM). Estos métodos se han aplicado a una serie de yacimientos de los cuales se conoce la temperatura estática de la formación. De cada yacimiento se disponía de datos tanto de medidas como de las propiedades termo-físicas. Estos datos, en ocasiones, eran insuficientes para la aplicación de todos los métodos, lo cual obligo a adoptar hipótesis sobre los mismos. Esto ha permitido evaluar la precisión de cada método en cada caso. A partir de los resultados obtenidos se han formulado una colección de criterios que permiten seleccionar qué método se adapta mejor para el caso de un yacimiento concreto, de tal manera que el resultado final sea lo más preciso posible. Estos criterios se han fijado en función de las propiedades termo-físicas del yacimiento, que determinan el tipo de yacimiento, y del grado de conocimiento que se dispone del yacimiento objeto de estudio.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Actualmente en el mercado existen una reducida variedad de materiales específicos de ruido de impactos. Los materiales que han de ser utilizados como material resiliente, han de cumplir unos valores muy bajos del módulo de elasticidad E. Mientras el valor del caucho blando está en el orden de los 100 kg/cm2, el valor del acero es de 2.100.000 kg/cm2 (21.000 veces mayor). Estos valores tan bajos hacen que diferencias de apenas 50 kg/cm2 produzcan variaciones muy importantes en las ganancias de aislamiento acústico. La realización de los ensayos de caracterización acústica a ruido de impacto en laboratorio es un proceso largo y caro. En primer lugar se necesita elaborar un forjado de referencia, que ha de ser ensayado de forma independiente. Con posterioridad, se ha de colocar la losa flotante, y volver a realizar la prueba. Con la diferencia de las medidas realizadas, se determinan los valores de módulo de elasticidad. Como alternativa a este método, en la ponencia del congreso “TECNIACÚSTICA GANDÍA 2006” sobre “estudio de cinco métodos para determinar las propiedades dinámicas de capas elásticas para la mejora del aislamiento a ruido de impactos”, presentada por Francisco Simón, David K. Anthony, Mª José Fernández, proponen un total de cinco alternativas al ensayo indicado en la norma. Al margen de las condiciones acústicas, las placas de suelo radiante necesitan garantizar unos valores mínimos de aislamiento térmico. Con las actuales necesidades normativas, la solución habitual consiste en la superposición de dos materiales: en primer lugar, inmediatamente sobre el forjado, se coloca el material encargado de proporcionar el aislamiento acústico, generalmente una lámina flexible de polietileno. Encima de ella se coloca la placa de aislamiento térmico, generalmente una plancha de poliestireno expandido con resaltes en las que se encajan las tuberías que conducen el agua calefactada. El poliestireno expandido convencional, no tiene unos valores de módulo elástico suficientemente bajo para poder actuar como material resiliente. Para conseguir estos valores, es necesario elastificar el material mediante su introducción en una prensa (Poliestireno expandido elastificado EEPS). La utilización de esta técnica es incompatible con el proceso de fabricación de planchas moldeadas con tetones para la integración de los soportes de las tuberías. La lámina flexible de polietileno, si tienes valores aceptables, tanto de aislamiento térmico como acústico, en cambio no es posible la integración de los tetones durante su proceso de fabricación para soportar las canalizaciones de agua. El objetivo de la investigación consiste en integrar en una única placa las características tanto térmicas como acústicas necesarias para satisfacer todas las necesidades. Como se ha indicado más arriba, los materiales resilientes han de cumplir unos valores muy bajos del módulo de elasticidad E. Mientras el valor del caucho blando está en el orden de los 100 kg/cm2, el valor del acero es de 2.100.000 kg/cm2 (21.000 veces mayor). Pero no es menos cierto que con acero, dando la forma adecuada (un helicoide) se consigue un elemento muy elástico, un muelle. Tal es así, que variando la forma se puede conseguir el módulo de elásticidad E deseado, resultando utilidades tan dispares como el resorte de un bolígrafo o la suspensión de un coche. Por otro lado, y como se ha indicado anteriormente, la determinación de los valores mecánicos de los materiales aislantes térmicos es cara y complicada. Como objetivo secundario de la investigación, se establece el proponer un ensayo alternativo, más rápido y económico que el propuesto por la norma para facilitar el estudio de nuevas alternativas, sin tener que hacer grandes desembolsos económicos en

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Las plantas son organismos sésiles que han desarrollado la capacidad para detectar variaciones sutiles en su ambiente y producir respuestas adaptativas mediante rutas de señalización. Los estímulos causados por el estrés biótico y abiótico son numerosos y dependiendo del tiempo de exposición y su intensidad, pueden reducir la tasa de crecimiento de las plantas y la producción. Los cambios en la concentración del calcio citosólico libre constituyen una de las primeras reacciones intracelulares a las situaciones de estrés abiótico. En esta situación, el calcio actúa como segundo mensajero y las variaciones en su concentración son descodificadas por proteínas de unión a calcio. Las más conocidas son las manos-EF y los dominios C2. Los dominios C2 han sido descritos como dominios de unión a lípidos dependientes de calcio. Estos dominios se consideran proteínas periféricas solubles en agua que se asocian de manera reversible a los lípidos de la membrana mediante una o dos regiones funcionales: el sitio de unión a calcio y el sitio polibásico. A pesar de que se conoce la estructura molecular de algunos dominios C2, se desconocen aspectos relacionados como las reglas que dirigen su forma de interaccionar con los diferentes fosfolípidos y proteínas, la posición que ocupan en la bicapa lipídica y su papel en la transmisión de señales. En esta tesis se ha estudiado una proteína de Arabidopsis thaliana (At3g17980) representativa de una nueva familia de proteínas con dominios C2, que consiste únicamente de un dominio C2. Esta proteína, llamada AtC2.1, ha sido clonada en el vector pETM11, expresada en E. coli y purificada a homogeneidad en dos pasos cromatográficos. Se obtuvieron cristales de AtC2.1 de buena calidad mediante técnicas de difusión de vapor. La proteína fue co-cristalizada con calcio, fosfocolina (POC) y el fosfolípido 1,2-dihexanoil-sn-glicero-3-fosfo-L-serina (PSF). Se recogieron ocho conjuntos de datos de difracción de rayos X empleando radiación sincrotrón. Los cristales difractaron hasta 1.6 Å de resolución. Siete de ellos pertenecían al grupo ortorrómbico P212121, con las dimensiones de la celdilla unidad a = 35.3, b = 88.9, c = 110.6 Å, y un cristal pertenecía al grupo espacial monoclínico C2, con a = 124.84, b = 35.27, c = 92.32 Å y = 121.70º. La estructura se resolvió mediante la técnica MR-SAD utilizando el cinc como dispersor anómalo. La estructura cristalina mostró que la molécula forma un dímero en el que cada protómero se pliega como un dominio C2 típico, con la topología tipo II y presenta una inserción de 43 aminoácidos que la diferencia de los dominios C2 conocidos. El mapa de densidad electrónica mostró dos átomos de calcio por protómero. Se resolvieron las estructuras de AtC2.1 en complejo con POC o PSF. En ambos complejos, el análisis cristalográfico detectó máximos de densidad electrónica en la región correspondiente al sitio polibásico formado por las hebras 2, 3 5 y el lazo 3. Éstos se interpretaron correctamente como dos moléculas de POC y un átomo de cinc, en un complejo, y como la cabeza polar del PSF en el otro. AtC2.1 define un sitio de interacción con lípidos dependiente de cinc. En conclusión, en este trabajo se presenta la estructura tridimensional de AtC2.1, miembro representativo de una familia de proteínas de Arabidopsis thaliana, identificadas como proteínas que interaccionan con los receptores de ABA. Estas proteínas están constituidas únicamente por un dominio C2. El análisis conjunto de los datos biofísicos y cristalográficos muestra que AtC2.1 es un sensor de calcio que une lípidos usando dos sitios funcionales. Estos datos sugieren un mecanismo de inserción en membrana dependiente de calcio que trae consigo la disociación de la estructura dimérica y, por consiguiente, un cambio en las propiedades de superficie de la molécula. Este mecanismo proporciona las bases del reconocimiento y transporte de los receptores de ABA y/o otras moléculas a la membrana celular. Plants are sessile organisms that have developed the capacity to detect slight variations of their environment. They are able to perceive biotic and abiotic stress signals and to transduce them by signaling pathways in order to trigger adaptative responses. Stress factors are numerous and, depending on their exposition time and their concentration, can reduce plant growth rate, limiting the productivity of crop plants. Changes in the cytosolic free calcium concentration are observed as one of the earliest intracellular reactions to abiotic stress signals. Calcium plays a key role as a second messenger, and calcium concentration signatures, called calcium signals, are decodified by calcium binding proteins. The main calcium binding structures are the EF-hand motif and the C2 domains. C2 domain is a calcium dependent lipid-binding domain of approximately 130 amino acids. C2 domain displays two functional regions: the Ca-binding region and the polybasic cluster. Both of them can interact with the membrane phospholipids. Despite the number of C2 domain 3D structures currently available, questions about how they interact with the different target phospholipids, their precise spatial position in the lipid bilayer, interactions with other proteins and their role in transmitting signals downstream, have not yet been explored. In this work we have studied an uncharacterized protein from Arabidopsis thaliana (At3g17980) consisting of only a single C2 domain, as member of a new protein C2-domain family. This protein called AtC2.1 was cloned into the pETM11 vector and expressed in E. coli, allowing the purification to homogeneity in two chromatographic steps. Good quality diffracting crystals were obtained using vapor-diffusion techniques. Crystals were co-crystalized with calcium; phosphocholine (POC) and/or the phospholipid 1,2-dihexanoyl-sn-glycero-3-phospho-L-serine (PSF). Eight data set were collected with synchrotron radiation. Crystals diffracted up to 1.6 Å resolution and seven of them belong to the orthorhombic space group P212121, with unit-cell parameters a = 35.3, b = 88.9, c = 110.6 Å. Another crystal was monoclinic, space group C2, with a = 124.84, b = 35.27, c = 92.32 Å and = 121.70º. The structural model was solved by MR-SAD using Zn2+ as anomalous scatterer. The crystal structure shows that the molecule is a dimer. Each monomer was folded as a canonical C2 domain with the topology II with a 43 residues insertion. The electron density map reveals two calcium ions per molecule. Structures of AtC2.1, complexed with POC and PSF, have been solved. Well-defined extra electron densities were found, in both complexes, within the concave surface formed by strands 2, 3, 5 and loop 3 of AtC2.1. These densities were clearly explained by the presence of the two POC molecules, one zinc atom and head groups of PSF, occupying the cavity of the polybasic site. AtC2.1 defines a new metal dependent lipid-binding site into the polybasic site. In conclusion, in this thesis it is presented the molecular structure of AtC2.1, a representative member of a family of Arabidopsis thaliana C2 domain proteins, of unknown function, but identified as a molecular interacting unit of the ABA receptors. The joint analyses of the biophysical and crystallographic data show that AtC2.1 is a calcium sensor that binds lipids in two sites and suggest a model of calcium-dependent membrane insertion mechanism that will involve either dimer dissociation or a strong rearrangement of the dimeric structure. This mechanism may be the basis for the recognition and delivery of ABA receptors or other protein molecules to cell membranes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Enriquecer el conocimiento sobre la Radiación Solar (RS) a nivel del suelo es de gran interés para diferentes aplicaciones meteorológicas entre ellas el área de las energías renovables como la energía solar. La interpolación de observaciones de RS por estaciones en tierra, los sensores remotos y la ejecución de distintos modelos son algunas de las formas que existen para obtener valores de RS con continuidad espacial en el terreno. Aunque se sabe que los mejores valores de RS en la superficie son los observados por estaciones terrestres, este tipo de observaciones presentan como desventaja una baja distribución geográfica. En este trabajo se propone el uso de estaciones meteorológicas de voluntarios no oficiales (Meteoclimatic, Weather, Underground, Weather, Link, CWOP) las cuales son fuentes de Información Geográfica por Voluntarios (Volunteered Geographic Information - VGI) que proporcionan sus observaciones RS en tiempo real a través de Internet como una alternativa para densificar la disponibilidad y distribución espacial de las observaciones por RS a nivel superficial. En este trabajo se desarrolla una metodología que contempla tanto la recolección de las observaciones, como su alineación temporal para finalizar con el análisis de los datos indicando sus valores de incertidumbre a medida que se integra en una Base de Datos que integra las distintas fuentes de datos utilizadas. Los resultados indican que el error RS relativo entre las estimaciones por satélite y las observaciones en superficie no es constante a lo largo del día y por tanto debe analizarse mediante agrupaciones. También se ha observado que dicho error puede verse afectado por la localización de la estación meteorológica, en concreto se ha apreciado una relación directa entre el error relativo y la diferencia entre las longitudes de la ubicación de las estaciones superficiales en tierra y el satélite. Ésta misma comparación siguiere que es correcto considerar el uso de Meteoclimatic (la red Voluntaria tomada como piloto) como una fuente de observaciones de la RS importante al presentar un error esperado y aportar aproximadamente 10 veces más estaciones meteorológicas RS que la red oficial en España aportando un buen precedente para la integración de más redes voluntarias en la densificación de observaciones de la RS con estaciones en tierra.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este trabajo se presenta un procedimiento original para obtener la energía de fractura a partir de ensayos de compresión diametral realizados en tubos de pared delgada. El método propuesto combina resultados experimentales, cálculos numéricos por elementos finitos, en los que el proceso de rotura se ha modelizado con la teoría de la fisura cohesiva, y técnicas de optimización no lineal. Los parámetros del modelo cohesivo se han ajustado de forma automática de modo que la diferencia entre los resultados numéricos y los registros experimentales sea mínima. La técnica se ha aplicado para determinar la energía de fractura de una aleación comercial de circonio a distintas temperaturas 20°C, 135°C y 300°C, cargada con diferentes niveles de hidrógeno, desde 0 hasta 1200 ppm.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los cambios percibidos hacia finales del siglo XX y a principios del nuevo milenio, nos ha mostrado que la crisis cultural de la que somos participes refleja también una crisis de los modelos universales. Nuestra situación contemporánea, parece indicar que ya no es posible formular un sistema estético para atribuirle una vigencia universal e intemporal más allá de su estricta eficacia puntual. La referencia organizada, delimitada, invariable y específica que ofrecía cualquier emplazamiento, en tanto preexistencia, reflejaba una jerarquía del sistema formal basado en lo extensivo: la medida, las normas, el movimiento, el tiempo, la modulación, los códigos y las reglas. Sin embargo, actualmente, algunos aspectos que permanecían latentes sobre lo construido, emergen bajo connotaciones intensivas, transgrediendo la simple manifestación visual y expresiva, para centrase en las propiedades del comportamiento de la materia y la energía como determinantes de un proceso de adaptación en el entorno. A lo largo del todo el siglo XX, el desarrollo de la relación del proyecto sobre lo construido ha sido abordado, casi en exclusiva, entre acciones de preservación o intervención. Ambas perspectivas, manifestaban esfuerzos por articular un pensamiento que diera una consistencia teórica, como soporte para la producción de la acción aditiva. No obstante, en las últimas décadas de finales de siglo, la teoría arquitectónica terminó por incluir pensamientos de otros campos que parecen contaminar la visión sesgada que nos refería lo construido. Todo este entramado conceptual previo, aglomeraba valiosos intentos por dar contenido a una teoría que pudiese ser entendida desde una sola posición argumental. Es así, que en 1979 Ignasi Solá-Morales integró todas las imprecisiones que referían una actuación sobre una arquitectura existente, bajo el termino de “intervención”, el cual fue argumentado en dos sentidos: El primero referido a cualquier tipo de actuación que se puede hacer en un edificio, desde la defensa, preservación, conservación, reutilización, y demás acciones. Se trata de un ámbito donde permanece latente el sentido de intensidad, como factor común de entendimiento de una misma acción. En segundo lugar, más restringido, la idea de intervención se erige como el acto crítico a las ideas anteriores. Ambos representan en definitiva, formas de interpretación de un nuevo discurso. “Una intervención, es tanto como intentar que el edificio vuelva a decir algo o lo diga en una determinada dirección”. A mediados de 1985, motivado por la corriente de revisión historiográfica y la preocupación del deterioro de los centros históricos que recorría toda Europa, Solá-Morales se propone reflexionar sobre “la relación” entre una intervención de nueva arquitectura y la arquitectura previamente existente. Relación condicionada estrictamente bajo consideraciones lingüísticas, a su entender, en sintonía con toda la producción arquitectónica de todo el siglo XX. Del Contraste a la Analogía, resumirá las transformaciones en la concepción discursiva de la intervención arquitectónica, como un fenómeno cambiante en función de los valores culturales, pero a su vez, mostrando una clara tendencia dialógica entres dos categorías formales: El Contraste, enfatizando las posibilidades de la novedad y la diferencia; y por otro lado la emergente Analogía, como una nueva sensibilidad de interpretación del edificio antiguo, donde la semejanza y la diversidad se manifiestan simultáneamente. El aporte reflexivo de los escritos de Solá-Morales podría ser definitivo, si en las últimas décadas antes del fin de siglo, no se hubiesen percibido ciertos cambios sobre la continuidad de la expresión lingüística que fomentaba la arquitectura, hacia una especie de hipertrofia figurativa. Entre muchos argumentos: La disolución de la consistencia compositiva y el estilo unitario, la incorporación volumétrica del proyecto como dispositivo reactivo, y el cambio de visión desde lo retrospectivo hacia lo prospectivo que sugiere la nueva conservación. En este contexto de desintegración, el proyecto, en tanto incorporación o añadido sobre un edificio construido, deja de ser considerado como un apéndice volumétrico subordinado por la reglas compositivas y formales de lo antiguo, para ser considerado como un organismo de orden reactivo, que produce en el soporte existente una alteración en su conformación estructural y sistémica. La extensión, antes espacial, se considera ahora una extensión sensorial y morfológica con la implementación de la tecnología y la hiper-información, pero a su vez, marcados por una fuerte tendencia de optimización energética en su rol operativo, ante el surgimiento del factor ecológico en la producción contemporánea. En una sociedad, como la nuestra, que se está modernizando intensamente, es difícil compartir una adecuada sintonía con las formas del pasado. Desde 1790, fecha de la primera convención francesa para la conservación de monumentos, la escala de lo que se pretende preservar es cada vez más ambiciosa, tanto es así, que al día de hoy el repertorio de lo que se conserva incluye prácticamente todas las tipologías del entorno construido. Para Koolhaas, el intervalo entre el objeto y el momento en el cual se decide su conservación se ha reducido, desde dos milenios en 1882 a unas décadas hoy en día. En breve este lapso desaparecerá, demostrando un cambio radical desde lo retrospectivo hacia lo prospectivo, es decir, que dentro de poco habrá que decidir que es lo que se conserva antes de construir. Solá-Morales, en su momento, distinguió la relación entre lo nuevo y lo antiguo, entre el contraste y la analogía. Hoy casi tres décadas después, el objetivo consiste en evaluar si el modelo de intervención arquitectónica sobre lo construido se ha mantenido desde entonces o si han aparecido nuevas formas de posicionamiento del proyecto sobre lo construido. Nuestro trabajo pretende demostrar el cambio de enfoque proyectual con la preexistencia y que éste tiene estrecha relación con la incorporación de nuevos conceptos, técnicas, herramientas y necesidades que imprimen el contexto cultural, producido por el cambio de siglo. Esta suposición nos orienta a establecer un paralelismo arquitectónico entre los modos de relación en que se manifiesta lo nuevo, entre una posición comúnmente asumida (Tópica), genérica y ortodoxa, fundamentada en lo visual y expresivo de las últimas décadas del siglo XX, y una realidad emergente (Heterotópica), extraordinaria y heterodoxa que estimula lo inmaterial y que parece emerger con creciente intensidad en el siglo XXI. Si a lo largo de todo el siglo XX, el proyecto de intervención arquitectónico, se debatía entre la continuidad y discontinuidad de las categorías formales marcadas por la expresión del edificio preexistente, la nueva intervención contemporánea, como dispositivo reactivo en el paisaje y en el territorio, demanda una absoluta continuidad, ya no visual, expresiva, ni funcional, sino una continuidad fisiológica de adaptación y cambio con la propia dinámica del territorio, bajo nuevas reglas de juego y desplegando planes y estrategias operativas (proyectivas) desde su propia lógica y contingencia. El objeto de esta investigación es determinar los nuevos modos de continuidad y las posibles lógicas de producción que se manifiestan dentro de la Intervención Arquitectónica, intentando superar lo aparente de su relación física y visual, como resultado de la incorporación del factor operativo desplegado por el nuevo dispositivo contemporáneo. Creemos que es acertado mantener la senda connotativa que marca la denominación intervención arquitectónica, por aglutinar conceptos y acercamientos teóricos previos que han ido evolucionando en el tiempo. Si bien el término adolece de mayor alcance operativo desde su formulación, una cualidad que infieren nuestras lógicas contemporáneas, podría ser la reformulación y consolidación de un concepto de intervención más idóneo con nuestros tiempos, anteponiendo un procedimiento lógico desde su propia necesidad y contingencia. Finalmente, nuestro planteamiento inicial aspira a constituir un nueva forma de reflexión que nos permita comprender las complejas implicaciones que infiere la nueva arquitectura sobre la preexistencia, motivada por las incorporación de factores externos al simple juicio formal y expresivo preponderante a finales del siglo XX. Del mismo modo, nuestro camino propuesto, como alternativa, permite proyectar posibles sendas de prospección, al considerar lo preexistente como un ámbito que abarca la totalidad del territorio con dinámicas emergentes de cambio, y con ellas, sus lógicas de intervención.Abstract The perceived changes towards the end of the XXth century and at the beginning of the new milennium have shown us that the cultural crisis in which we participate also reflects a crisis of the universal models. The difference between our contemporary situation and the typical situations of modern orthodoxy and post-modernistic fragmentation, seems to indicate that it is no longer possible to formulate a valid esthetic system, to assign a universal and eternal validity to it beyond its strictly punctual effectiveness; which is even subject to questioning because of the continuous transformations that take place in time and in the sensibility of the subject itself every time it takes over the place. The organised reference that any location offered, limited, invariable and specific, while pre-existing, reflected a hierarchy of the formal system based on the applicable: measure, standards, movement, time, modulation, codes and rules. Authors like Marshall Mc Luhan, Paul Virilio, or Marc Augé anticipated a reality where the conventional system already did not seem to respond to the new architectural requests in which information, speed, disappearance and the virtual had blurred the traditional limits of place; pre-existence did no longer possess a specific delimitation and, on the contrary, they expect to reach a global scale. Currently, some aspects that stayed latent relating to the constructed, surface from intensive connotations, transgressing the simple visual and expressive manifestation in order to focus on the traits of the behaviour of material and energy as determinants of a process of adaptation to the surroundings. Throughout the entire Century, the development of the relation of the project relating to the constructed has been addressed, almost exclusively, in preservational or interventianal actions. Both perspectives showed efforts in order to express a thought that would give a theoretical consistency as a base for the production of the additive action. Nevertheless, the last decades of the Century, architectural theory ended up including thoughts from other fields that seem to contaminate the biased vision 15 which the constructed related us. Ecology, planning, philosophy, global economy, etc, suggest new approaches to the construction of the contemporary city; but this time with a determined idea of change and continuous transformation, that enriches the panorama of thought and architectural practice, at the same time, according to some, it puts disciplinary specification at risk, given that there is no architecture without destruction, the constructed organism requires mutation in order to adjust to the change of shape. All of this previous conceptual framework gathered valuable intents to give importance to a theory that could be understood solely from an argumental position. Thusly, in 1979 Ignasi Solá-Morales integrated all of the imprecisions that referred to an action in existing architecture under the term of “Intervention”, which was explained in two ways: The first referring to any type of intervention that can be carried out in a building, regarding protection, conservation, reuse, etc. It is about a scope where the meaning of intensity stays latent as a common factor of the understanding of a single action. Secondly, more limitedly, the idea of intervention is established as the critical act to the other previous ideas such as restauration, conservation, reuse, etc. Both ultimately represent ways of interpretation of a new speech. “An intervention, is as much as trying to make the building say something again or that it be said in a certain direction”. Mid 1985, motivated by the current of historiographical revision and the concerns regarding the deterioration of historical centres that traversed Europe, Solá-Morales decides to reflect on “the relationship” between an intervention of the new architecture and the previously existing architecture. A relationship determined strictly by linguistic considerations, to his understanding, in harmony with all of the architectural production of the XXth century. From Contrast to Analogy would summarise transformations in the discursive perception of architectural intervention, as a changing phenomenon depending on cultural values, but at the same time, showing a clear dialogical tendency between two formal categories: Contrast, emphasising the possibilities of novelty and difference; and on the other hand the emerging Analogy, as a new awareness of interpretation of the ancient building, where the similarity and diversity are manifested simultaneously. For Solá-Morales the analogical procedure is not based on the visible simultaneity of formal orders, but on associations that the subject establishes throughout time. Through analogy it is tried to overcome the simple visual relationship with the antique, to focus on its spacial, physical and geographical nature. If the analogical attempt guides an opening towards a new continuity; it still persists in the connection of dimensional, typological and figurative factors, subordinate to the formal hierarchy of the preexisting subjects. 16 The reflexive contribution of Solá-Morales’ works could be final, if in the last decades before the end of the century there had not been certain changes regarding linguistic expression, encouraged by architecture, towards a kind of figurative hypertrophy, amongst many arguments we are in this case interested in three moments: The dissolution of the compositional consistency and the united style, the volumetric incorporation of the project as a reactive mechanism, and the change of the vision from retrospective towards prospective that the new conservation suggests. The recurrence to the history of architecture and its recognisable forms, as a way of perpetuating memory and establishing a reference, dissolved any instinct of compositive unity and style, provoking permanent relationships to tend to disappear. The composition and coherence lead to suppose a type of discontinuity of isolated objects in which only possible relationships could appear; no longer as an order of certain formal and compositive rules, but as a special way of setting elements in a specific work. The new globalised field required new forms of consistency between the project and the pre-existent subject, motivated amongst others by the higher pace of market evolution, increase of consumer tax and the level of information and competence between different locations; aspects which finally made stylistic consistence inefficient. In this context of disintegration, the project, in incorporation as well as added to a constructed building, stops being considered as a volumetric appendix subordinate to compositive and formal rules of old, to be considered as an organism of reactive order, that causes a change in the structural and systematic configuration of the existing foundation. The extension, previsouly spatial, is now considered a sensorial and morphological extension, with the implementation of technology and hyper-information, but at the same time, marked by a strong tendency of energetic optimization in its operational role, facing the emergence of the ecological factor in contemporary production. The technological world turns into a new nature, a nature that should be analysed from ecological terms; in other words, as an event of transition in the continuous redistribution of energy. In this area, effectiveness is not only determined by the capacity of adaptation to changing conditions, but also by its transforming capacity “expressly” in order to change an environment. In a society, like ours, that is modernising intensively, it is difficult to share an adecuate agreement with the forms of the past. From 1790, the date of the first French convention for the conservation of monuments, the scale of what is expexted to be preserved is more and more ambitious, so much so that nowadays the repertoire of that what is conserved includes practically all typologies of the constructed surroundings. For Koolhaas, the ínterval between the object and the moment when its conservation is decided has been reduced, from two 17 milennia in 1882 to a few decades nowadays. Shortly this lapse will disappear, showing a radical change of retrospective towards prospective, that is to say, that soon it will be necessary to decide what to conserve before constructing. The shapes of cities are the result of the continuous incorporation of architecture, and perhaps that only through architecture the response to the universe can be understood, the continuity of what has already been constructed. Our work is understood also within that system, modifying the field of action and leaving the road ready for the next movement of those that will follow after us. Continuity does not mean conservatism, continuity means being conscient of the transitory value of our answers to specific needs, accepting the change that we have received. That what has been constructed to remain and last, should cause future interventions to be integrated in it. It is necessary to accept continuity as a rule. Solá-Morales, in his time, distinguished between the relationship with new and old, between contrast and analogy. Today, almost three decades later, the objective consists of evaluating whether the model of architectural intervention in the constructed has been maintained since then or if new ways of positioning the project regarding the constructed have appeared. Our work claims to show the change of the approach of projects with pre-existing subjects and that this has got a close relation to the incorporation of new concepts, techniques, tools and necessities that impress the cultural context, caused by the change of centuries. This assumption guides us to establish a parallelism between the forms of connection where that what is new is manifested between a commonly assumed (topical), generic and orthodox position, based on that what is visual and expressive in the last decades of the XXth century, and an emerging (heterotopical), extraordinary and heterodox reality that stimulates the immaterial and that seems to emerge with growing intensity in the XXIst century. If throughout the XXth century the project of architectural intervention was considered from the continuity and discontinuity of formal categories, marked by the expression of the pre-existing building, the new contemporary intervention, as a reactive device in the landscape and territory, demands an absolute continuity. No longer a visual, expressive or functional one but a morphological continuity of adaptation and change with its own territorial dynamics, under new game rules and unfolding new operative (projective) strategies from its own logic and contingency. 18 The aim of this research is to determine new forms of continuity and the possible logic of production that are expressed in the Architectural Intervention, trying to overcome the obviousness of its physical and visual relationship, at the beginning of this new century, as a result of the incorporation of the operative factor that the new architectural device unfolds. We think it is correct to maintain the connotative path that marks the name architectural intervention by bringing previous concepts and theorical approaches that have been evolving through time together. If the name suffers from a wider operational range because of its formulation, a quality that our contemporary logic provokes, the reformulation and consolidation of an interventional concept could be more suitable for our times, giving preference to a logical method from its own necessity and contingency. It seems that now time shapes the topics, it is no longer about materialising a certain time but about expressing the changes that its new temporality generates. Finally, our initial approach aspires to form a new way of reflection that permits us to understand the complex implications that the new architecture submits the pre-existing subject to, motivated by the incorporation of factors external to simple formal and expressive judgement, prevailing at the end of the XXth century. In the same way, our set road, as an alternative, permits the contemplation of possible research paths, considering that what is pre-existing as an area that spans the whole territory with emerging changing dynamics and, with them, their interventional logics.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La directiva europea sobre gestión de la seguridad de las infraestructuras viarias establece el requerimiento de implantar un procedimiento de clasificación de los tramos de la red en función del ahorro potencial en costes derivados de los accidentes en las carreteras que forman parte de la Red Transeuropea. El potencial de mejora de la seguridad debe reflejar la reducción en coste de accidentalidad que podría alcanzarse a través de medidas de mejora de la infraestructura y puede estimarse como la diferencia entre el coste por km de la accidentalidad del tramo durante el período considerado y el coste esperado para carreteras del mismo tipo que dispongan de las condiciones de seguridad alcanzables mediante actuaciones preventivas de mejora de las infraestructuras. En la ponencia se describe un procedimiento para mejorar la precisión de la estimación del potencial de reducción de la accidentalidad en los tramos de una red de carreteras a partir de la calibración de modelos lineales generalizados de estimación de la frecuencia de accidentes y de su combinación con la información registrada de accidentalidad aplicando un procedimiento bayesiano empírico.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La medicina ha evolucionado de forma que las imágenes digitales tienen un papel de gran relevancia para llevar a cabo el diagnóstico de enfermedades. Son muchos y de diversa naturaleza los problemas que pueden presentar el aparato fonador. Un paso previo para la caracterización de imágenes digitales de la laringe es la segmentación de las cuerdas vocales. Hasta el momento se han desarrollado algoritmos que permiten la segmentación de la glotis. El presente proyecto pretende avanzar un paso más en el estudio, procurando asimismo la segmentación de las cuerdas vocales. Para ello, es necesario aprovechar la información de color que ofrecen las imágenes, pues es lo que va a determinar la diferencia entre una región y otra de la imagen. En este proyecto se ha desarrollado un novedoso método de segmentación de imágenes en color estroboscópicas de la laringe basado en el crecimiento de regiones a partir de píxeles-semilla. Debido a los problemas que presentan las imágenes obtenidas por la técnica de la estroboscopia, para conseguir óptimos resultados de la segmentación es necesario someter a las imágenes a un preprocesado, que consiste en la eliminación de altos brillos y aplicación de un filtro de difusión anisotrópica. Tras el preprocesado, comienza el crecimiento de la región a partir de unas semillas que se obtienen previamente. La condición de inclusión de un píxel en la región se basa en un parámetro de tolerancia que se determina de forma adaptativa. Este parámetro comienza teniendo un valor muy bajo y va aumentando de forma recursiva hasta alcanzar una condición de parada. Esta condición se basa en el análisis de la distribución estadística de los píxeles dentro de la región que va creciendo. La última fase del proyecto consiste en la realización de las pruebas necesarias para verificar el funcionamiento del sistema diseñado, obteniéndose buenos resultados en la segmentación de la glotis y resultados esperanzadores para seguir mejorando el sistema para la segmentación de las cuerdas vocales. ABSTRACT Medicine has evolved so that digital images have a very important role to perform disease diagnosis. There are wide variety of problems that can present the vocal apparatus. A preliminary step for characterization of digital images of the larynx is the segmentation of the vocal folds. To date, some algorithms that allow the segmentation of the glottis have been developed. This project aims to go one step further in the study, also seeking the segmentation of the vocal folds. To do this, we must use the color information offered by images, since this is what will determine the difference between different regions in a picture. In this project a novel method of larynx color images segmentation based on region growing from a pixel seed is developed. Due to the problems of the images obtained by the technique of stroboscopy, to achieve optimal results of the segmentation is necessary a preprocessing of the images, which involves the removal of high brightness and applying an anisotropic diffusion filter. After this preprocessing, the growth of the region from previously obtained seeds starts. The condition for inclusion of a pixel in the region is based on a tolerance parameter, which is adaptively determined. It initially has a low value and this is recursively increased until a stop condition is reached. This condition is based on the analysis of the statistical distribution of the pixels within the grown region. The last phase of the project involves the necessary tests to verify the proper working of the designed system, obtaining very good results in the segmentation of the glottis and encouraging results to keep improving the system for the segmentation of the vocal folds.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El trigo blando (Triticum aestivum ssp vulgare L., AABBDD, 2n=6x=42) presenta propiedades viscoélasticas únicas debidas a la presencia en la harina de las prolaminas: gluteninas y gliadinas. Ambos tipos de proteínas forman parte de la red de gluten. Basándose en la movilidad en SDS-PAGE, las gluteninas se clasifican en dos grupos: gluteninas de alto peso molecular (HMW-GS) y gluteninas de bajo peso molecular (LMW-GS). Los genes que codifican para las HMW-GS se encuentran en tres loci del grupo 1 de cromosomas: Glu-A1, Glu-B1 y Glu-D1. Cada locus codifica para uno o dos polipéptidos o subunidades. La variación alélica de las HMW-GS es el principal determinante de de la calidad harino-panadera y ha sido ampliamente estudiado tanto a nivel de proteína como de ADN. El conocimiento de estas proteínas ha contribuido sustancialmente al progreso de los programas de mejora para la calidad del trigo. Comparadas con las HMW-GS, las LMW-GS forman una familia proteica mucho más compleja. La mayoría de los genes LMW se localizan en el grupo 1 de cromosomas en tres loci: Glu-A3, Glu-B3 y Glu-D3 que se encuentran estrechamente ligados a los loci que codifican para gliadinas. El número de copias de estos genes ha sido estimado entre 10-40 en trigo hexaploide, pero el número exacto aún se desconoce debido a la ausencia de un método eficiente para diferenciar los miembros de esta familia multigénica. La nomenclatura de los alelos LMW-GS por electroforesis convencional es complicada, y diferentes autores asignan distintos alelos a la misma variedad lo que dificulta aún más el estudio de esta compleja familia. El uso de marcadores moleculares para la discriminación de genes LMW, aunque es una tarea dificil, puede ser muy útil para los programas de mejora. El objetivo de este trabajo ha sido profundizar en la relación entre las gluteninas y la calidad panadera y desarrollar marcadores moleculares que permitan ayudar en la correcta clasificación de HMW-GS y LMW-GS. Se han obtenido dos poblaciones de líneas avanzadas F4:6 a partir de los cruzamientos entre las variedades ‘Tigre’ x ‘Gazul’ y ‘Fiel’ x ‘Taber’, seleccionándose para los análisis de calidad las líneas homogéneas para HMW-GS, LMW-GS y gliadinas. La determinación alélica de HMW-GS se llevó a cabo por SDS-PAGE, y se complementó con análisis moleculares, desarrollándose un nuevo marcador de PCR para diferenciar entre las subunidades Bx7 y Bx7*del locus Glu-B1. Resumen 2 La determinación alélica para LMW-GS se llevó a cabo mediante SDS-PAGE siguiendo distintas nomenclaturas y utilizando variedades testigo para cada alelo. El resultado no fue concluyente para el locus Glu-B3, así que se recurrió a marcadores moleculares. El ADN de los parentales y de los testigos se amplificó usando cebadores diseñados en regiones conservadas de los genes LMW y fue posteriormente analizado mediante electroforesis capilar. Los patrones de amplificación obtenidos fueron comparados entre las distintas muestras y permitieron establecer una relación con los alelos de LMW-GS. Con este método se pudo aclarar la determinación alélica de este locus para los cuatro parentales La calidad de la harina fue testada mediante porcentaje de contenido en proteína, prueba de sedimentación (SDSS) y alveógrafo de Chopin (parámetros P, L, P/L y W). Los valores fueron analizados en relación a la composición en gluteninas. Las líneas del cruzamiento ‘Fiel’ x ‘Taber’ mostraron una clara influencia del locus Glu-A3 en la variación de los valores de SDSS. Las líneas que llevaban el nuevo alelo Glu-A3b’ presentaron valores significativamente mayores que los de las líneas con el alelo Glu-A3f. En las líneas procedentes del cruzamiento ‘Tigre ’x ‘Gazul’, los loci Glu-B1 y Glu-B3 loci mostraron ambos influencia en los parámetros de calidad. Los resultados indicaron que: para los valores de SDSS y P, las líneas con las HMW-GS Bx7OE+By8 fueron significativamente mejores que las líneas con Bx17+By18; y las líneas que llevaban el alelo Glu-B3ac presentaban valores de P significativamente superiores que las líneas con el alelo Glu-B3ad y significativamente menores para los valores de L . El análisis de los valores de calidad en relación a los fragmentos LMW amplificados, reveló un efecto significativo entre dos fragmentos (2-616 y 2-636) con los valores de P. La presencia del fragmento 2-636 estaba asociada a valores de P mayores. Estos fragmentos fueron clonados y secuenciados, confirmándose que correspondían a genes del locus Glu-B3. El estudio de la secuencia reveló que la diferencia entre ambos se hallaba en algunos SNPs y en una deleción de 21 nucleótidos que en la proteína correspondería a un InDel de un heptapéptido en la región repetida de la proteína. En este trabajo, la utilización de líneas que difieren en el locus Glu-B3 ha permitido el análisis de la influencia de este locus (el peor caracterizado hasta la fecha) en la calidad panadera. Además, se ha validado el uso de marcadores moleculares en la determinación alélica de las LMW-GS y su relación con la calidad panadera. Summary 3 Bread wheat (Triticum aestivum ssp vulgare L., AABBDD, 2n=6x=42) flour has unique dough viscoelastic properties conferred by prolamins: glutenins and gliadins. Both types of proteins are cross-linked to form gluten polymers. On the basis of their mobility in SDS-PAGE, glutenins can be classified in two groups: high molecular weight glutenins (HMW-GS) and low molecular weight glutenins (LMW-GS). Genes encoding HMW-GS are located on group 1 chromosomes in three loci: Glu-A1, Glu-B1 and Glu-D1, each one encoding two polypeptides, named subunits. Allelic variation of HMW-GS is the most important determinant for bread making quality, and has been exhaustively studied at protein and DNA level. The knowledge of these proteins has substantially contributed to genetic improvement of bread quality in breeding programs. Compared to HMW-GS, LMW-GS are a much more complex family. Most genes encoded LMW-GS are located on group 1 chromosomes. Glu-A3, Glu-B3 and Glu-D3 loci are closely linked to the gliadin loci. The total gene copy number has been estimated to vary from 10–40 in hexaploid wheat. However, the exact copy number of LMW-GS genes is still unknown, mostly due to lack of efficient methods to distinguish members of this multigene family. Nomenclature of LMW-GS alleles is also unclear, and different authors can assign different alleles to the same variety increasing confusion in the study of this complex family. The use of molecular markers for the discrimination of LMW-GS genes might be very useful in breeding programs, but their wide application is not easy. The objective of this work is to gain insight into the relationship between glutenins and bread quality, and the developing of molecular markers that help in the allele classification of HMW-GS and LMW-GS. Two populations of advanced lines F4:6 were obtained from the cross ‘Tigre’ x ‘Gazul’ and ‘Fiel’ x ‘Taber’. Lines homogeneous for HMW-GS, LMW-GS and gliadins pattern were selected for quality analysis. The allele classification of HMW-GS was performed by SDS-PAGE, and then complemented by PCR analysis. A new PCR marker was developed to undoubtedly differentiate between two similar subunits from Glu-B1 locus, Bx7 and Bx7*. The allele classification of LMW-GS was initially performed by SDS-PAGE following different established nomenclatures and using standard varieties. The results were not completely concluding for Glu-B3 locus, so a molecular marker system was applied. DNA from parental lines and standard varieties was amplified using primers designed in conserved domains of LMW genes and analyzed by capillary electrophoresis. The pattern of amplification products obtained was compared among samples and related to the protein allele classification. It was possible to establish a correspondence between specific amplification products and almost all LMW alleles analyzed. With this method, the allele classification of the four parental lines was clarified. Flour quality of F4:6 advanced lines were tested by protein content, sedimentation test (SDSS) and alveograph (P, L, P/L and W). The values were analyzed in relation to the lines prolamin composition. In the ‘Fiel’ x ‘Taber’ population, Glu-A3 locus showed an influence in SDSS values. Lines carrying new allele Glu-A3b’, presented a significantly higher SDSS value than lines with Glu-A3f allele. In the ‘Tigre ’x ‘Gazul’ population, the Glu-B1 and Glu-B3 loci also showed an effect in quality parameters, in SDSS, and P and L values. Results indicated that: for SDSS and P, lines with Bx7OE+By8 were significantly better than lines with Bx17+By18; lines carrying Glu-B3ac allele had a significantly higher P values than Glu-B3ad allele values. lines with and lower L The analysis of quality parameters and amplified LMW fragments revealed a significant influence of two peaks (2-616 y 2-636) in P values. The presence of 2-636 peak gave higher P values than 2-616. These fragments had been cloned and sequenced and identified as Glu-B3 genes. The sequence analysis revealed that the molecular difference between them was some SNPs and a small deletion of 21 nucleotides that in the protein would produce an InDel of a heptapeptide in the repetitive region. In this work, the analysis of two crosses with differences in Glu-3 composition has made possible to study the influence of LMG-GS in quality parameters. Specifically, the influence of Glu-B3, the most interesting and less studied loci has been possible. The results have shown that Glu-B3 allele composition influences the alveograph parameter P (tenacity). The existence of different molecular variants of Glu-B3 alleles have been assessed by using a molecular marker method. This work supports the use of molecular approaches in the study of the very complex LMW-GS family, and validates their application in the analysis of advanced recombinant lines for quality studies.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El escenario dictado por los nuevos grados, exige a los docentes universitarios una reflexión sobre la relación entre su asignatura y el mundo profesional. En un panorama tan incierto como el actual, el fomento de determinadas competencias en el aula, como el aprendizaje a través del error, la responsabilidad por el trabajo realizado y la gestión de equipos, marcan la diferencia. Conscientes de esa responsabilidad, dos profesores de la Escuela de Arquitectura de la UEM, decidimos aunar esfuerzos y plantear conjuntamente un modelo de trabajo por etapas que barriera de forma profesional todo el proceso que requiere un proyecto. Dicho proyecto se centraría en un modelo cuyo desarrollo se ajustaba plenamente al programa de la asignatura. La primera fase arrancaría con el enunciado del ejercicio expuesto en formato de concurso. Cada alumno individualmente, debía desarrollar un modelo. En una segunda fase, una vez elegidas las propuestas ganadoras, se involucraría a toda la clase en la ejecución real de dichos modelos según los parámetros planteados en el ejercicio. Este simulacro de realidad en el ámbito universitario, contribuyó al entendimiento por parte de los alumnos de los criterios de evaluación competencial que dicta la titulación y nuestra responsabilidad frente a la sociedad.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El seguro de sequía en pastos en España se basa en la evaluación de un índice de vegetación sin la estimación de la producción de biomasa del pasto. El objetivo de este trabajo es estimar la producción de biomasa de los pastos mediante el índice de vegetación de la diferencia normalizada (NDVI). Desde 2010 a 2012 se realizó un seguimiento del pasto en dehesas de El Cubo de Don Sancho (Salamanca), Trujillo (Cáceres) y Pozoblanco (Córdoba). Se midió mensualmente la producción de biomasa del pasto y el NDVI obtenido del satélite DEIMOS-1 con una resolución de 22 m por 22 m. Con los datos de 2010 y 2011 se estableció la función de producción de biomasa del pasto (fresco y seco) a partir del NDVI, con un coeficiente de correlación r2 de 0,975 altamente significativo para el pasto fresco. Los datos obtenidos en 2012 se han utilizado para validar la función de producción. La validación de la función de producción entre los valores observados y simulados ha mostrado un coeficiente de correlación r2 de 0,734. Estos resultados sugieren que el NDVI puede ser un buen estimador de la producción de biomasa de los pastos en dehesas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La génesis de la forma arquitectónica se legitima como extensión del cuerpo en el movimiento que implica el dibujar generador, impreciso, aproximativo, emotivo, ensoñador? Cara a una pedagogía del dibujar para proyectar se argumenta la diferencia entre el dibujo de concepción y el dibujo de representación o presentación

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El artículo presenta los resultados de una investigación sobre las tendencias culturales en el abandono de la actividad física y el deporte entre la juventud española. El estudio ha sido financiado por el Consejo Superior de Deportes (CSD) (Ref. 007/UPB10/12), en el marco de la Convocatoria de Ayudas a Universidades, Públicas y Privadas, Entidades Públicas y Entidades sin Fin de Lucro, para la realización de Proyectos de Investigación, Estudios, Organización de Actos Científi cos y Publicaciones Periódicas en Áreas de Interés Deportivo. En él se analiza cómo la adopción de ese nuevo estilo de vida (sedentario) que está progresivamente afianzándose entre la juventud española puede infl uir de una manera u otra en la percepción subjetiva de la salud y el bienestar entre este grupo de población. Para comprobarlo, se han llevado a cabo un conjunto de grupos de discusión con jóvenes de distintos perfi les sociodemográfi cos y socioeconómicos a lo largo de distintas ciudades españolas,además de entrevistas individuales en profundidad a una muestra estratégica de jóvenes. Los resultados muestran que la juventud es un colectivo heterogéneo en las formas de expresión cultural y sus motivaciones, que sus situaciones sociales cambian con la diferencia de edad y sexo, que sus estilos de vida están condicionados por sus condiciones sociales, que el sedentarismo se ha incorporado como modelo de vida desde la propia estructura social y que, muchas veces, a la juventud se la ve y se le habla, pero no se le escucha, lo que representa en el ámbito deportivo un despropósito para lograr su incorporación efectiva de este colectivo en la práctica del deporte.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A través de los años las estructuras de hormigón armado han ido aumentando su cuota de mercado, sustituyendo a las estructuras de fábrica de piedra o ladrillo y restándole participación a las estructuras metálicas. Uno de los primeros problemas que surgieron al ejecutar las estructuras de hormigón armado, era cómo conectar una fase de una estructura de este tipo a una fase posterior o a una modificación posterior. Hasta los años 80-90 las conexiones de una fase de una estructura de hormigón armado, con otra posterior se hacían dejando en la primera fase placas de acero con garrotas embebidas en el hormigón fresco o barras grifadas recubiertas de poliestireno expandido. Una vez endurecido el hormigón se podían conectar nuevas barras, para la siguiente fase mediante soldadura a la placa de la superficie o enderezando las barras grifadas, para embeberlas en el hormigón fresco de la fase siguiente. Estos sistemas requerían conocer la existencia y alcance de la fase posterior antes de hormigonar la fase previa. Además requerían un replanteo muy exacto y complejo de los elementos de conexión. Otro problema existente en las estructuras de hormigón era la adherencia de un hormigón fresco a un hormigón endurecido previamente, ya que la superficie de contacto de ambos hormigones suponía un punto débil, con una adherencia baja. A partir de los años 80, la industria química de la construcción experimentó un gran avance en el desarrollo de productos capaces de generar una buena adherencia sobre el hormigón endurecido. Este avance tecnológico tenía aplicación tanto en la adherencia del hormigón fresco sobre el hormigón endurecido, como en la adherencia de barras post-instaladas en agujeros de hormigón endurecido. Este sistema se denominó “anclajes adherentes de barras de acero en hormigón endurecido”. La forma genérica de ejecutarlos es hacer una perforación cilíndrica en el soporte de hormigón, con una herramienta especifica como un taladro, limpiar la perforación, llenarla del material adherente y finalmente introducir la barra de acero. Los anclajes adherentes se dividen en anclajes cementosos y anclajes químicos, siendo estos últimos los más habituales, fiables, resistentes y fáciles de ejecutar. El uso del anclaje adherente de barras de acero en hormigón endurecido se ha extendido por todo el espectro productivo, siendo muy habitual tanto en construcción de obras de hormigón armado de obra civil y edificación, como en obras industriales, instalaciones o fijación de elementos. La ejecución de un anclaje de una barra de acero en hormigón endurecido depende de numerosas variables, que en su conjunto, o de forma aislada pueden afectar de forma notable a la resistencia del anclaje. Nos referimos a variables de los anclajes, que a menudo no se consideran tales como la dirección de la perforación, la máquina de perforación y el útil de perforación utilizado, la diferencia de diámetros entre el diámetro del taladro y la barra, el tipo de material de anclaje, la limpieza del taladro, la humedad del soporte, la altura del taladro, etc. La utilización en los últimos años de los hormigones Autocompactables, añade una variable adicional, que hasta ahora apenas ha sido estudiada. En línea con lo apuntado, la presente tesis doctoral tiene como objetivo principal el estudio de las condiciones de ejecución en la resistencia de los anclajes en hormigón convencional y autocompactable. Esta investigación se centra principalmente en la evaluación de la influencia de una serie de variables sobre la resistencia de los anclajes, tanto en hormigón convencional como en un hormigón autocompactable. Para este estudio ha sido necesaria la fabricación de dos soportes de hormigón sobre los cuales desarrollar los ensayos. Uno de los bloques se ha fabricado con hormigón convencional y el otro con hormigón autocompactable. En cada pieza de hormigón se han realizado 174 anclajes con barras de acero, variando los parámetros a estudiar, para obtener resultados de todas las variables consideradas. Los ensayos a realizar en ambos bloques son exactamente iguales, para poder comparar la diferencia entre un anclaje en un soporte de hormigón con vibrado convencional (HVC) y un hormigón autocompactante (HAC). De cada tipo de ensayo deseado se harán dos repeticiones en la misma pieza. El ensayo de arrancamiento de las barras se realizara con un gato hidráulico hueco, con un sistema de instrumentación de lectura y registro de datos en tiempo real. El análisis de los resultados, realizado con una potente herramienta estadística, ha permitido determinar y evaluar numéricamente la influencia de los variables consideradas en la resistencia de los anclajes realizados. Así mismo ha permitido diferenciar los resultados obtenidos en los hormigones convencionales y autocompactantes, tanto desde el punto de vista de la resistencia mecánica, como de las deformaciones sufridas en el arrancamiento. Se define la resistencia mecánica de un anclaje, como la fuerza desarrollada en la dirección de la barra, para hacer su arrancamiento del soporte. De la misma forma se considera desplazamiento, a la separación entre un punto fijo de la barra y otro del soporte, en la dirección de la barra. Dichos puntos se determinan cuando se ha terminado el anclaje, en la intersección de la superficie plana del soporte, con la barra. Las conclusiones obtenidas han permitido establecer qué variables afectan a la ejecución de los anclajes y en qué cuantía lo hacen, así como determinar la diferencia entre los anclajes en hormigón vibrado convencional y hormigón autocompactante, con resultados muy interesantes, que permiten valorar la influencia de dichas variables. Dentro de las conclusiones podemos destacar tres grupos, que denominaremos como de alta influencia, baja influencia y sin influencia. En todos los casos hay que hacer el estudio en términos de carga y de desplazamiento. Podemos considerar como de alta influencia, en términos de carga las variables de máquina de perforación y el material de anclaje. En términos de desplazamiento podemos considerar de alta influencia además de la máquina de perforación y el material de anclaje, el diámetro del taladro, así como la limpieza y humedad del soporte. Podemos considerar de baja influencia, en términos de carga las variables de tipo de hormigón, dirección de perforación, limpieza y humedad del soporte. En términos de desplazamiento podemos considerar de baja influencia el tipo de hormigón y la dirección de perforación. Podemos considerar en el apartado de “sin influencia”, en términos de carga las variables de diámetro de perforación y altura del taladro. En términos de desplazamiento podemos considerar como “sin influencia” la variable de altura del taladro. Podemos afirmar que las diferencias entre los valores de carga aumentan de forma muy importante en términos de desplazamiento. ABSTRACT Over the years the concrete structures have been increasing their market share, replacing the masonry structures of stone or brick and subtracting as well the participation of the metallic structures. One of the first problems encountered in the implementing of the reinforced concrete structures was connecting a phase structure of this type at a later stage or a subsequent amendment. Until the 80s and 90s the connections of one phase of a reinforced concrete structure with a subsequent first phase were done by leaving the steel plates embedded in the fresh concrete using hooks or bent bars coated with expanded polystyrene. Once the concrete had hardened new bars could be connected to the next stage by welding them to the surface plate or by straightening the bent bars to embed them in the fresh concrete of the next phase. These systems required a previous knowledge of the existence and scope of the subsequent phase before concreting the previous one. They also required a very precise and complex rethinking of the connecting elements. Another existing problem in the concrete structures was the adhesion of a fresh concrete to a previously hardened concrete, since the contact surface of both concretes leaded to a weak point with low adherence. Since the 80s, the chemicals construction industry experienced a breakthrough in the development of products that generate a good grip on the concrete. This technological advance had its application both in the grip on one hardened fresh concrete and in the adhesion of bar post-installed in holes of hardened concrete. This system was termed as adherent anchors of steel bars in hardened concrete. The generic way of executing this system is by firstly drilling a cylindrical hole in the concrete support using a specific tool such as a drill. Then, cleaning the bore and filling it with bonding material to lastly, introduce the steel bar. These adherent anchors are divided into cement and chemical anchors, the latter being the most common, reliable, durable and easy to run. The use of adhesive anchor of steel bars in hardened concrete has spread across the production spectrum turning itself into a very common solution in both construction of reinforced concrete civil engineering and construction, and industrial works, installations and fixing elements as well. The execution of an anchor of a steel bar in hardened concrete depends on numerous variables which together or as a single solution may significantly affect the strength of the anchor. We are referring to variables of anchors which are often not considered, such as the diameter difference between the rod and the bore, the drilling system, cleansing of the drill, type of anchor material, the moisture of the substrate, the direction of the drill, the drill’s height, etc. During recent years, the emergence of self-compacting concrete adds an additional variable which has hardly been studied so far. According to mentioned this thesis aims to study the main performance conditions in the resistance of conventional and self-compacting concrete anchors. This research is primarily focused on the evaluation of the influence of several variables on the strength of the anchoring, both in conventional concrete and self-compacting concrete. In order to complete this study it has been required the manufacture of two concrete supports on which to develop the tests. One of the blocks has been manufactured with conventional concrete and the other with self-compacting concrete. A total of 174 steel bar anchors have been made in each one of the concrete pieces varying the studied parameters in order to obtain results for all variables considered. The tests to be performed on both blocks are exactly the same in order to compare the difference between an anchor on a stand with vibrated concrete (HVC) and a self-compacting concrete (SCC). Each type of test required two repetitions in the same piece. The pulling test of the bars was made with a hollow jack and with an instrumentation system for reading and recording data in real time. The use of a powerful statistical tool in the analysis of the results allowed to numerically determine and evaluate the influence of the variables considered in the resistance of the anchors made. It has likewise enabled to differentiate the results obtained in the self-compacting and conventional concretes, from both the outlook of the mechanical strength and the deformations undergone by uprooting. The mechanical strength of an anchor is defined as the strength undergone in a direction of the bar to uproot it from the support. Likewise, the movement is defined as the separation between a fixed point of the bar and a fixed point from the support considering the direction of the bar. These points are only determined once the anchor is finished, with the bar, at the intersection in the flat surface of the support. The conclusions obtained have established which variables affect the execution of the anchors and in what quantity. They have also permitted to determine the difference between the anchors in vibrated concrete and selfcompacting concrete with very interesting results that also allow to assess the influence of these mentioned variables. Three groups are highlighted among the conclusions called high influence, low influence and no influence. In every case is necessary to perform the study in terms of loading and movement. In terms of loading, there are considered as high influence two variables: drilling machinery and anchorage material. In terms of movement, there are considered as high influence the drilling diameter and the cleaning and moisture of the support, besides the drilling machinery and the anchorage material. Variables such as type of concrete, drilling direction and cleaning and moisture of the support are considered of low influence in terms of load. In terms of movement, the type of concrete and the direction of the drilling are considered variables of low influence. Within the no influence section in terms of loading, there are included the diameter of the drilling and the height of the drill. In terms of loading, the height of the drill is considered as a no influence variable. We can affirm that the differences among the loading values increase significantly in terms of movement.