772 resultados para Tópica
Resumo:
A primera vista, Quevedo no parece muy amigo de las máquinas de su tiempo. En una pieza de artillería, por ejemplo, ve una invención típica de la ingeniería moderna que amenaza no solamente a la creación divina, sino también a la sociedad estamental. En el caso de la pirotecnia, sin embargo, su actitud hacia la técnica parece más matizada, como se puede ver en su soneto moral sobre el cohete. Si por un lado este artificio se opone a la naturaleza y engaña al hombre, se presenta por otra parte como un equivalente asombroso del texto poético.
Resumo:
En el presente trabajo se propone delimitar el hecho psicosomático en tanto fenómeno clínico, y mediante una explicación metapsicológica poder pensar su determinación, tanto como su abordaje terapéutico en el marco de la transferencia. Para ello se han escogido por un lado, algunos desarrollos teóricos de Kreisler, Fain y Soulé. Una segunda línea conceptual tenida en cuenta, comprende los aportes de Silvia Bleichmar, que en filiación teórica con Laplanche, posibilitan otra lectura de las manifestaciones psicosomáticas a partir del modo en que considera las relaciones entre psique y soma, como también las cualidades de la materialidad psíquica y sus enclaves dinámicos, tópicos y económicos.La explicación metapsicológica que ofrece Bleichmar constituye un aporte imprescindible para comprender la especificidad de estas manifestaciones y para implementar intervenciones clínicas adecuadas. Kreisler circunscribe el hecho psicosomático. Demuestra su existencia en el niño. Define como objeto de la clínica psicosomática a las enfermedades físicas en cuyo determinismo o evolución influyen factores psíquicos o conflictivos. Sustenta la concepción psicopatogénica de Fain elaboradas en colaboración con los psicosomatistas del Instituto Psicoanalítico de París, donde los trastornos somáticos son el resultado de situaciones conflictivas sin elaboración mental. Destaca la tendencia de ciertos psicoanalistas de asimilar los trastornos psicosomáticos a la neurosis, otorgándoles un sentido simbólico. Relaciona el stress con el trauma y a este con la falla de los mecanismos mentales de defensa. Desde la perspectiva teórica de Laplanche y Silvia Bleichmar, se sustenta el concepto de freudiano de pulsión, por considerarlo fundamental para situar las relaciones entre lo somático y lo psíquico. Silvia Bleichmar, destaca la importancia de rescatar lo pulsional como materialidad representacional, en sus nexos con la excitabilidad somática. Las relaciones entre lo psíquico y lo somático, parecen organizarse en tanto el ser biológico es condición de posibilidad para la materialidad psíquica, pero quepor si solo no garantiza la vida representacional. Entender las relaciones entre la materialidad biológica y la representacional de este modo, quiebra todo monismo y se inscribe en una concepción epistemológica de la discontinuidad entre dichas materialidades. De este modo los intercambios directos y simétricos entre psique y soma se hallan imposibilitados. Silvia Bleichmar caracteriza lo traumático como aquello que en el momento de su ingreso en el psiquismo, no encuentra modos de simbolización. Sostiene que el aparato psíquico se encuentra abierto a lo real, que se constituye a partir de inscripciones provenientes del exterior al sujeto, a partir de la decodificación de la lengua, y de inscripciones no lenguajeras. Las inscripciones no son todas del mismo orden, ni ingresan al psiquismo de la misma manera, ya que pueden hacerlo en momentos de diversas potencialidades simbólicas. Diferencia lo arcaico de originario, lo arcaico sehallaría inscripto pero no articulado a ninguno de los dos sistemas de la tópica inaugurada por la represión originaria. Se trataría de inscripciones que no están fijadas a ningún sistema psíquico, que conservan su carga energética puesto que la represión no ha operado sobre ellas. Diferencia entonces el síntoma neurótico en sentido estricto del trastorno. Este último correspondería a manifestaciones sintomáticas en sentido amplio relacionadas con una falla en la instalación de la represión originaria, serían manifestaciones psíquicas que no derivan de un conflicto intersistémico. Lo psicosomático se emplazaría en este orden de fenómenos, diferentes del síntoma neurótico. Los trastornos psicosomáticos carecerían de un sentido inconciente; responderían a una dificultad de mentalización del afecto, de darle curso a la angustia y a la trasmutación en descarga corporal. Bleichmar lo caracteriza como un exceso no significable. Considera que son el resultado de una incapacidad de simbolización limitada a ciertas problemáticas angustiosas y no una incapacidad general en la simbolización del sujeto. Respecto al modo de intervención clínica frente a materialidad psíquica del orden de lo arcaico, las simbolizaciones de transición son intervenciones capaces de capturar restos de lo real que insiste en formaciones sintomáticas en sentido amplio (trastornos), que promueven la apropiación representacional de aquello que no puede ser capturado por la libre asociación. Mediante este modo de intervención se ofrece una trama simbólica que posibilite articular las simbolizaciones faltantes. Postula un funcionamiento del psiquismo a dominancias estructurales y no como una homogeneidad. Será en función de la dominancia que esté operando, la elección de las intervenciones en el marco de la transferencia
Resumo:
El propósito de este trabajo es analizar la novela El portero de Reinaldo Arenas a la luz de ciertos aspectos de su biografía, en particular de lucha permanente por el derecho a vivir en libertad. Nos detenemos aquí en una figura típica que reaparece con insistencia en sus relatos: un hombre que sale, se fuga, salta, rompe, abre alguna puerta, busca otro espacio, no descansa nunca. Como una especie de matriz, esta figura lo representa a él, al autor, como su máscara; es el mito que crea de sí mismo y que reproduce en sus personajes
Resumo:
En este trabajo presentamos algunos nudos de la discusión que,con relación a las categorías del título, se ha venido gestando en el marco de una tradición de pensamiento que articula el legado del marxismo con el psicoanálisis. En particular exploramos el desarrollo de estas nocionesen la obra de Ernesto Laclau, considerando sus implicancias tanto para una teoría de la discursividad como para la filosofía política. La trayectoria de Laclau reconfigura las bases conceptuales de la hegemonía y de laideología. Laclau se desplaza desde una posición cercana al althusserianismo -recurriendo a la deconstrucción, a la arqueología foucaultiana y alpsicoanálisis lacaniano - hacia un punto de vista que él mismo describe como postmarxista. Su concepción del discurso, en ese marco, plantea unarenovación del concepto de hegemonía, abandonando la tópica marxista de base y superestructura.
Resumo:
Contaminated soil reuse was investigated, with higher profusion, throughout the early 90’s, coinciding with the 1991 Gulf War, when efforts to amend large crude oil releases began in geotechnical assessment of contaminated soils. Isolated works referring to geotechnical testing with hydrocarbon ground contaminants are described in the state-of-the-art, which have been extended to other type of contaminated soil references. Contaminated soils by light non-aquous phase liquids (LNAPL) bearing capacity reduction has been previously investigated from a forensic point of view. To date, all the research works have been published based on the assumption of constant contaminant saturation for the entire soil mass. In contrast, the actual LNAPLs distribution plumes exhibit complex flow patterns which are subject to physical and chemical changes with time and distance travelled from the release source. This aspect has been considered along the present text. A typical Madrid arkosic soil formation is commonly known as Miga sand. Geotechnical tests have been carried out, with Miga sand specimens, in incremental series of LNAPL concentrations in order to observe the soil engineering properties variation due to a contamination increase. Results are discussed in relation with previous studies and as a matter of fact, soil mechanics parameters change in the presence of LNAPL, showing different tendencies according to each test and depending on the LNAPL content, as well as to the specimen’s initially planned relative density, dense or loose. Geotechnical practical implications are also commented on and analyzed. Variation on geotechnical properties may occur only within the external contour of contamination distribution plume. This scope has motivated the author to develop a physical model based on transparent soil technology. The model aims to reproduce the distribution of LNAPL into the ground due to an accidental release from a storage facility. Preliminary results indicate that the model is a potentially complementary tool for hydrogeological applications, site-characterization and remediation treatment testing within the framework of soil pollution events. A description of the test setup of an innovative three dimensional physical model for the flow of two or more phases, in porous media, is presented herein, along with a summary of the advantages, limitations and future applications for modeling with transparent material. En los primeros años de la década de los años 90, del siglo pasado, coincidiendo con la Guerra del Golfo en 1991, se investigó intensamente sobre la reutilización de suelos afectados por grandes volúmenes de vertidos de crudo, fomentándose la evaluación geotécnica de los suelos contaminados. Se describen, en el estado del arte de esta tésis, una serie de trabajos aislados en relación con la caracterización geotécnica de suelos contaminados con hidrocarburos, descripción ampliada mediante referencias relacionadas con otros tipos de contaminación de suelos. Existen estudios previos de patología de cimentaciones que analizan la reducción de la capacidad portante de suelos contaminados por hidrocarburos líquidos ligeros en fase no acuosa (acrónimo en inglés: LNAPL de “Liquid Non-Aquous Phase Liquid”). A fecha de redacción de la tesis, todas las publicaciones anteriores estaban basadas en la consideración de una saturación del contaminante constante en toda la extensión del terreno de cimentación. La distribución real de las plumas de contaminante muestra, por el contrario, complejas trayectorias de flujo que están sujetas a cambios físico-químicos en función del tiempo y la distancia recorrida desde su origen de vertido. Éste aspecto ha sido considerado y tratado en el presente texto. La arena de Miga es una formación geológica típica de Madrid. En el ámbito de esta tesis se han desarrollado ensayos geotécnicos con series de muestras de arena de Miga contaminadas con distintas concentraciones de LNAPL con el objeto de estimar la variación de sus propiedades geotécnicas debido a un incremento de contaminación. Se ha realizado una evaluación de resultados de los ensayos en comparación con otros estudios previamente analizados, resultando que las propiedades mecánicas del suelo, efectivamente, varían en función del contenido de LNAPL y de la densidad relativa con la que se prepare la muestra, densa o floja. Se analizan y comentan las implicaciones de carácter práctico que supone la mencionada variación de propiedades geotécnicas. El autor ha desarrollado un modelo físico basado en la tecnología de suelos transparentes, considerando que las variaciones de propiedades geotécnicas únicamente deben producirse en el ámbito interior del contorno de la pluma contaminante. El objeto del modelo es el de reproducir la distribución de un LNAPL en un terreno dado, causada por el vertido accidental de una instalación de almecenamiento de combustible. Los resultados preliminares indican que el modelo podría emplearse como una herramienta complementaria para el estudio de eventos contaminantes, permitiendo el desarrollo de aplicaciones de carácter hidrogeológico, caracterización de suelos contaminados y experimentación de tratamientos de remediación. Como aportación de carácter innovadora, se presenta y describe un modelo físico tridimensional de flujo de dos o más fases a través de un medio poroso transparente, analizándose sus ventajas e inconvenientes así como sus limitaciones y futuras aplicaciones.
Resumo:
La variabilidad de la demanda a lo largo de las horas del día y las estaciones del año, junto a la generación aleatoria de la mayoría de las fuentes de energía renovable, sitúan al sistema eléctrico ante un nuevo y fascinante paradigma; ello resulta especialmente relevante en redes relativamente aisladas y con una notable penetración de los parques eólicos, como sucede actualmente en España. La figura 1 muestra una curva típica, con dos puntas que reflejan sobretodo las necesidades de climatización durante las horas cálidas del estío e iluminación en los días cortos del invierno.
Resumo:
La sequía es un término meteorológico que significa un periodo seco prolongado. El objetivo de este trabajo es caracterizar el fenómeno estacional de la sequía en pastos anuales de dehesa. Durante 2010 y 2011 se realizó un seguimiento del pasto herbáceo en El Cubo de Don Sancho (Salamanca), Trujillo (Cáceres) y Pozoblanco (Córdoba). Se midió la producción herbácea y se caracterizó botánicamente cada zona, además se midió mensualmente la variación del contenido de agua en el suelo mediante un TDR y la precipitación. Los datos de campo de precipitación, humedad del suelo y cantidad de pasto en pie, y los datos estimados de evaporación se han comparado con la evolución del índice de vegetación para seguros de sequía por teledetección determinado por Agroseguro. Los resultados mostraron un retardo entre la acumulación de agua en el suelo y el crecimiento del pasto, que se transfiere a las medidas del índice de vegetación por teledetección. En los dos años de estudio los periodos de sequía sucedieron al inicio de crecimiento, justo después de la sequía estacional típica del verano.
Resumo:
Con el presente trabajo no se pretende resolver la forma de colocar a esta típica industria forestal en el lugar que le corresponde por su importancia nacional; es necesario para esto una experimentación continua y paralela de campo y laboratorio, para la que no puede fijarse limitación de tiempo. Es un filón sin explotar, que en los comienzos no dará sino trabajo, pero que una vez en marcha lo devolverá convertido en riqueza. Aventurado es dar soluciones a problemas sin tener con ellos el tiempo de contacto que reclama la más elemental prudencia; por ésto al hacer la critica de los métodos seguidos hasta el día, tanto forestal como industrialmente, no debe de entenderse que se pretende poner cátedra en asunto en que, hasta el momento, tan poco se ha hecho. Leáse, en cuantas líneas pueda creerse esto, el deseo de que el progreso abra brecha en las murallas que parece que rodean a la industria espartera, en tantos de sus aspectos. Sirva esto de explicación para cuantas veces en estas páginas hablemos de modificaciones o transformaciones en lo que hemos visto en nuestras visitas a atochares y talleres, en los días de nuestra corta estancia en Cieza. Debe señalarse la extrañeza producida al ver que por algunos se cita como producción de una hectárea de atochar la cantidad de ¡500 a 1000 kilogramos de esparto seco!. Podemos asegurar que al menos en la zona por nosotros visitada, que es la más importante de España, no se llega a cifras ni aproximadas a ésas, como se verá más adelante. Se ha estudiado no sólo el atochar del monte público, número 48 del Catálogo, “Solana y Umbría del Cabezo del Asno”, señalado por la Comisión de Residencias de la Escuela Especial de Ingenieros de Montes, sino todos los que por estar en lugar accesible no suponían un sacrificio grande, del escaso tiempo de que se disponía: atochares de las Herradas de la Sierra del Oro, Puerto de la Mala Mujer, carretera de Jumilla, Sierra de Ascoy, Sierra de las Cabras, etc. etc. con un total de mas de 250 kilómetros recorridos por carreteras y caminos de montes.
Resumo:
Una de mis muchas preocupaciones en el campo de la enseñanza, es y será, el sistema o procedimiento de evaluación a utilizar. Las observaciones efectuadas en mi localidad (Salamanca) me llevaron a la conclusión de que en un alto porcentaje de centros escolares, los profesores, guiados por unos criterios siempre personales, calificaban a sus alumnos con métodos totalmente subjetivos. Continuando con las observaciones a nivel provincial, los hechos son más evidentes, estamos acostumbrados a administrar programas y actividades, cuya evaluación se basa en la asistencia, la victoria o la derrota, etc. En octubre de 1977, el Consejo Superior de Deportes a través de su Delegación Provincial en Salamanca, inició un Plan Experimental de Promoción Físico-Deportiva Escolar, con la participación de más de medio centenar de centros de E.G.B. correspondiente a la capital y 11 localidades de la provincia. Se me propuso la dirección del mismo y con la colaboración de otros compañeros, comenzamos a elaborar su administración. Fué entonces, cuando al abordar nuevamente el problema de la evaluación, nos propusimos en un primer intento, que fuera lo más objetiva posible, para lo cual determinamos las medidas que teníamos que efectuar de cara a la consecución de los objetivos prefijados. La falta de personas especializadas y las dudas en cuanto a la autenticidad y objetividad en la recogida de los datos, nos obligó a desestimar las muestras recogidas y a plantearnos nuevamente el problema. En septiembre de 1979, después de estudiados todos los aspectos que más nos interesaban para la buena marcha del trabajo, nos dedicamos fundamentalmente a la formación y preparación del grupo de jueces (ocho personas especializadas), al objeto de conseguir una uniformidad de criterios a la hora de la aplicación de las pruebas. La finalidad del trabajo es establecer "standars" de la población escolar de los colegios nacionales de Educación General Básica de la localidad de Salamanca, en las edades comprendidas entre los 11 y 14 años, en forma de tablas de percentiles, basados en la edad y sexo, de forma que en el futuro nos sirvan: a) Como baremo calificador, ya que - hay que establecer con justeza los niveles a alcanzar. - nos podemos fiar de la justa interpretación que se dé a las respuestas del examinando, ya que son elementos de la máxima objetividad -el cronómetro y el metro-, los que interpretan y valoran dichas respuestas. b) Como elemento básico, para las futuras planificaciones del mencionado Plan Experimental. Al valorar el conjunto de una serie de pruebas motoras, los profesores, tendrán un índice determinador, que les servirá como fundamento de trabajo a desarrollar en el futuro. c) Como estudio comparativo entre otras poblaciones. En el Capitulo I, expongo brevemente, los fundamentos teóricos sobre el estudio de la medida y evaluación de la aptitud física, pues lo considero imprescindible para un buen enfoque del trabajo en general. El Capitulo II, se refiere a la metodología empleada: determinación de la muestra, justificación de la batería de pruebas empleada, instrumentos de medida y técnicas de aplicación. Los resultados de las medidas obtenidas, los hemos elaborado estadísticamente con los siguientes criterios: 1) trabajar con datos agrupados. 2) la tabulación, la hemos realizado formando el mayor número de intervalos posible, al objeto de únicamente confeccionar una tabla de frecuencias para cada prueba en las cuatro edades. Las medidas estadísticas que hemos obtenido han sido: Medidas de tendencia central (media); Medidas de dispersión (desviación típica); Al objeto de que los resultados estén más claros, hemos realizado las gráficas de distribución de frecuencias, para cada prueba y edad. En el Capitulo IV, hacemos un análisis de los resultados obtenidos por prueba y edad, al mismo tiempo que los compara con datos correspondientes a niños de las mismas edades de muestras obtenidas en otros países.
Resumo:
Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.
Resumo:
Tradicionalmente, la fabricación de materiales compuestos de altas prestaciones se lleva a cabo en autoclave mediante la consolidación de preimpregnados a través de la aplicación simultánea de altas presiones y temperatura. Las elevadas presiones empleadas en autoclave reducen la porosidad de los componentes garantizando unas buenas propiedades mecánicas. Sin embargo, este sistema de fabricación conlleva tiempos de producción largos y grandes inversiones en equipamiento lo que restringe su aplicación a otros sectores alejados del sector aeronáutico. Este hecho ha generado una creciente demanda de sistemas de fabricación alternativos al autoclave. Aunque estos sistemas son capaces de reducir los tiempos de producción y el gasto energético, por lo general, dan lugar a materiales con menores prestaciones mecánicas debido a que se reduce la compactación del material al aplicar presiones mas bajas y, por tanto, la fracción volumétrica de fibras, y disminuye el control de la porosidad durante el proceso. Los modelos numéricos existentes permiten conocer los fundamentos de los mecanismos de crecimiento de poros durante la fabricación de materiales compuestos de matriz polimérica mediante autoclave. Dichos modelos analizan el comportamiento de pequeños poros esféricos embebidos en una resina viscosa. Su validez no ha sido probada, sin embargo, para la morfología típica observada en materiales compuestos fabricados fuera de autoclave, consistente en poros cilíndricos y alargados embebidos en resina y rodeados de fibras continuas. Por otro lado, aunque existe una clara evidencia experimental del efecto pernicioso de la porosidad en las prestaciones mecánicas de los materiales compuestos, no existe información detallada sobre la influencia de las condiciones de procesado en la forma, fracción volumétrica y distribución espacial de los poros en los materiales compuestos. Las técnicas de análisis convencionales para la caracterización microestructural de los materiales compuestos proporcionan información en dos dimensiones (2D) (microscopía óptica y electrónica, radiografía de rayos X, ultrasonidos, emisión acústica) y sólo algunas son adecuadas para el análisis de la porosidad. En esta tesis, se ha analizado el efecto de ciclo de curado en el desarrollo de los poros durante la consolidación de preimpregnados Hexply AS4/8552 a bajas presiones mediante moldeo por compresión, en paneles unidireccionales y multiaxiales utilizando tres ciclos de curado diferentes. Dichos ciclos fueron cuidadosamente diseñados de acuerdo a la caracterización térmica y reológica de los preimpregnados. La fracción volumétrica de poros, su forma y distribución espacial se analizaron en detalle mediante tomografía de rayos X. Esta técnica no destructiva ha demostrado su capacidad para analizar la microestructura de materiales compuestos. Se observó, que la porosidad depende en gran medida de la evolución de la viscosidad dinámica a lo largo del ciclo y que la mayoría de la porosidad inicial procedía del aire atrapado durante el apilamiento de las láminas de preimpregnado. En el caso de los laminados multiaxiales, la porosidad también se vio afectada por la secuencia de apilamiento. En general, los poros tenían forma cilíndrica y se estaban orientados en la dirección de las fibras. Además, la proyección de la población de poros a lo largo de la dirección de la fibra reveló la existencia de una estructura celular de un diámetro aproximado de 1 mm. Las paredes de las celdas correspondían con regiones con mayor densidad de fibra mientras que los poros se concentraban en el interior de las celdas. Esta distribución de la porosidad es el resultado de una consolidación no homogenea. Toda esta información es crítica a la hora de optimizar las condiciones de procesado y proporcionar datos de partida para desarrollar herramientas de simulación de los procesos de fabricación de materiales compuestos fuera de autoclave. Adicionalmente, se determinaron ciertas propiedades mecánicas dependientes de la matriz termoestable con objeto de establecer la relación entre condiciones de procesado y las prestaciones mecánicas. En el caso de los laminados unidireccionales, la resistencia interlaminar depende de la porosidad para fracciones volumétricas de poros superiores 1%. Las mismas tendencias se observaron en el caso de GIIc mientras GIc no se vio afectada por la porosidad. En el caso de los laminados multiaxiales se evaluó la influencia de la porosidad en la resistencia a compresión, la resistencia a impacto a baja velocidad y la resistencia a copresión después de impacto. La resistencia a compresión se redujo con el contenido en poros, pero éste no influyó significativamente en la resistencia a compresión despues de impacto ya que quedó enmascarada por otros factores como la secuencia de apilamiento o la magnitud del daño generado tras el impacto. Finalmente, el efecto de las condiciones de fabricación en el proceso de compactación mediante moldeo por compresión en laminados unidireccionales fue simulado mediante el método de los elementos finitos en una primera aproximación para simular la fabricación de materiales compuestos fuera de autoclave. Los parámetros del modelo se obtuvieron mediante experimentos térmicos y reológicos del preimpregnado Hexply AS4/8552. Los resultados obtenidos en la predicción de la reducción de espesor durante el proceso de consolidación concordaron razonablemente con los resultados experimentales. Manufacturing of high performance polymer-matrix composites is normally carried out by means of autoclave using prepreg tapes stacked and consolidated under the simultaneous application of pressure and temperature. High autoclave pressures reduce the porosity in the laminate and ensure excellent mechanical properties. However, this manufacturing route is expensive in terms of capital investment and processing time, hindering its application in many industrial sectors. This fact has driven the demand of alternative out-of-autoclave processing routes. These techniques claim to produce composite parts faster and at lower cost but the mechanical performance is also reduced due to the lower fiber content and to the higher porosity. Corrient numerical models are able to simulate the mechanisms of void growth in polymer-matrix composites processed in autoclave. However these models are restricted to small spherical voids surrounded by a viscous resin. Their validity is not proved for long cylindrical voids in a viscous matrix surrounded by aligned fibers, the standard morphology observed in out-of-autoclave composites. In addition, there is an experimental evidence of the detrimental effect of voids on the mechanical performance of composites but, there is detailed information regarding the influence of curing conditions on the actual volume fraction, shape and spatial distribution of voids within the laminate. The standard techniques of microstructural characterization of composites (optical or electron microscopy, X-ray radiography, ultrasonics) provide information in two dimensions and are not always suitable to determine the porosity or void population. Moreover, they can not provide 3D information. The effect of curing cycle on the development of voids during consolidation of AS4/8552 prepregs at low pressure by compression molding was studied in unidirectional and multiaxial panels. They were manufactured using three different curing cycles carefully designed following the rheological and thermal analysis of the raw prepregs. The void volume fraction, shape and spatial distribution were analyzed in detail by means of X-ray computed microtomography, which has demonstrated its potential for analyzing the microstructural features of composites. It was demonstrated that the final void volume fraction depended on the evolution of the dynamic viscosity throughout the cycle. Most of the initial voids were the result of air entrapment and wrinkles created during lay-up. Differences in the final void volume fraction depended on the processing conditions for unidirectional and multiaxial panels. Voids were rod-like shaped and were oriented parallel to the fibers and concentrated in channels along the fiber orientation. X-ray computer tomography analysis of voids along the fiber direction showed a cellular structure with an approximate cell diameter of 1 mm. The cell walls were fiber-rich regions and porosity was localized at the center of the cells. This porosity distribution within the laminate was the result of inhomogeneous consolidation. This information is critical to optimize processing parameters and to provide inputs for virtual testing and virtual processing tools. In addition, the matrix-controlled mechanical properties of the panels were measured in order to establish the relationship between processing conditions and mechanical performance. The interlaminar shear strength (ILSS) and the interlaminar toughness (GIc and GIIc) were selected to evaluate the effect of porosity on the mechanical performance of unidirectional panels. The ILSS was strongly affected by the porosity when the void contents was higher than 1%. The same trends were observed in the case of GIIc while GIc was insensitive to the void volume fraction. Additionally, the mechanical performance of multiaxial panels in compression, low velocity impact and compression after impact (CAI) was measured to address the effect of processing conditions. The compressive strength decreased with porosity and ply-clustering. However, the porosity did not influence the impact resistance and the coompression after impact strength because the effect of porosity was masked by other factors as the damage due to impact or the laminate lay-up. Finally, the effect of the processing conditions on the compaction behavior of unidirectional AS4/8552 panels manufactured by compression moulding was simulated using the finite element method, as a first approximation to more complex and accurate models for out-of autoclave curing and consolidation of composite laminates. The model parameters were obtained from rheological and thermo-mechanical experiments carried out in raw prepreg samples. The predictions of the thickness change during consolidation were in reasonable agreement with the experimental results.
Resumo:
Los cambios percibidos hacia finales del siglo XX y a principios del nuevo milenio, nos ha mostrado que la crisis cultural de la que somos participes refleja también una crisis de los modelos universales. Nuestra situación contemporánea, parece indicar que ya no es posible formular un sistema estético para atribuirle una vigencia universal e intemporal más allá de su estricta eficacia puntual. La referencia organizada, delimitada, invariable y específica que ofrecía cualquier emplazamiento, en tanto preexistencia, reflejaba una jerarquía del sistema formal basado en lo extensivo: la medida, las normas, el movimiento, el tiempo, la modulación, los códigos y las reglas. Sin embargo, actualmente, algunos aspectos que permanecían latentes sobre lo construido, emergen bajo connotaciones intensivas, transgrediendo la simple manifestación visual y expresiva, para centrase en las propiedades del comportamiento de la materia y la energía como determinantes de un proceso de adaptación en el entorno. A lo largo del todo el siglo XX, el desarrollo de la relación del proyecto sobre lo construido ha sido abordado, casi en exclusiva, entre acciones de preservación o intervención. Ambas perspectivas, manifestaban esfuerzos por articular un pensamiento que diera una consistencia teórica, como soporte para la producción de la acción aditiva. No obstante, en las últimas décadas de finales de siglo, la teoría arquitectónica terminó por incluir pensamientos de otros campos que parecen contaminar la visión sesgada que nos refería lo construido. Todo este entramado conceptual previo, aglomeraba valiosos intentos por dar contenido a una teoría que pudiese ser entendida desde una sola posición argumental. Es así, que en 1979 Ignasi Solá-Morales integró todas las imprecisiones que referían una actuación sobre una arquitectura existente, bajo el termino de “intervención”, el cual fue argumentado en dos sentidos: El primero referido a cualquier tipo de actuación que se puede hacer en un edificio, desde la defensa, preservación, conservación, reutilización, y demás acciones. Se trata de un ámbito donde permanece latente el sentido de intensidad, como factor común de entendimiento de una misma acción. En segundo lugar, más restringido, la idea de intervención se erige como el acto crítico a las ideas anteriores. Ambos representan en definitiva, formas de interpretación de un nuevo discurso. “Una intervención, es tanto como intentar que el edificio vuelva a decir algo o lo diga en una determinada dirección”. A mediados de 1985, motivado por la corriente de revisión historiográfica y la preocupación del deterioro de los centros históricos que recorría toda Europa, Solá-Morales se propone reflexionar sobre “la relación” entre una intervención de nueva arquitectura y la arquitectura previamente existente. Relación condicionada estrictamente bajo consideraciones lingüísticas, a su entender, en sintonía con toda la producción arquitectónica de todo el siglo XX. Del Contraste a la Analogía, resumirá las transformaciones en la concepción discursiva de la intervención arquitectónica, como un fenómeno cambiante en función de los valores culturales, pero a su vez, mostrando una clara tendencia dialógica entres dos categorías formales: El Contraste, enfatizando las posibilidades de la novedad y la diferencia; y por otro lado la emergente Analogía, como una nueva sensibilidad de interpretación del edificio antiguo, donde la semejanza y la diversidad se manifiestan simultáneamente. El aporte reflexivo de los escritos de Solá-Morales podría ser definitivo, si en las últimas décadas antes del fin de siglo, no se hubiesen percibido ciertos cambios sobre la continuidad de la expresión lingüística que fomentaba la arquitectura, hacia una especie de hipertrofia figurativa. Entre muchos argumentos: La disolución de la consistencia compositiva y el estilo unitario, la incorporación volumétrica del proyecto como dispositivo reactivo, y el cambio de visión desde lo retrospectivo hacia lo prospectivo que sugiere la nueva conservación. En este contexto de desintegración, el proyecto, en tanto incorporación o añadido sobre un edificio construido, deja de ser considerado como un apéndice volumétrico subordinado por la reglas compositivas y formales de lo antiguo, para ser considerado como un organismo de orden reactivo, que produce en el soporte existente una alteración en su conformación estructural y sistémica. La extensión, antes espacial, se considera ahora una extensión sensorial y morfológica con la implementación de la tecnología y la hiper-información, pero a su vez, marcados por una fuerte tendencia de optimización energética en su rol operativo, ante el surgimiento del factor ecológico en la producción contemporánea. En una sociedad, como la nuestra, que se está modernizando intensamente, es difícil compartir una adecuada sintonía con las formas del pasado. Desde 1790, fecha de la primera convención francesa para la conservación de monumentos, la escala de lo que se pretende preservar es cada vez más ambiciosa, tanto es así, que al día de hoy el repertorio de lo que se conserva incluye prácticamente todas las tipologías del entorno construido. Para Koolhaas, el intervalo entre el objeto y el momento en el cual se decide su conservación se ha reducido, desde dos milenios en 1882 a unas décadas hoy en día. En breve este lapso desaparecerá, demostrando un cambio radical desde lo retrospectivo hacia lo prospectivo, es decir, que dentro de poco habrá que decidir que es lo que se conserva antes de construir. Solá-Morales, en su momento, distinguió la relación entre lo nuevo y lo antiguo, entre el contraste y la analogía. Hoy casi tres décadas después, el objetivo consiste en evaluar si el modelo de intervención arquitectónica sobre lo construido se ha mantenido desde entonces o si han aparecido nuevas formas de posicionamiento del proyecto sobre lo construido. Nuestro trabajo pretende demostrar el cambio de enfoque proyectual con la preexistencia y que éste tiene estrecha relación con la incorporación de nuevos conceptos, técnicas, herramientas y necesidades que imprimen el contexto cultural, producido por el cambio de siglo. Esta suposición nos orienta a establecer un paralelismo arquitectónico entre los modos de relación en que se manifiesta lo nuevo, entre una posición comúnmente asumida (Tópica), genérica y ortodoxa, fundamentada en lo visual y expresivo de las últimas décadas del siglo XX, y una realidad emergente (Heterotópica), extraordinaria y heterodoxa que estimula lo inmaterial y que parece emerger con creciente intensidad en el siglo XXI. Si a lo largo de todo el siglo XX, el proyecto de intervención arquitectónico, se debatía entre la continuidad y discontinuidad de las categorías formales marcadas por la expresión del edificio preexistente, la nueva intervención contemporánea, como dispositivo reactivo en el paisaje y en el territorio, demanda una absoluta continuidad, ya no visual, expresiva, ni funcional, sino una continuidad fisiológica de adaptación y cambio con la propia dinámica del territorio, bajo nuevas reglas de juego y desplegando planes y estrategias operativas (proyectivas) desde su propia lógica y contingencia. El objeto de esta investigación es determinar los nuevos modos de continuidad y las posibles lógicas de producción que se manifiestan dentro de la Intervención Arquitectónica, intentando superar lo aparente de su relación física y visual, como resultado de la incorporación del factor operativo desplegado por el nuevo dispositivo contemporáneo. Creemos que es acertado mantener la senda connotativa que marca la denominación intervención arquitectónica, por aglutinar conceptos y acercamientos teóricos previos que han ido evolucionando en el tiempo. Si bien el término adolece de mayor alcance operativo desde su formulación, una cualidad que infieren nuestras lógicas contemporáneas, podría ser la reformulación y consolidación de un concepto de intervención más idóneo con nuestros tiempos, anteponiendo un procedimiento lógico desde su propia necesidad y contingencia. Finalmente, nuestro planteamiento inicial aspira a constituir un nueva forma de reflexión que nos permita comprender las complejas implicaciones que infiere la nueva arquitectura sobre la preexistencia, motivada por las incorporación de factores externos al simple juicio formal y expresivo preponderante a finales del siglo XX. Del mismo modo, nuestro camino propuesto, como alternativa, permite proyectar posibles sendas de prospección, al considerar lo preexistente como un ámbito que abarca la totalidad del territorio con dinámicas emergentes de cambio, y con ellas, sus lógicas de intervención.Abstract The perceived changes towards the end of the XXth century and at the beginning of the new milennium have shown us that the cultural crisis in which we participate also reflects a crisis of the universal models. The difference between our contemporary situation and the typical situations of modern orthodoxy and post-modernistic fragmentation, seems to indicate that it is no longer possible to formulate a valid esthetic system, to assign a universal and eternal validity to it beyond its strictly punctual effectiveness; which is even subject to questioning because of the continuous transformations that take place in time and in the sensibility of the subject itself every time it takes over the place. The organised reference that any location offered, limited, invariable and specific, while pre-existing, reflected a hierarchy of the formal system based on the applicable: measure, standards, movement, time, modulation, codes and rules. Authors like Marshall Mc Luhan, Paul Virilio, or Marc Augé anticipated a reality where the conventional system already did not seem to respond to the new architectural requests in which information, speed, disappearance and the virtual had blurred the traditional limits of place; pre-existence did no longer possess a specific delimitation and, on the contrary, they expect to reach a global scale. Currently, some aspects that stayed latent relating to the constructed, surface from intensive connotations, transgressing the simple visual and expressive manifestation in order to focus on the traits of the behaviour of material and energy as determinants of a process of adaptation to the surroundings. Throughout the entire Century, the development of the relation of the project relating to the constructed has been addressed, almost exclusively, in preservational or interventianal actions. Both perspectives showed efforts in order to express a thought that would give a theoretical consistency as a base for the production of the additive action. Nevertheless, the last decades of the Century, architectural theory ended up including thoughts from other fields that seem to contaminate the biased vision 15 which the constructed related us. Ecology, planning, philosophy, global economy, etc, suggest new approaches to the construction of the contemporary city; but this time with a determined idea of change and continuous transformation, that enriches the panorama of thought and architectural practice, at the same time, according to some, it puts disciplinary specification at risk, given that there is no architecture without destruction, the constructed organism requires mutation in order to adjust to the change of shape. All of this previous conceptual framework gathered valuable intents to give importance to a theory that could be understood solely from an argumental position. Thusly, in 1979 Ignasi Solá-Morales integrated all of the imprecisions that referred to an action in existing architecture under the term of “Intervention”, which was explained in two ways: The first referring to any type of intervention that can be carried out in a building, regarding protection, conservation, reuse, etc. It is about a scope where the meaning of intensity stays latent as a common factor of the understanding of a single action. Secondly, more limitedly, the idea of intervention is established as the critical act to the other previous ideas such as restauration, conservation, reuse, etc. Both ultimately represent ways of interpretation of a new speech. “An intervention, is as much as trying to make the building say something again or that it be said in a certain direction”. Mid 1985, motivated by the current of historiographical revision and the concerns regarding the deterioration of historical centres that traversed Europe, Solá-Morales decides to reflect on “the relationship” between an intervention of the new architecture and the previously existing architecture. A relationship determined strictly by linguistic considerations, to his understanding, in harmony with all of the architectural production of the XXth century. From Contrast to Analogy would summarise transformations in the discursive perception of architectural intervention, as a changing phenomenon depending on cultural values, but at the same time, showing a clear dialogical tendency between two formal categories: Contrast, emphasising the possibilities of novelty and difference; and on the other hand the emerging Analogy, as a new awareness of interpretation of the ancient building, where the similarity and diversity are manifested simultaneously. For Solá-Morales the analogical procedure is not based on the visible simultaneity of formal orders, but on associations that the subject establishes throughout time. Through analogy it is tried to overcome the simple visual relationship with the antique, to focus on its spacial, physical and geographical nature. If the analogical attempt guides an opening towards a new continuity; it still persists in the connection of dimensional, typological and figurative factors, subordinate to the formal hierarchy of the preexisting subjects. 16 The reflexive contribution of Solá-Morales’ works could be final, if in the last decades before the end of the century there had not been certain changes regarding linguistic expression, encouraged by architecture, towards a kind of figurative hypertrophy, amongst many arguments we are in this case interested in three moments: The dissolution of the compositional consistency and the united style, the volumetric incorporation of the project as a reactive mechanism, and the change of the vision from retrospective towards prospective that the new conservation suggests. The recurrence to the history of architecture and its recognisable forms, as a way of perpetuating memory and establishing a reference, dissolved any instinct of compositive unity and style, provoking permanent relationships to tend to disappear. The composition and coherence lead to suppose a type of discontinuity of isolated objects in which only possible relationships could appear; no longer as an order of certain formal and compositive rules, but as a special way of setting elements in a specific work. The new globalised field required new forms of consistency between the project and the pre-existent subject, motivated amongst others by the higher pace of market evolution, increase of consumer tax and the level of information and competence between different locations; aspects which finally made stylistic consistence inefficient. In this context of disintegration, the project, in incorporation as well as added to a constructed building, stops being considered as a volumetric appendix subordinate to compositive and formal rules of old, to be considered as an organism of reactive order, that causes a change in the structural and systematic configuration of the existing foundation. The extension, previsouly spatial, is now considered a sensorial and morphological extension, with the implementation of technology and hyper-information, but at the same time, marked by a strong tendency of energetic optimization in its operational role, facing the emergence of the ecological factor in contemporary production. The technological world turns into a new nature, a nature that should be analysed from ecological terms; in other words, as an event of transition in the continuous redistribution of energy. In this area, effectiveness is not only determined by the capacity of adaptation to changing conditions, but also by its transforming capacity “expressly” in order to change an environment. In a society, like ours, that is modernising intensively, it is difficult to share an adecuate agreement with the forms of the past. From 1790, the date of the first French convention for the conservation of monuments, the scale of what is expexted to be preserved is more and more ambitious, so much so that nowadays the repertoire of that what is conserved includes practically all typologies of the constructed surroundings. For Koolhaas, the ínterval between the object and the moment when its conservation is decided has been reduced, from two 17 milennia in 1882 to a few decades nowadays. Shortly this lapse will disappear, showing a radical change of retrospective towards prospective, that is to say, that soon it will be necessary to decide what to conserve before constructing. The shapes of cities are the result of the continuous incorporation of architecture, and perhaps that only through architecture the response to the universe can be understood, the continuity of what has already been constructed. Our work is understood also within that system, modifying the field of action and leaving the road ready for the next movement of those that will follow after us. Continuity does not mean conservatism, continuity means being conscient of the transitory value of our answers to specific needs, accepting the change that we have received. That what has been constructed to remain and last, should cause future interventions to be integrated in it. It is necessary to accept continuity as a rule. Solá-Morales, in his time, distinguished between the relationship with new and old, between contrast and analogy. Today, almost three decades later, the objective consists of evaluating whether the model of architectural intervention in the constructed has been maintained since then or if new ways of positioning the project regarding the constructed have appeared. Our work claims to show the change of the approach of projects with pre-existing subjects and that this has got a close relation to the incorporation of new concepts, techniques, tools and necessities that impress the cultural context, caused by the change of centuries. This assumption guides us to establish a parallelism between the forms of connection where that what is new is manifested between a commonly assumed (topical), generic and orthodox position, based on that what is visual and expressive in the last decades of the XXth century, and an emerging (heterotopical), extraordinary and heterodox reality that stimulates the immaterial and that seems to emerge with growing intensity in the XXIst century. If throughout the XXth century the project of architectural intervention was considered from the continuity and discontinuity of formal categories, marked by the expression of the pre-existing building, the new contemporary intervention, as a reactive device in the landscape and territory, demands an absolute continuity. No longer a visual, expressive or functional one but a morphological continuity of adaptation and change with its own territorial dynamics, under new game rules and unfolding new operative (projective) strategies from its own logic and contingency. 18 The aim of this research is to determine new forms of continuity and the possible logic of production that are expressed in the Architectural Intervention, trying to overcome the obviousness of its physical and visual relationship, at the beginning of this new century, as a result of the incorporation of the operative factor that the new architectural device unfolds. We think it is correct to maintain the connotative path that marks the name architectural intervention by bringing previous concepts and theorical approaches that have been evolving through time together. If the name suffers from a wider operational range because of its formulation, a quality that our contemporary logic provokes, the reformulation and consolidation of an interventional concept could be more suitable for our times, giving preference to a logical method from its own necessity and contingency. It seems that now time shapes the topics, it is no longer about materialising a certain time but about expressing the changes that its new temporality generates. Finally, our initial approach aspires to form a new way of reflection that permits us to understand the complex implications that the new architecture submits the pre-existing subject to, motivated by the incorporation of factors external to simple formal and expressive judgement, prevailing at the end of the XXth century. In the same way, our set road, as an alternative, permits the contemplation of possible research paths, considering that what is pre-existing as an area that spans the whole territory with emerging changing dynamics and, with them, their interventional logics.
Resumo:
Este artículo presenta la degradación observada en un generador de x-Si 7 kW de potencia tras 16 años de exposición en la terraza del Instituto de Energía Solar de la Universidad Politécnica de Madrid. La caída de la potencia pico ha sido del 9% durante dicho periodo o, lo que es equivalente, una degradación anual del 0,56%; mientras que la desviación típica se ha mantenido básicamente constante. Los principales defectos visuales observados han sido delaminaciones en la superficie PET/PVF de la cara posterior de los módulos y roturas en las cajas de conexión y en la unión entre marco y vidrio. Todos los módulos analizados han pasado con suficiencia las pruebas de aislamiento eléctrico dispuestas en la norma IEC 61215, tanto en seco como en mojado.
Resumo:
En este proyecto realizaremos un estudio del efecto de las interferencias procedentes de las redes públicas y veremos cómo afectan el rendimiento de las comunicaciones GSM-R que están en la banda de frecuencias adyacente, por un lado, definiremos las características de las redes públicas y como afectan los niveles de potencia y los anchos de banda de redes de banda ancha, especialmente LTE que dispone de un ancho de banda adaptativo que puede llegar hasta 20 MHZ, y por otro lado definiremos las características y las exigencias de las comunicaciones GSM-R que es una red privada que se utiliza actualmente para comunicaciones ferroviales. Con el objetivo de determinar el origen y los motivos de estas interferencias vamos a explicar cómo se produzcan las emisiones no deseadas de las redes públicas que son fruto de la intermodulación que se produzca por las características no lineales de los amplificadores, entre las emisiones no deseadas se puede diferenciar entre el dominio de los espurios y el dominio de las emisiones fuera de banda, para determinar el nivel de las emisiones fuera de banda definiremos la relación de fugas del canal adyacente, ACLR, que determina la diferencia entre el pico de la señal deseada y el nivel de señal interferente en la banda de paso. Veremos cómo afectan estas emisiones no deseadas a las comunicaciones GSMR en el caso de interferencias procedentes de señales de banda estrecha, como es el caso de GSM, y como afectan en el caso de emisiones de banda ancha con los protocolos UMTS y LTE, también estudiaremos como varia el rendimiento de la comunicación GSM-R frente a señales LTE de diferentes anchos de banda. Para reducir el impacto de las interferencias sobre los receptores GSM-R, analizaremos el efecto de los filtros de entrada de los receptores GSM-R y veremos cómo varia la BER y la ACLR. Además, con el objetivo de evaluar el rendimiento del receptor GSM-R ante diferentes tipos de interferencias, simularemos dos escenarios donde la red GSM-R se verá afectada por las interferencias procedente de una estación base de red pública, en el primer escenario la distancia entre la BS y MS GSM-R será de 4.6 KM, mientras en el segundo escenario simularemos una situación típica cuando un tren está a una distancia corta (25 m) de la BS de red pública. Finalmente presentaremos los resultados en forma de graficas de BER y ACLR, y tablas indicando los diferentes niveles de interferencias y la diferencia entre la potencia a la que obtenemos un valor óptimo de BER, 10-3, sin interferencia y la potencia a la que obtenemos el mismo valor con interferencias. ABSTRACT In this project we will study the interference effect from public networks and how they affect the performance of GSM-R communications that are in the adjacent frequency band, furthermore, we will define the characteristics of public networks and will explain how the power levels and bandwidth broadband networks are affected as a result, especially LTE with adaptive bandwidth that can reach 20 MHZ. Lastly, we will define the characteristics and requirements of the GSM-R communications, a private network that is currently used for railways communications. In order to determine the origin and motives of these interferences, we will explain what causes unwanted emissions of public networks that occur as a result. The intermodulation, which is caused by the nonlinear characteristics of amplifiers. Unwanted emissions from the transmitter are divided into OOB (out-of-band) emission and spurious emissions. The OOB emissions are defined by an Adjacent Channel Leakage Ratio (ACLR) requirement. We'll analyze the effect of the OOB emission on the GSM-R communication in the case of interference from narrowband signals such as GSM, and how they affect emissions in the case of broadband such as UMTS and LTE; also we will study how performance varies with GSM-R versus LTE signals of different bandwidths. To reduce the impact of interference on the GSM-R receiver, we analyze the effect of input filters GSM-R receivers to see how it affects the BER (Bits Error Rate) and ACLR. To analyze the GSM-R receiver performance in this project, we will simulate two scenarios when the GSM-R will be affected by interference from a base station (BS). In the first case the distance between the public network BS and MS GSM-R is 4.6 KM, while the second case simulates a typical situation when a train is within a short distance, 25 m, of a public network BS. Finally, we will present the results as BER and ACLR graphs, and tables showing different levels of interference and the differences between the power to obtain an optimal value of BER, 10-3, without interference, and the power that gets the same value with interference.
Resumo:
En España el esfuerzo para la articulación del territorio mediante vías de comunicación y transporte se ha visto incrementado enormemente en los últimos años. En las nuevas carreteras las exigencias de confort y seguridad se reflejan en la menor dependencia que el trazado presenta respecto a la topografía del terreno lo que a su vez implica la multiplicación del número de obras de ingeniería civil como puentes y túneles. Entre éstos últimos, por las mismas razones, se observa un incremento en el número de túneles con longitudes apreciables y por tanto incapaces de ser ventilados con tiro natural. Quiere ello decir que se han multiplicado las instalaciones de ventilación forzada en túneles de carretera, lo que ha llevado a un mayor conocimiento de los sistemas empleados así como al planteamiento de algunas cuestiones sobre las que es preciso profundizar. En España se dispone en este momento de amplia experiencia en instalaciones construidas con diferentes sistemas de ventilación: longitudinal, transversal, etc. Pero debido probablemente al empleo de calzadas separadas para los diferentes sentidos de tráfico, se observa una tendencia creciente al uso del sistema longitudinal con aceleradores lo que, por otra parte, está en consonancia con lo que sucede en el resto del mundo. La ventilación longitudinal tiene ventajas bien conocidas relativas a su flexibilidad y coste, incluso cuando es preciso recurrir a instalaciones intermedias de pozos auxiliares en túneles de gran longitud. Por otro lado presenta algunos problemas relativos tanto a su funcionamiento interior como a su relación con el exterior. Entre éstos últimos cabe citar el impacto que túneles urbanos largos pueden tener en la contaminación ambiental. En efecto, puesto que la ventilación longitudinal arrastra los contaminantes a lo largo del tubo, el vertido en la boca de aguas abajo suele tener una contaminación superior a la permitida en ambientes urbanos. Es curioso observar cómo se ha movido la tendencia en los estudios de ventilación a discutir no ya los requisitos en el interior sino la calidad exigible en el vertido o los procedimientos para mejorarla. En este sentido puede ser necesario recurrir al uso de chimeneas difusoras,o métodos basados en la precipitación electrostática donde se están proporcionando soluciones ingeniosas y prometedoras. Un problema "exterior" de interés que se presenta cuando se dispone de poco espacio para separar las bocas es la recirculación entre túneles gemelos con diferentes sentidos de tráfico y ventilación. Así puede suceder que los vertidos contaminados procedentes de la salida de un tubo sean aspirados por el gemelo en lugar del aire limpio que se pretendía. En situaciones normales es un fenómeno raro pues el vertido se realiza en forma de chorro y la absorción mediante un sumidero por lo que el cortocircuito suele ser pequeño. La situación se complica cuando la salida se realiza entre taludes altos o cuando sopla viento lateral o frontal que favorece la mezcla. En muchos casos se recurre a muros separados que son muy efectivos incluso con dimensiones moderadas. En este artículo los temas tratados se refieren por el contrario a problemas relacionados con el flujo del aire en el interior del túnel. Como es sabido los proyectos de ventilación en túneles deben contemplar al menos dos situaciones:el funcionamiento en servicio y la respuesta en emergencias, entre las que la más típica es la de incendio. Mientras que en la primera priman los requisitos de confort, en la segunda se trata de cuantificar la seguridad y, en especial, de establecer las estrategias que permitan en primer lugar salvar vidas y además minimizar el deterioro de las instalaciones. Generalmente los índices que se manejan para el confort están relacionados con el contenido en monóxido de carbono y con la opacidad del aire. En ambos casos la ventilación forzada tiene como objetivo introducir la cantidad de aire limpio necesario para reducir las proporciones a niveles admisibles por los usuarios. Son requisitos que se refieren a escenarios con alta probabilidad de ocurrencia y para las que la instalación debe disponer de márgenes de seguridad holgados. Por otro lado la situación accidental se presenta con una frecuencia mucho más baja y los impulsores deben proyectarse para que sean capaces de dar los picos precisos para responder a la estrategia de ventilación que se haya planteado así como para funcionar en ambientes muy agresivos. Es clásica la cita al fuego en el túnel Holland (N. Y) donde la capa de aire fresco a ras de suelo permitió la huida de los pasajeros atrapados y la llegada de equipos de rescate. El tema es de tal importancia que se ha incrementado el número de pruebas a escala real con objeto de familiarizar a los equipos de explotación y extinción con estas situaciones excepcionales a la par que para observar y cuantificar los problemas reales. En los túneles de El Padrún, la Demarcación de Carreteras del Estado de Asturias (MOPTMA) ha invertido un gran esfuerzo en los estudios de seguridad tanto en los aspectos estructurales como funcionales. Se han seguido en ambos casos los pasos tradicionales para el establecimiento de la auténtica experiencia ingenieril es decir la observación de fenómenos, su medición y su interpretación y síntesis mediante modelos abstractos. En el tema concreto de la seguridad frente a situaciones accidentales se han realizado experimentos con un incendio real y con humos fríos y calientes. En este artículo se presentan algunos de los modelos numéricos que, basándose en las enormes posibilidades que ofrecen los medios informáticos actuales, se han construido para identificar fenómenos observados en los experimentos y para estudiar cuestiones que se plantean durante la explotación o el proyecto y para las que todavía no se dispone de un cuerpo de doctrina bien establecido.