21 resultados para Generación del 37
em Universidad Politécnica de Madrid
Resumo:
Las principales ventajas de los reactores de espectro neutrónico rápido refrigerados por metales líquidos (por ejemplo sodio) no sólo consisten en un eficiente uso del combustible por medio de la reproducción de material físil y de la utilización de uranio natural o empobrecido, sino que además logran reducir la cantidad de actínidos como el Americio o Neptunio, presentes en el combustible irradiado. El primer aspecto se traduce en una garantía de suministro de combustible prácticamente ilimitada, mientras que el segundo es importante porque estos elementos son los responsables de una gran parte de la actividad del combustible irradiado. La posibilidad de contar con un parque de reactores rápidos posibilitaría que la estrategia de ciclo de combustible no tuviese que ser necesariamente de tipo abierto, como en la mayoría de los países que cuentan con energía nuclear, sino una variación del ciclo cerrado avanzado donde el plutonio y los actínidos minoritarios separados del combustible irradiado forman parte del nuevo combustible que generará energía eléctrica. En este trabajo se analiza un hipotético escenario de generación en España, comprobando si un parque de dichos reactores resolvería algunos de los retos con los que la energía nuclear de fisión actual se enfrenta, ya que, como se ha dicho anteriormente, este tipo de reactores mejoran la seguridad, garantizan el suministro y gestionan más eficientemente tanto su propio combustible como el combustible irradiado en los reactores LWR actuales. A continuación se presentan las características y objetivos de los sistemas innovadores de Gen‐IV, entre los que se encuentran los reactores rápidos más avanzados, que dan un salto en concepto y en tecnología respecto a los reactores de Generación III+. Posteriormente se presenta una descripción del caso nuclear español y finalmente se detallan los resultados del estudio mostrando qué efectos tendría este escenario sobre el aprovechamiento y necesidades del combustible, así como sobre la reducción del inventario radioisotópico del combustible gastado ya existente y producido por la propia generación de reactores rápidos.
Resumo:
La simulación de accidentes de rotura pequeña en el fondo de la vasija se aparta del convencional análisis de LOCA de rama fría, el más limitante en los análisis deterministas La rotura de una de las penetraciones de instrumentación de la vasija ha sido desestimada históricamente en los análisis de licencia y en los Análisis Probabilistas de Seguridad y por ello, hay una falta evidente de literatura para dicho análisis. En el año 2003 durante una inspección, se detectó una considerable corrosión en el fondo de la vasija de South Texas Project Unit I NPP. La evolución en el tiempo de dicha corrosión habría derivado en una pequeña rotura en el fondo de la vasija si su detección no se hubiera producido a tiempo. La OECD/NEA consideró la importancia de simular dicha secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Tanto en el experimento como en la simulación se observaron las dificultades de reinundar la vasija al tener la rotura en el fondo de la misma, haciendo clave la gestión del accidente por parte del operador. Dadas las condiciones excesivamente conservadoras del test experimental, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”
Resumo:
Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.
Resumo:
Se tiene una red eléctrica compuesta por tres centrales térmicas convencionales y dos núcleos de consumo diferenciados, uno industrial y otro residencial, a la que se le va a conectar un parque eólico. El objetivo es dimensionar la línea de conexión y conocer el comportamiento de la red ante este cambio. Se han calculado las características de la línea eléctrica de conexión para satisfacer la potencia instalada del parque. También se ha estimado la demanda horaria de electricidad en las zonas residencial e industrial y se han tomado los valores horarios significativos de la potencia generada por el parque eólico, ambos, para las distintas estaciones del año. Como programa para la simulación de la red eléctrica se utilizó el PSS/E (Power System Simulator for Engineering) en el que, ayudándose del lenguaje de programación Python, se creó un código que cambiaba los datos horarios del consumo y la generación del parque, resolvía el flujo de cargas y exportaba los resultados que mostraban el comportamiento de la red para las distintas casuísticas. Finalmente, se analizaron los resultados de las potencias activa y reactiva generadas por las centrales convencionales, la tensión en los buses y las posibles sobrecargas.
Resumo:
Si existe un denominador común en la contemporaneidad este tiene que ver con el cambio y la transitoriedad. Surfeamos en las olas de una sociedad siempre cambiante incierta y cada vez más imprevisible. La postmodernidad ha devenido en un tiempo sin certezas, el habitante de la sociedad de la transitoriedad desconoce la previsión de futuro. Ante la ausencia de certidumbres, los individuos están obligados a concatenar proyectos episódicos a corto plazo. Este modo de vida fragmentada requiere una gran capacidad de adaptación y flexibilidad para poder sobrevivir en condiciones de incertidumbre endémicas. Por esa razón, la construcción de cualquier situación en términos intelectuales y metodológicos a cualquier escala, requiere una nueva visión, no sólo en términos de espacio, sino fundamentalmente, de tiempo. La presente tesis no pretende plantear el problema desde el punto de vista filosófico, aunque inevitablemente tendrá que referirse a pensadores y científicos utilizados desde la arquitectura. En esta línea, se hace necesario preguntarse como el arquitecto puede operar con esta incertidumbre, en otras palabras: ¿Existe un potencial para el arquitecto en la inestabilidad y el cambio constante del contexto urbano, social y económico? ¿Y si es así, cómo se opera con esta incertidumbre? La inestabilidad de todo el contexto social, político, cultural y económico en el que la arquitectura tiene lugar hoy, hace imprescindible analizar las herramientas y protocolos de proyecto. La tesis tratará, como su título indica, sobre algunas de las estrategias que frente a los postulados del Movimiento Moderno, aparecen entre 1961 y 1978, y reformuladas bajo el prisma de la contemporaneidad, pueden constituir herramientas que hoy resulta pertinente analizar, desde un punto de vista crítico pero también pragmático, en el marco de inestabilidad en el que se desarrolla la disciplina arquitectónica, a estas metodologías las denominaremos Estrategias de Incertidumbre. Por definición, la arquitectura ha operado históricamente, entre el presente conocido y el futuro incierto. Y aunque en la segunda mitad del siglo XX, se produce un cambio significativo en la manera de aproximarse a los cambios futuros de programa o de uso, en la vida útil de los edificios, operando con el cambio y la indeterminación como herramientas de proyecto, lo que es probablemente nuevo hoy, es la inestabilidad de todo el contexto social, político, cultural y económico en el que se genera la arquitectura. La presente tesis analiza una serie de estrategias que han incorporado la incertidumbre como ingrediente activo en la elaboración del proyecto arquitectónico, hasta el punto de redefinir completamente la disciplina. La primera hipótesis plantea el diseño de la anticipación como respuesta a la incertidumbre, a través de la introducción de la flexibilidad programática en el proyecto, para generar estructuras capaces de asimilar los futuros cambios. En ese sentido se buscará la indeterminación del proyecto para dejar abierto su uso. A la vez, la introducción activa del factor tiempo transforma el rol del arquitecto, que pasa a ser un gestor interdisciplinar en la generación del proyecto abierto. La segunda hipótesis plantea el papel productivo de la incertidumbre dentro del proceso creativo, buscando deliberadamente la generación de oportunidades dentro del proceso de proyecto, fomentando la observación y descubrimiento frente al diseño y la definición, manejando tiempo, crecimiento y azar como variables proyectuales, entendiendo la obra como proceso de tal manera que lo inesperado pueda aparecer. Para acometer la investigación, en relación al modelo canónico del Movimiento Moderno, se analizan nuevos modelos surgidos en los 60 en distintos contextos, alineados entre otros, con los protocolos de John Cage y sus secuencias randomizadas o la cibernética, fundamentalmente a partir de 1961, año en el que se publican dos textos, Theory and Design in the First Machine Age de Reyner Banham y An approach to Cybernetics de Gordon Pask. El pensamiento sistémico de Gordon Pask – colaborador de Price en el Fun Palace - tendrá gran influencia en la formulación del concepto de Incertidumbre Calculada, enunciado y planteado como estrategia por Cedric Price, que incorpora, a partir de ese momento, protocolos de diseño propios de la cibernética, en proyectos como el Fun Palace y Potteries Thinkbelt a principios de los años 60. En ellos, el arquitecto, desde la toma de conciencia de la caducidad de los paradigmas clásicos heredados de los principales teóricos de la modernidad, entiende que el proyecto de arquitectura debe incorporar cierto grado de indeterminación para dar cabida a las incertidumbres del programa, introducir la obsolescencia programada o verificar el potencial de la incertidumbre en la sociedad postindustrial. Estos planteamientos tienen continuidad en la figura de un joven profesor llegado en 1970 a la Architectural Association de Londres, el arquitecto suizo Bernard Tschumi. Los programas académicos desarrollados por Tschumi en Londres de 1970 a 1975 - en los que combina el activismo político, las acciones urbanas inspiradas en Lefebvre y Debord y las técnicas del performance juegan un rol crucial en la formalización del discurso y la práctica arquitectónica a partir de los años 70 y suponen el paso de un modelo directo, transitivo, a un modelo operativo, donde la conducta y los objetivos no se establecen a priori, sino que se instalan en el interior de los procesos, ampliando un campo disciplinar, que a partir de ese momento se centrará en lo performativo. Tras estos proyectos, analizaremos su llegada a Nueva York en 1978, año en que presenta los Manhattan Transcripts y se publica Delirious New York, obras que sustituirán la cultura del espacio y la forma, por la capacidad de acción del programa a partir de su modificación dimensional y relacional. Este capítulo tendrá su epílogo en el Concurso Internacional de La Villette en 1982, en las propuetas de Tschumi, Koolhaas y Price, donde la indeterminación estará presente mediante la generación de paisajes perceptivos y programáticos cambiantes. Tras los dos capítulos centrales, el capítulo final Estrategias de Incertidumbre, que da título a la Tesis, recapitulará las estrategias analizadas a través de tres proyectos contemporáneos, proyectando otras tantas ventanas para futuras investigaciones.
Resumo:
Inicio del desarrollo de un algoritmo eficiente orientado a dispositivos con baja capacidad de proceso, que ayude a personas sin necesariamente una preparación adecuada a llevar a cabo un proceso de toma de una señal biológica, como puede ser un electrocardiograma. La aplicación deberá, por tanto, asesorar en la toma de la señal al usuario, evaluar la calidad de la grabación obtenida, y en tiempo seudo real, comprobar si la calidad de la señal obtenida es suficientemente buena para su posterior diagnóstico, de tal modo que en caso de que sea necesaria una repetición de la prueba médica, esta pueda realizarse de inmediato. Además, el algoritmo debe extraer las características más relevantes de la señal electrocardiográfica, procesarlas, y obtener una serie de patrones significativos que permitan la orientación a la diagnosis de algunas de las patologías más comunes que se puedan extraer de la información de las señales cardíacas. Para la extracción, evaluación y toma de decisiones de este proceso previo a la generación del diagnóstico, se seguirá la arquitectura clásica de un sistema de detección de patrones, definiendo las clases que sean necesarias según el número de patologías que se deseen identificar. Esta información de diagnosis, obtenida mediante la identificación del sistema de reconocimiento de patrones, podría ser de ayuda u orientación para la posterior revisión de la prueba por parte de un profesional médico cualificado y de manera remota, evitando así el desplazamiento del mismo a zonas donde, por los medios existentes a día de hoy, es muy remota la posibilidad de presencia de personal sanitario. ABTRACT Start of development of an efficient algorithm designed to devices with low processing power, which could help people without adequate preparation to undertake a process of taking a biological signal, such as an electrocardiogram. Therefore, the application must assist the user in taking the signal and evaluating the quality of the recording. All of this must to be in live time. It must to check the quality of the signal obtained, and if is it necessary a repetition of the test, this could be done immediately. Furthermore, the algorithm must extract the most relevant features of the ECG signal, process it, and get meaningful patterns that allow to a diagnosis orientation of some of the more common diseases that can be drawn from the cardiac signal information. For the extraction, evaluation and decision making in this previous process to the generation of diagnosis, we will follow the classic architecture of a pattern recognition system, defining the necessary classes according to the number of pathologies that we wish to identify. This diagnostic information obtained by identifying the pattern recognition system could be for help or guidance for further review of the signal by a qualified medical professional, and it could be done remotely, thus avoiding the movements to areas where nowadays it is extremely unlikely to place any health staff, due to the poor economic condition.
Resumo:
A profunda crisis de la ‘nave espacial Tierra’ que cohabitamos, como llamaba Buckminster Fuller a nuestro planeta, y los imparables cambios en los modos de vida occidentales demandan un urgente cambio en el modelo de vivienda que las sociedades‘desarrolladas’ proporcionan a sus ciudadanos. Los nuevos modos de vida son variables e imprevisibles, incapaces de ser predeterminados en un proyecto arquitectónico ‘cerrado’. Los avances tecnológicos conducen a la movilidad, la desaparición del hogar tradicional, la interrelación de los espacios de vivienda y trabajo y anticipan la llegada de tipos de vida más dinámicos y menos ligados a un sitio específico. En cuanto a las formas de relación, disminuye la duración de los compromisos afectivos y crece el número de personas con una vida al margen de la familia tradicional o producto de la disgregación de proyectos familiares. Y, en el campo arquitectónico, no dejan de surgir nuevas herramientas mecánicas y tecnológicas capaces de transformar, de forma sencilla, una vivienda. Todas estas circunstancias no encuentran acomodo en las viviendas concebidas para los modos de vida de las pasadas generaciones. Desde hace décadas, al menos en nuestro país, los arquitectos han dejado de diseñar las viviendas de promoción privada que firman, ya que el propio ‘mercado’ se encarga de hacerlo. Las viviendas que el ‘mercado’ diseña no persiguen entregar a sus habitantes un lugar donde puedan desarrollar sus potencialidades. El único objetivo de estas promociones es el beneficio económico. Las casas que el ‘mercado’ promueve son indiferentes a las minorías y a los nuevos modos de vida. Son viviendas mínimas y uniformes para, de esta forma, maximizar el beneficio y simplificar el proceso económico. Estas viviendas promueven los mismos valores que guían nuestra ‘nave’: son individualistas, buscando minimizar el contacto vecinal, persiguen la uniformidad, en personas y pensamientos, y perpetúan valores, ya que insisten en repetir los mismos modelos habitacionales creados para los modos de vida de las generaciones anteriores. Son casas cerradas que tratan de imponer a sus habitantes el modo de habitarlas. Son casas estáticas que no están pensadas para facilitar su adaptación al particular modo de vida de sus ocupantes. Siguiendo en nuestro país, las viviendas de promoción pública obedecen, también desde hace décadas, a una normativa desfasada ajena a los nuevos modelos familiares, los nuevos modelos de convivencia al margen de la familia, el trabajo en casa, las nuevas tecnologías y los esquemas habitacionales con espacios compartidos. Las viviendas que esta normativa obliga a construir no solo obedecen al modo de vida de dos generaciones atrás, momento en que estas normas se redactaron; tampoco permiten la alteración de sus adjudicatarios para acomodar las viviendas a sus particulares circunstancias. La inflexibilidad de estas normativas obsoletas provoca que el Estado no esté en realidad subvencionando un espacio donde sus habitantes puedan desarrollar la vida que deseen. Lo que el Estado, por medio de estas viviendas, subvenciona es una determinada forma de vida. Esta tesis propone un modelo de vivienda que denomina ‘casa abierta’ porque está abierta a ser vivida tal y como sus ocupantes deseen y necesiten. La casa abierta es un espacio indeterminado que sus usuarios han de completar conceptualmente, y que pueden transformar con facilidad, cuantas veces deseen, según su propio criterio. Es un espacio lleno de potencialidades, un soporte definido solo a medias, a la espera que el usuario lo adapte a sus necesidades. El primer objetivo de la casa abierta es responder a los nuevos modos de vida. Es, pues, destino de algo que está pasando. Pero la casa abierta tiene también un segundo objetivo, tan importante como el primero: ayudar a desarrollar nuevos valores, ser origen de algo, desconocido aún, que ayude a enderezar el rumbo de nuestra ‘nave’. Esta tesis cree que cada nueva generación trae consigo nuevas capacidades que podrían ayudar a las anteriores a solventar sus problemas. Por ello defiende una educación que promueva la diversidad y la creatividad, evitando imponer valores caducos e incitando a los jóvenes a encontrar sus propias capacidades y desarrollarlas, no ya por su propio interés personal sino por la satisfacción de aportarlas al mundo. La casa abierta persigue objetivos similares. Su anhelo es proporcionar buenas herramientas y nuevos valores a sus ocupantes, y dejarles hacer. La casa abierta busca incitar a sus habitantes a desarrollar su creatividad sobre su propio hábitat, convirtiéndolos en co-creadores y, en consecuencia, responsables del mismo. La casa abierta es un espacio de libertad, donde sus ocupantes pueden desarrollar su diferencia, singularidad y diversidad, pudiendo crear un entorno que responda a sus criterios y su sensibilidad. La casa abierta es un lugar de experimentación donde replantear las convenciones sobre la casa, probando nuevas formas de convivencia y hábitat acordes con los nuevos modos de vida. La casa abierta busca también estimular el sentido comunitario de sus ocupantes, favoreciendo el contacto y la agrupación entre vecinos. Pero también desea contribuir a crear un modelo de desarrollo sostenible, respetuoso con el medio ambiente, los recursos del planeta y el futuro de las generaciones venideras. Para crear una casa abierta proponemos diez atributos: versatilidad, permeabilidad elasticidad, adaptabilidad, perfectibilidad, movilidad, sociabilidad, indeterminación, disgregación y sostenibilidad. Con ellos tratamos de establecer diversas cualidades a incorporar en los futuros proyectos de viviendas. A partir de estos diez atributos la tesis analiza cerca de 200 proyectos de vivienda de los últimos 90 años, donde el habitante es parte activa en su concepción o donde los ocupantes pueden transformar su vivienda, con facilidad, acomodándola a su modo de vida o a su estado de ánimo. Dentro de la historia de la arquitectura moderna existen grandes ejemplos de viviendas o proyectos que cumplen con algunos de los atributos propuestos. Muchos de los planteamientos de la ‘casa abierta’ tienen su origen en los años 20 del siglo pasado. Fueron desarrollados por los arquitectos de la primera generación del movimiento moderno, sobre todo Adolf Loos, Le Corbusier, Mies van der Rohe, Gerrit Rietveld, y Buckminster Fuller. El periodo más cercano a las ideas de la casa abierta es el comprendido entre 1955 y 1980, con el trabajo de la tercera generación de arquitectos del movimiento moderno. En estos años surgen grandes ejemplos de casas abiertas, se publican libros sobre la implicación de los habitantes en el diseño de sus casas y se convocan coloquios sobre la adaptabilidad de las viviendas. Entre los ejemplos construidos destacan las viviendas Il Rigo Quarter de Renzo Piano, el complejo residencial Genter Strasse en Munich de Otto Steidle, Doris y Ralph Thut, los apartamentos universitarios en Lovaina de Lucien Kroll y el inicio de las comunidades de cohousing en Dinamarca. La década de 1990 es también propensa a la casa abierta. Entre los ejemplos construidos podemos destacar las casas Latapie y Coutras de Lacaton y Vassal, la Residencia Yakult de Toshio Akimoto, las casas Naked y la Nine square grid de Shigeru Ban y los apartamentos Fukuoka de Steven Holl. En esta década, surgen las cooperativas de viviendas autopromocionadas en Centroeuropa, como la Sargfabrik de BKK-2 en Viena, y se produce el desembarco del cohousing danés en EEUU. Ya en el siglo XXI podemos destacar las viviendas sociales Quinta Monroy y la Colonia Lo Barnechea de Alejandro Aravena-Elemental, las 14 viviendas en Mulhouse de Lacaton y Vassal, las casas Glass Shutter y Metal Shutter de Shigeru Ban, la casa Moriyama de SANAA, el d21system de José Miguel Reyes González y la ETSAM, la propuesta Parasite para Amsterdam, de Maccreanor y Lavington, la Shinonome Canal Court de Tokio y muchos ejemplos de viviendas prefabricadas y móviles como la Micro Compact Home o la LoftCube.
Resumo:
La mosca mediterránea de la fruta, Ceratitis capitata (Wiedemann, 1824) (Diptera: Tephritidae), es una de las plagas de mayor incidencia económica en cítricos y otros frutales a nivel mundial. En España las medidas de control de esta plaga en cítricos, desde mediados de los 90 hasta 2009, se basaron principalmente en el monitoreo de las poblaciones y en la aplicación de tratamientos aéreos y terrestres con malatión cebo. Sin embargo, desde la retirada en la Unión Europea en 2009 de los productos fitosanitarios que contienen malatión, los insecticidas más utilizados para el control de esta plaga han sido lambda-cihalotrina y spinosad. En 2004-2005 se detectaron poblaciones españolas de C. capitata resistentes a malatión. Esta resistencia se ha asociado a una mutación (G328A) en la acetilcolinesterasa (AChE), a una duplicación del gen de la AChE (Ccace2) (una de las copias lleva la mutación G328A) y a resistencia metabólica mediada por esterasas (posiblemente aliesterasas). Sin embargo, cuando se secuenció la aliesterasa CcE7 en individuos de una línea resistente a malatión, no se encontró ninguna de las mutaciones (G137D y/o W251L/S/G) asociadas a resistencia en otras especies, si bien se encontraron otras mutaciones al compararlos con individuos de una línea susceptible. Asimismo, mediante la selección en laboratorio de una línea resistente a malatión (W-4Km) con lambda-cihalotrina, se ha podido obtener una línea resistente a lambda-cihalotrina (W-1K). Finalmente, se ha demostrado la capacidad de esta especie para desarrollar resistencia a spinosad mediante selección en laboratorio. Los múltiples mecanismos de resistencia identificados evidencian el potencial de esta especie para desarrollar resistencia a insecticidas con diferentes modos de acción. Los objetivos de esta tesis doctoral son: 1) evaluar la susceptibilidad de poblaciones españolas de campo de C. capitata a lambda-cihalotrina y dilucidar los mecanismos de resistencia en la línea W-1Kλ; 2) comparar la herencia, el coste biológico y la estabilidad de la resistencia a malatión mediada por la mutación G328A y la duplicación del gen Ccace2 (una de las copias lleva la mutación G328A); y 3) investigar el papel de las mutaciones identificadas en la aliesterasa CcαE7 en la resistencia a malatión. Estos estudios son de utilidad para el desarrollo de estrategias de manejo de la resistencia que puedan prevenir o retrasar la aparición de resistencia y aumentar la sostenibilidad de los insecticidas disponibles para el control de esta plaga. Nuestros resultados indican que las poblaciones españolas de C. capitata analizadas han desarrollado resistencia a lambda-cihalotrina. Los valores de CL50 estimados para las poblaciones recogidas en la Comunidad Valenciana, Cataluña y Andalucía oscilaron entre 129 ppm y 287 ppm, igualando o sobrepasando la concentración recomendada para los tratamientos de campo (125 ppm). Estos resultados contrastan con los obtenidos con tres poblaciones de campo recogidas en Túnez, cuya susceptibilidad fue similar a la de la línea control (C). La línea resistente a lambda-cihalotrina W-1K se continuó seleccionando en el laboratorio alcanzándose unos niveles de resistencia de 205 veces con respecto a la línea C, siendo su CL50 (4224 ppm) más de 30 veces superior a la concentración recomendada para los tratamientos de campo. Esta línea resistente mostró altos niveles de resistencia cruzada a deltametrina (150 veces) y a etofenprox (240 veces), lo que sugiere que el desarrollo de resistencia a lambda-cihalotrina podría comprometer la eficacia de otros piretroides para el control de esta plaga. Hemos demostrado que la resistencia de la línea W-1K a lambda-cihalotrina fue casi completamente suprimida por el sinergista PBO, lo que indica que las enzimas P450 desempeñan un papel muy importante en la resistencia a este insecticida. Sin embargo, tanto las moscas de la línea susceptible C como las de la línea resistente W-1K perdieron inmediatamente la capacidad de caminar (efecto “knock-down”) al ser tratadas tópicamente con lambda-cihalotrina, lo que sugiere que la resistencia no está mediada por alteraciones en la molécula diana (resistencia tipo “kdr”). La resistencia metabólica mediada por P450 fue analizada comparando la expresión de 53 genes CYP (codifican enzimas P450) de las familias CYP4, CYP6, CYP9 y CYP12 en adultos de la línea resistente W-1K y de la línea susceptible C. Nuestros resultados muestran que el gen CYP6A51 (número de acceso GenBank XM_004534804) fue sobreexpresado (13-18 veces) en la línea W-1K. Por otra parte, la expresión del gen CYP6A51 fue inducida tanto en adultos de la línea W-1K como de la línea C al ser tratados con lambda-cihalotrina. Sin embargo, no se obtuvieron diferencias significativas entre la línea susceptible C y la línea resistente W-1K al comparar la cantidad de P450 y la actividad NADPH-citocromo c reductasa presente en fracciones microsomales obtenidas a partir de abdómenes. Asimismo, no hemos podido correlacionar el metabolismo de deltametrina, estimado in vitro mediante la incubación de este insecticida con fracciones microsomales, con el nivel de resistencia a este piretroide observado en los bioensayos con la línea W-1K. Por otro lado, no se encontró ninguna alteración en la región promotora 5'UTR del gen CYP6A51 (-500 pb desde el inicio de la traducción) que pudiera explicar su sobreexpresión en la línea W-1K. Los datos obtenidos sugieren que la resistencia a lambda-cihalotrina en la línea W-1K está mediada por P450 y que la sobreexpresión de CYP6A51 puede desempeñar un papel importante, aunque se necesitan más evidencias para establecer una asociación directa de la resistencia con este gen. Hemos estudiado la herencia, el coste biológico y la estabilidad de la resistencia a malatión mediada por la mutación G328A y la duplicación del gen Ccace2 (una de las copias lleva la mutación G328A). La línea susceptible C, donde no se encuentra la mutación G328A (genotipo S/S), se cruzó con dos isolíneas establecidas para representar genotipos únicos correspondientes a los dos mecanismos de resistencia asociados a la molécula diana: 1) la isolínea 267Y (genotipo R/R) establecida a partir de una pareja que portaba la mutación G328A en homocigosis; 2) la isolínea 306TY (genotipo RS/RS) establecida a partir de una pareja que portaba en homocigosis la duplicación del gen Ccace2. No se realizaron cruces recíprocos, ya que mediante experimentos de hibridación in situ en cromosomas politénicos se pudo comprobar que el locus de la AChE y la duplicación (probablemente en tándem) se localizan en el cromosoma autosómico 2L. La susceptibilidad al malatión de los parentales resistentes (R/R o RS/RS) y susceptibles (S/S), los cruces F1 (S/R, S/RS y R/RS) y los retrocruzamientos indican que la resistencia a malatión es semi-dominante en ambos casos. Sin embargo, nuestros resultados no fueron concluyentes con respecto a la naturaleza monogénica de la resistencia a malatión en estas isolíneas. Por lo tanto, no podemos descartar que otros genes que contribuyan a la resistencia, además de la mutación G328A (isolínea 267Y) y de la duplicación del gen Ccace2 (isolínea 306TY), puedan haber sido seleccionados durante el proceso de selección de 267Y y 306TY. Varios parámetros biológicos fueron evaluados para determinar si estos dos mecanismos de resistencia a malatión suponen un coste biológico para los genotipos resistentes. Individuos con genotipo R/R mostraron un retraso en el tiempo de desarrollo de huevo a pupa, un peso de pupa reducido y una menor longevidad de los adultos, en comparación con los individuos con genotipo S/S. Sin embargo, el peso de pupa de los individuos con genotipo RS/RS fue similar al de los individuos S/S, y su desarrollo de huevo a pupa intermedio entre S/S y R/R. Estas diferencias en el coste biológico pueden estar relacionadas con la reducción de la eficiencia catalítica de la AChE mutada en los individuos R/R, y al efecto compensatorio que la copia no mutada del gen tiene en los individuos RS/RS que portan la duplicación. La estabilidad de la resistencia a malatión mediada por la mutación G328A y la duplicación se analizó mediante el seguimiento de los caracteres de resistencia en la progenie de retrocruzamientos S/R x R/R y S/RS x RS/RS a lo largo de varias generaciones en ausencia de presión de selección con insecticidas. Nuestros resultados muestran que la frecuencia del alelo que porta la mutación G328A disminuyó desde 67,5% en la primera generación del retrocruzamiento S/R x R/R (75% esperado, asumiendo segregación mendeliana y que sólo hay dos alelos: uno mutado y otro no mutado) a 12% después de 10 generaciones. Por el contrario, la frecuencia de la duplicación sólo disminuyó desde 75% en en la primera generación del retrocruzamiento S/RS x RS/RS (75% esperado, asumiendo segregación Mendeliana y que la duplicación segrega como un único alelo) a 50% en el mismo período, lo que indica que la duplicación es más estable que la mutación. Asimismo, se analizó la presencia de la mutación y de la duplicación en poblaciones de campo recogidas en seis localidades en 2004-2007, cuando todavía se usaba el malatión, y se comparó con poblaciones recogidas en los mismos campos en 2010, un año después de la prohibición del malatión en la Unión Europea. La frecuencia media del genotipo susceptible (S/S) aumentó del 55,9% en el período 2004-2007 a 70,8% en 2010, mientras que la frecuencia de los genotipos portadores de la mutación en homocigosis o heterocigosis (R/R y S/R) disminuyó del 30,4 al 9,2%, los que llevan la duplicación en homocigosis o heterocigosis (RS/RS y S/RS) aumentaron levemente desde 12,8 hasta 13,3%, y los que llevan a la vez la mutación y la duplicación (R/RS) también aumentaron del 1 al 6,7%. Estos resultados son consistentes con que la duplicación del gen Ccace2 (con una copia con la mutación G328A y la otra copia no mutada) es más ventajosa que la mutación G328A por si sola, ya que la duplicación mantiene los niveles de resistencia a la vez que limita el coste biológico. Para investigar la asociación entre la resistencia a malatión y las mutaciones encontradas previamente en CcE7, hemos generado isolíneas con mutaciones específicas seleccionadas por su ubicación próxima a la entrada al centro activo de la enzima. La isolínea Sm2 (procedente de una hembra heterocigota para la mutación V96L y un macho homocigoto para el alelo no mutado) mantuvo altos niveles de resistencia a malatión, incluso después de 30 generaciones sin presión de selección. Por el contrario, la isolínea 267Y (compuesta por individuos homocigotos para la mutación L267Y) y la línea 306TY (compuesta por individuos homocigotos para la doble mutación R306T-N307Y) mostraron una reducción significativa en los niveles de resistencia. También hemos encontrado que la resistencia a malatión de la línea Sm2 fue parcialmente revertida por DEF y TPP, y que Sm2 mostró una reducción significativa en la actividad MTB, como se ha descrito en otras especies que muestran resistencia específica a malatión mediada por aliesterases. Además, fue posible asociar la presencia de la mutación V96L en individuos de la línea Sm2 con supervivencia a una concentración discriminante de malatión (5,000 ppm) y con una baja actividad MTB. Estos resultados sugieren una posible relación entre la mutación V96L en la aliesterasa CcE7 y la resistencia a malatión, aunque todavía no se puede concluir que la resistencia es causada por esta mutación, siendo necesarios más estudios para comprobar su contribución a la resistencia. En conclusión, se ha encontrado por primera vez resistencia a lambda-cihalotrina en poblaciones de campo de C. capitata, y nuestros resultados indican que las P450 son el principal mecanismo de resistencia en la línea W-1K. Esta situación se suma al caso previamente descrito de resistencia en campo a malatión asociada a la mutación G328A, a la duplicación del gen Ccace2 (una de las copias lleva la mutación G328A) y a resistencia metabólica mediada por esterasas. Nuestros resultados también indican que la alteración de la molécula diana AChE parece ser responsable de un cierto nivel de resistencia a malatión en C. capitata, que puede ser estimada como aproximadamente 25-40 veces para la mutación G328A y 40-60 veces para la duplicación; mientras que la resistencia mediada por esterasas y que ha sido asociada en este estudio con la mutación V96L en CcE7 puede conferir un efecto multiplicativo (por un factor de 5 a 10) aumentando la resistencia a malatión a 200-400 veces. Por otra parte, hemos demostrado que los insectos resistentes que llevan la duplicación tienen un coste biológico menor y muestran una estabilidad mayor que aquellos con la mutación G328A en ausencia de presión de selección con insecticidas. Esto representa un escenario en el que los genotipos con la duplicación permanecerán en el campo en frecuencias bajas a moderadas, pero podrían ser seleccionados rápidamente si se utilizan malatión u otros insecticidas que muestren resistencia cruzada. Estos resultados tienen importantes implicaciones para los programas de manejo de la resistencia, ya que el repertorio de insecticidas eficaces para el control de C. capitata es cada vez más limitado. Además, la coexistencia de múltiples mecanismos de resistencia en poblaciones de campo ofrece el potencial para desarrollar resistencia frente a otros insecticidas disponibles para el control de esta plaga. Estrategias para de manejo de la resistencia basadas en la alternancia de insecticidas con diferentes modos de acción, y su combinación con otros métodos de control, deben ser implementadas para evitar el desarrollo de resistencia en campo. ABSTRACT The Mediterranean fruit fly (Medfly), Ceratitis capitata (Wiedemann, 1824) (Diptera: Tephritidae), is one of the most economically damaging pests of citrus and other fruit crops worldwide. Control measures in citrus crops in Spain from the mid 90's to 2009 were mainly based on field monitoring of population levels and aerial and ground treatments with malathion bait sprays. However, since the withdrawal of phytosanitary products containing malathion in the European Union in 2009, lambda-cyhalothrin and spinosad have become the most widely used insecticides for the control of this pest. Resistance to malathion was found in Spanish field populations of C. capitata in 2004-2005. This resistance has been associated with a mutation G328A in the acetylcholinesterase (AChE), a duplication of the AChE gene (Ccace2) (one of the copies bearing the mutation G328A), and metabolic resistance mediated by esterases (probably aliesterases). However, when the gene of the aliesterase CcE7 was sequenced in individuals from a malathion resistant strain of C. capitata, none of the known G137D and/or W251L/S/G mutations associated to resistance in other species were found, though other mutations were detected when compared with individuals from a susceptible strain. Noteworthy, a lambda-cyhalothrin resistant strain (W-1K) was obtained by selecting a field-derived malathion resistant strain (W-4Km) with lambda-cyhalothrin. Moreover, it has also been demonstrated the capacity of this species to develop resistance to spinosad by laboratory selection. The multiple resistance mechanisms identified highlight the potential of this species to develop resistance to insecticides with different modes of action. The objectives of this PhD Thesis are: 1) to assess the susceptibility of Spanish field populations of C. capitata to lambda-cyhalothrin and to elucidate the resistance mechanisms in the W-1Kλ strain; 2) to compare the inheritance, fitness cost and stability of the malathion resistance mediated by the G328A mutation and the duplication of the Ccace2 gene (with one of the copies bearing the mutation G328A); and 3) to investigate the role of the aliesterase CcαE7 mutations in malathion resistance. All these studies will be of use for devising proactive resistance management strategies that could prevent or delay resistance development and would increase the sustainability of the insecticides available for Medfly control. Our results indicate that Spanish field populations of C. capitata have developed resistance to lambda-cyhalothrin. The LC50 values estimated for populations collected at Comunidad Valenciana, Cataluña and Andalucía ranged from 129 ppm to 287 ppm, equaling or overpassing the recommended concentration for field treatments (125 ppm). These results contrast with those obtained with three different Tunisian field populations, whose susceptibility was similar to that of the control (C) strain. The lambda-cyhalothrin resistant W-1K strain has been further selected to achieve a 205-fold resistance compared to the C strain, being its LC50 (4,224 ppm) more than 30 times higher than the recommended concentration for field applications. This resistant strain showed high levels of cross-resistance to deltamethrin (150-fold) and etofenprox (240-fold), suggesting that the development of resistance to lambda-cyhalothrin may compromise the effectiveness of other pyrethroids for the control of this species. We have shown that the resistance of the W-1K strain to lambda-cyhalothrin was almost completely suppressed by the synergist PBO, indicating that P450 enzymes play a very important role in resistance to this insecticide. However, both susceptible C and resistant W-1K flies were knocked down after topical treatment with lambda-cyhalothrin, suggesting that kdr resistance mediated by alterations of the target site is not playing a major role. Metabolic resistance mediated by P450 was further analyzed by comparing the expression of 53 genes of the families CYP4, CYP6, CYP9 and CYP12 in adults flies from the resistant W-1K and the susceptible C strains. We found that the gene CYP6A51 (GenBank accession number XM_004534804) was overexpressed (13-18-fold) in the W-1K strain. Moreover, the expression of the CYP6A51 gene was induced when adults of the W-1K and C strains were treated with lambda-cyhalothrin. However, no significant differences were obtained between susceptible C and resistant W-1K strains for the quantity of P450 and for the activity of NADPH- cytochrome c reductase measured in microsomal fractions obtained from abdomens. Moreover, we failed to correlate the metabolism of deltamethrin, analyzed in vitro by incubating this insecticide with microsomal fractions, with the resistance level against this pyrethroid observed in bioassays with W-1K. The sequencing of the 5´UTR region of the CYP6A51 gene failed in finding an alteration in the promoter region (-500 bp from translation start site) that could explain overexpression in the W-1K strain. All data obtained suggest that resistance to lambda-cyhalothrin in the W- 1K strain is mediated by P450 and that overexpression of CYP6A51 may play a major role, although further evidences are needed to establish a direct association of resistance with this gene. We have studied the inheritance, fitness cost and stability of the malathion resistance mediated by the G328A mutation and the duplication of the Ccace2 gene (with one of the copies bearing the mutation G328A). The malathion-susceptible C strain where the G328A mutation is not found (S/S genotype) was crossed with two isolines established to represent unique genotypes corresponding to the two target-site resistance mechanisms: 1) the 267Y isoline (genotype R/R) was established from a couple bearing the mutation G328A in homozygosis; and 2) the 306TY isoline (genotype RS/RS) was established from a couple being homozygous for the duplication of the Ccace2 gene. Reciprocal crosses have not been performed, since in situ hybridization on polythene chromosomes showed that the AChE locus and the duplication (most probably in tandem) are placed at the autosomal chromosome 2L. Mortality responses to malathion of resistant isolines (R/R or RS/RS) and susceptible (S/S) genotypes, F1 crosses (S/R, S/RS, and R/RS), and the back-crosses indicated that resistance to malathion is inherited as a semi-dominant trait in both cases. However, our results were not conclusive about the monogenic nature of the resistance to malathion in these isolines. Thus, we can not discard that other genes contributing to resistance, in addition to the mutation G328A (isoline 267Y) and the duplication of the Ccace2 gene (isoline 306TY), may have been selected during the selection process of 267Y and 306TY. Several biological parameters were evaluated to determine if these two malathion resistance mechanisms impose a fitness cost for resistant genotypes. Individuals with genotype R/R have a reduced fitness in terms of developmental time from egg to pupa, pupal weight and adult longevity, when compared to susceptible individuals (genotype S/S). Interestingly, the fitness cost was substantially diminished in individuals with genotype RS/RS. These differences in fitness may be related to the reduction of the catalytic efficiency of mutated AChE in individuals R/R, and the compensatory effect that the non-mutated copy of the gene has on individuals RS/RS bearing the duplication. The stability of malathion reistance associated with the mutation G328A or the duplication was analyzed by following these resistant traits in the progeny of the back-crosses S/RS x RS/RS and S/R x R/R over consecutive generations in the absence of insecticide selection pressure. Our results show that the frequency of the allele bearing the mutation G328A decreased from 67.5% at the first generation of the back-cross S/R x R/R (75% expected, assuming Mendelian segregation and that there are only two alleles: one mutated and the other non-mutated) to 12% after 10 generations. By contrast, the frequency of the duplication only declined from 75% at the first generation of the back-cross S/RS x RS/RS (75% expected, assuming Mendelian segregation and that the duplication segregates as an unique allele) to 50% in the same period, indicating that the duplication is more stable than the mutation. The presence of the mutation and the duplication was analyzed in field populations collected in six localities in 2004-2007, when malathion was still used, and compared to populations collected in the same fields in 2010, one year after the prohibition of malathion in the European Union. The average frequency of the susceptible genotype (S/S) increased from 55.9% in the period 2004-2007 to 70.8% in 2010, whereas the frequency of those genotypes carrying the mutation in homozygosis or heterozygosis (R/R and S/R) declined from 30.4 to 9.2%, those carrying the duplication in homozygosis or heterozygosis (RS/RS and S/RS) increased slightly from 12.8 to 13.3%, and those carrying both the mutation and the duplication (R/RS) also increased from 1 to 6.7%. These results are consistent with the duplication of the Ccace2 gene (with one of the copies bearing the mutation G328A and the other copy non-mutated) being more advantageous than the G328A mutation alone by maintaining resistance while restoring part of the fitness. In order to investigate the association of malathion resistance with mutations previously found in the aliesterase CcE7, we have generated isolines bearing specific mutations selected by their putative location near the upper part of the active site gorge of the enzyme. The isoline Sm2 (originating from a female heterozygous for the mutation V96L and a male homozygous for the non-mutated allele) kept high levels of resistance to malathion, even after 30 generations without selection pressure. On the contrary, the isoline 267Y (composed by individuals homozygous for the mutation L267Y) and the strain 306TY (composed by homozygous for the double mutation R306T-N307Y) showed a significant reduction in the levels of resistance. We have found also that resistance to malathion in the Sm2 isoline was partially reverted by DEF and TPP, and that Sm2 showed a significant reduction in MTB activity, as reported for other species showing malathion-specific resistance mediated by aliesterases. Besides, it was possible to associate the presence of the mutation V96L in individuals from the Sm2 isoline with both survival to a discriminating concentration of malathion (5,000 ppm) and low MTB activity. Our results point out to a possible connection betwen the mutation V96L in the aliesterase CcE7 and resistance to malathion, though we can not yet conclude that the resistance is caused by the mutation, being needed further work to understand its contribution to resistance. In conclusion, resistance to lambda-cyhalothrin has been found for the first time in field populations of C. capitata, and metabolic resistance mediated by P450 appears to be the main resistance mechanism in the resistant strain W-1K. These findings add to the previously reported case of field resistance to malathion, associated to the G328A mutation and the duplication of the Ccace2 gene (with one of the copies bearing the mutation G328A) and to metabolic resistance mediated by esterases. Our results also indicate that altered target site AChE appears to be responsible for a certain level of resistance to malathion in C. capitata, that can be estimated as about 25-40-fold for the mutation G328A and 40-60-fold for the duplication; whereas metabolic resistance mediated by esterases and associated in this study with the mutation V96L in CcE7 may confer a multiplicative effect (by a factor of 5 to10) increasing malathion resistance to 200-400-fold. Moreover, we have shown that resistant insects carrying the duplication have better fitness and exhibit a higher stability than those with the mutation G328A in the absence of insecticide pressure. This represents a scenario where genotypes with the duplication will remain in the field at low to moderate frequencies, but could be rapidly selected if malathion or other insecticides showing cross-resistance are used. These findings have important implications for resistance management programs, as the repertoire of effective insecticides for C. capitata control is becoming very limited. Besides, multiple resistance mechanisms coexisting in field populations provide the potential to develop resistance to other available insecticides for the control of this pest. Appropriate resistance management strategies based on the alternation of insecticides with different modes of action, and their combination with other control methods, must then be implemented to avoid the evolution of resistance in the field.
Resumo:
La mineralogía de procesos se ha convertido en los últimos años en una herramienta indispensable dentro del ámbito minero-metalúrgico debido fundamentalmente a la emergencia de la Geometalurgia. Esta disciplina en auge, a través de la integración de datos geológicos, mineros y metalúrgicos, proporciona la información necesaria para que el circuito de concentración mineral pueda responder de manera rápida y eficaz a la variabilidad mineralógica inherente a la geología del yacimiento. Para la generación del modelo geometalúrgico, la mineralogía de procesos debe aportar datos cuantitativos sobre los rasgos mineralógicos influyentes en el comportamiento de los minerales y para ello se apoya en el uso de sistemas de análisis mineralógico automatizado. Estos sistemas son capaces de proporcionar gran cantidad de datos mineralógicos de manera rápida y precisa. Sin embargo, cuando se trata de la caracterización de la textura, el mineralogista debe recurrir a descripciones cualitativas basadas en la observación, ya que los sistemas actuales no ofrecen información textural automatizada. Esta tesis doctoral surge precisamente para proporcionar de manera sistemática información textural relevante para los procesos de concentración mineral. La tesis tiene como objetivo principal la identificación y caracterización del tipo de intercrecimiento que un determinado mineral presenta en las partículas minerales, e inicialmente se han tenido en cuenta los siete tipos de intercrecimiento considerados como los más relevantes bajo el punto de vista del comportamiento de las partículas minerales durante flotación, lixiviación y molienda. Para alcanzar este objetivo se ha desarrollado una metodología basada en el diseño y cálculo de una serie de índices numéricos, a los que se ha llamado índices mineralúrgicos, que cumplen una doble función: por un lado, cada índice aporta información relevante para caracterizar los principales rasgos mineralógicos que gobiernan el comportamiento de las partículas minerales a lo largo de los procesos de concentración y por otro lado, estos índices sirven como variables discriminantes para identificar el tipo de intercrecimiento mineral mediante la aplicación de Análisis Discriminante. Dentro del conjunto de índices propuestos en este trabajo, se han considerado algunos índices propuestos por otros autores para su aplicación tanto en el ámbito de la mineralogía como en otros ámbitos de la ciencia de materiales. Se trata del Índice de Contigüidad (Gurland, 1958), Índice de Intercrecimiento (Amstutz y Giger, 1972) e Índice de Coordinación (Jeulin, 1981), adaptados en este caso para el análisis de partículas minerales. El diseño de los índices se ha basado en los principios básicos de la Estereología y el análisis digital de imagen, y su cálculo se ha llevado a cabo aplicando el método de interceptos lineales mediante la programación en MATLAB de varias rutinas. Este método estereológico permite recoger una serie de medidas a partir de las que es posible calcular varios parámetros, tanto estereológicos como geométricos, que han servido de base para calcular los índices mineralúrgicos. Para evaluar la capacidad discriminatoria de los índices mineralúrgicos se han seleccionado 200 casos en los que se puede reconocer de manera clara alguno de los siete tipos de intercrecimiento considerados inicialmente en este trabajo. Para cada uno de estos casos se han calculado los índices mineralúrgicos y se ha aplicado Análisis Discriminante, obteniendo un porcentaje de acierto en la clasificación del 95%. Esta cifra indica que los índices propuestos son discriminadores fiables del tipo de intercrecimiento. Una vez probada la capacidad discriminatoria de los índices, la metodología desarrollada ha sido aplicada para caracterizar una muestra de un concentrado de cobre procedente de la mina Kansanshi (Zambia). Esta caracterización se ha llevado a cabo para obtener la distribución de calcopirita según su tipo de intercrecimiento. La utilidad de esta distribución ha sido analizada bajo diferentes puntos de vista y en todos ellos los índices mineralúrgicos aportan información valiosa para caracterizar el comportamiento mineralúrgico de las partículas minerales. Los resultados derivados tanto del Análisis Discriminante como de la caracterización del concentrado de Kansanshi muestran la fiabilidad, utilidad y versatilidad de la metodología desarrollada, por lo que su integración como herramienta rutinaria en los sistemas actuales de análisis mineralógico pondría a disposición del mineralurgista gran cantidad de información textural complementaria a la información ofrecida por las técnicas actuales de caracterización mineralógica. ABSTRACT Process mineralogy has become in the last decades an essential tool in the mining and metallurgical sphere, especially driven by the emergence of Geometallurgy. This emergent discipline provides required information to efficiently tailor the circuit performance to the mineralogical variability inherent to ore deposits. To contribute to the Geometallurgical model, process mineralogy must provide quantitative data about the main mineralogical features implied in the minerallurgical behaviour of minerals. To address this characterisation, process mineralogy relies on automated systems. These systems are capable of providing a large amount of data quickly and accurately. However, when it comes to the characterisation of texture, mineralogists need to turn to qualitative descriptions based on observation, due to the fact that current systems can not offer quantitative textural information in a routine way. Aiming at the automated characterisation of textural information, this doctoral thesis arises to provide textural information relevant for concentration processes in a systematic way. The main objective of the thesis is the automated identification and characterisation of intergrowth types in mineral particles. Initially, the seven intergrowth types most relevant for flotation, leaching and grinding are considered. To achieve this goal, a methodology has been developed based on the computation of a set of numerical indices, which have been called minerallurgical indices. These indices have been designed with two main purposes: on the one hand, each index provides information to characterise the main mineralogical features which determine particle behaviour during concentration processes and, on the other hand, these indices are used as discriminant variables for identifying the intergrowth type by Discriminant Analysis. Along with the indices developed in this work, three indices proposed by other authors belonging to different fields of materials science have been also considered after being adapted to the analysis of mineral particles. These indices are Contiguity Index (Gurland, 1958), Intergrowth Index (Amstutz and Giger, 1972) and Coordination Index (Jeulin, 1981). The design of minerallurgical indices is based on the fundamental principles of Stereology and Digital Image Analysis. Their computation has been carried out using the linear intercepts method, implemented by means of MATLAB programming. This stereological method provides a set of measurements to obtain several parameters, both stereological and geometric. Based on these parameters, minerallurgical indices have been computed. For the assessment of the discriminant capacity of the developed indices, 200 cases have been selected according to their internal structure, so that one of the seven intergrowth types initially considered in this work can be easily recognised in any of their constituents. Minerallurgical indices have been computed for each case and used as discriminant variables. After applying discriminant analysis, 95% of the cases were correctly classified. This result shows that the proposed indices are reliable identifiers of intergrowth type. Once the discriminant power of the indices has been assessed, the developed methodology has been applied to characterise a copper concentrate sample from the Kansanshi copper mine (Zambia). This characterisation has been carried out to quantify the distribution of chalcopyrite with respect to intergrowth types. Different examples of the application of this distribution have been given to test the usefulness of the method. In all of them, the proposed indices provide valuable information to characterise the minerallurgical behaviour of mineral particles. Results derived from both Discriminant Analysis and the characterisation of the Kansanshi concentrate show the reliability, usefulness and versatility of the developed methodology. Therefore, its integration as a routine tool in current systems of automated mineralogical analysis should make available for minerallurgists a great deal of complementary information to treat the ore more efficiently.
Resumo:
En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].
Resumo:
El trabajo que se presenta a continuación desarrolla un modelo para calcular la distancia semántica entre dos oraciones representadas por grafos UNL. Este problema se plantea en el contexto de la traducción automática donde diferentes traductores pueden generar oraciones ligeramente diferentes partiendo del mismo original. La medida de distancia que se propone tiene como objetivo proporcionar una evaluación objetiva sobre la calidad del proceso de generación del texto. El autor realiza una exploración del estado del arte sobre esta materia, reuniendo en un único trabajo los modelos propuestos de distancia semántica entre conceptos, los modelos de comparación de grafos y las pocas propuestas realizadas para calcular distancias entre grafos conceptuales. También evalúa los pocos recursos disponibles para poder experimentar el modelo y plantea una metodología para generar los conjuntos de datos que permitirían aplicar la propuesta con el rigor científico necesario y desarrollar la experimentación. Utilizando las piezas anteriores se propone un modelo novedoso de comparación entre grafos conceptuales que permite utilizar diferentes algoritmos de distancia entre conceptos y establecer umbrales de tolerancia para permitir una comparación flexible entre las oraciones. Este modelo se programa utilizando C++, se alimenta con los recursos a los que se ha hecho referencia anteriormente, y se experimenta con un conjunto de oraciones creado por el autor ante la falta de otros recursos disponibles. Los resultados del modelo muestran que la metodología y la implementación pueden conducir a la obtención de una medida de distancia entre grafos UNL con aplicación en sistemas de traducción automática, sin embargo, la carencia de recursos y de datos etiquetados con los que validar el algoritmo requieren un esfuerzo previo importante antes de poder ofrecer resultados concluyentes.---ABSTRACT---The work presented here develops a model to calculate the semantic distance between two sentences represented by their UNL graphs. This problem arises in the context of machine translation where different translators can generate slightly different sentences from the same original. The distance measure that is proposed aims to provide an objective evaluation on the quality of the process involved in the generation of text. The author carries out an exploration of the state of the art on this subject, bringing together in a single work the proposed models of semantic distance between concepts, models for comparison of graphs and the few proposals made to calculate distances between conceptual graphs. It also assesses the few resources available to experience the model and presents a methodology to generate the datasets that would be needed to develop the proposal with the scientific rigor required and to carry out the experimentation. Using the previous parts a new model is proposed to compute differences between conceptual graphs; this model allows the use of different algorithms of distance between concepts and is parametrized in order to be able to perform a flexible comparison between the resulting sentences. This model is implemented in C++ programming language, it is powered with the resources referenced above and is experienced with a set of sentences created by the author due to the lack of other available resources. The results of the model show that the methodology and the implementation can lead to the achievement of a measure of distance between UNL graphs with application in machine translation systems, however, lack of resources and of labeled data to validate the algorithm requires an important effort to be done first in order to be able to provide conclusive results.
Resumo:
En el futuro, la gestión del tráfico aéreo (ATM, del inglés air traffic management) requerirá un cambio de paradigma, de la gestión principalmente táctica de hoy, a las denominadas operaciones basadas en trayectoria. Un incremento en el nivel de automatización liberará al personal de ATM —controladores, tripulación, etc.— de muchas de las tareas que realizan hoy. Las personas seguirán siendo el elemento central en la gestión del tráfico aéreo del futuro, pero lo serán mediante la gestión y toma de decisiones. Se espera que estas dos mejoras traigan un incremento en la eficiencia de la gestión del tráfico aéreo que permita hacer frente al incremento previsto en la demanda de transporte aéreo. Para aplicar el concepto de operaciones basadas en trayectoria, el usuario del espacio aéreo (la aerolínea, piloto, u operador) y el proveedor del servicio de navegación aérea deben negociar las trayectorias mediante un proceso de toma de decisiones colaborativo. En esta negociación, es necesaria una forma adecuada de compartir dichas trayectorias. Compartir la trayectoria completa requeriría un gran ancho de banda, y la trayectoria compartida podría invalidarse si cambiase la predicción meteorológica. En su lugar, podría compartirse una descripción de la trayectoria independiente de las condiciones meteorológicas, de manera que la trayectoria real se pudiese calcular a partir de dicha descripción. Esta descripción de la trayectoria debería ser fácil de procesar usando un programa de ordenador —ya que parte del proceso de toma de decisiones estará automatizado—, pero también fácil de entender para un operador humano —que será el que supervise el proceso y tome las decisiones oportunas—. Esta tesis presenta una serie de lenguajes formales que pueden usarse para este propósito. Estos lenguajes proporcionan los medios para describir trayectorias de aviones durante todas las fases de vuelo, desde la maniobra de push-back (remolcado hasta la calle de rodaje), hasta la llegada a la terminal del aeropuerto de destino. También permiten describir trayectorias tanto de aeronaves tripuladas como no tripuladas, incluyendo aviones de ala fija y cuadricópteros. Algunos de estos lenguajes están estrechamente relacionados entre sí, y organizados en una jerarquía. Uno de los lenguajes fundamentales de esta jerarquía, llamado aircraft intent description language (AIDL), ya había sido desarrollado con anterioridad a esta tesis. Este lenguaje fue derivado de las ecuaciones del movimiento de los aviones de ala fija, y puede utilizarse para describir sin ambigüedad trayectorias de este tipo de aeronaves. Una variante de este lenguaje, denominada quadrotor AIDL (QR-AIDL), ha sido desarrollada en esta tesis para permitir describir trayectorias de cuadricópteros con el mismo nivel de detalle. Seguidamente, otro lenguaje, denominado intent composite description language (ICDL), se apoya en los dos lenguajes anteriores, ofreciendo más flexibilidad para describir algunas partes de la trayectoria y dejar otras sin especificar. El ICDL se usa para proporcionar descripciones genéricas de maniobras comunes, que después se particularizan y combinan para formar descripciones complejas de un vuelo. Otro lenguaje puede construirse a partir del ICDL, denominado flight intent description language (FIDL). El FIDL especifica requisitos de alto nivel sobre las trayectorias —incluyendo restricciones y objetivos—, pero puede utilizar características del ICDL para proporcionar niveles de detalle arbitrarios en las distintas partes de un vuelo. Tanto el ICDL como el FIDL han sido desarrollados en colaboración con Boeing Research & Technology Europe (BR&TE). También se ha desarrollado un lenguaje para definir misiones en las que interactúan varias aeronaves, el mission intent description language (MIDL). Este lenguaje se basa en el FIDL y mantiene todo su poder expresivo, a la vez que proporciona nuevas semánticas para describir tareas, restricciones y objetivos relacionados con la misión. En ATM, los movimientos de un avión en la superficie de aeropuerto también tienen que ser monitorizados y gestionados. Otro lenguaje formal ha sido diseñado con este propósito, llamado surface movement description language (SMDL). Este lenguaje no pertenece a la jerarquía de lenguajes descrita en el párrafo anterior, y se basa en las clearances (autorizaciones del controlador) utilizadas durante las operaciones en superficie de aeropuerto. También proporciona medios para expresar incertidumbre y posibilidad de cambios en las distintas partes de la trayectoria. Finalmente, esta tesis explora las aplicaciones de estos lenguajes a la predicción de trayectorias y a la planificación de misiones. El concepto de trajectory language processing engine (TLPE) se usa en ambas aplicaciones. Un TLPE es una función de ATM cuya principal entrada y salida se expresan en cualquiera de los lenguajes incluidos en la jerarquía descrita en esta tesis. El proceso de predicción de trayectorias puede definirse como una combinación de TLPEs, cada uno de los cuales realiza una pequeña sub-tarea. Se le ha dado especial importancia a uno de estos TLPEs, que se encarga de generar el perfil horizontal, vertical y de configuración de la trayectoria. En particular, esta tesis presenta un método novedoso para la generación del perfil vertical. El proceso de planificar una misión también se puede ver como un TLPE donde la entrada se expresa en MIDL y la salida consiste en cierto número de trayectorias —una por cada aeronave disponible— descritas utilizando FIDL. Se ha formulado este problema utilizando programación entera mixta. Además, dado que encontrar caminos óptimos entre distintos puntos es un problema fundamental en la planificación de misiones, también se propone un algoritmo de búsqueda de caminos. Este algoritmo permite calcular rápidamente caminos cuasi-óptimos que esquivan todos los obstáculos en un entorno urbano. Los diferentes lenguajes formales definidos en esta tesis pueden utilizarse como una especificación estándar para la difusión de información entre distintos actores de la gestión del tráfico aéreo. En conjunto, estos lenguajes permiten describir trayectorias con el nivel de detalle necesario en cada aplicación, y se pueden utilizar para aumentar el nivel de automatización explotando esta información utilizando sistemas de soporte a la toma de decisiones. La aplicación de estos lenguajes a algunas funciones básicas de estos sistemas, como la predicción de trayectorias, han sido analizadas. ABSTRACT Future air traffic management (ATM) will require a paradigm shift from today’s mainly tactical ATM to trajectory-based operations (TBOs). An increase in the level of automation will also relieve humans —air traffic control officers (ATCOs), flight crew, etc.— from many of the tasks they perform today. Humans will still be central in this future ATM, as decision-makers and managers. These two improvements (TBOs and increased automation) are expected to provide the increase in ATM performance that will allow coping with the expected increase in air transport demand. Under TBOs, trajectories are negotiated between the airspace user (an airline, pilot, or operator) and the air navigation service provider (ANSP) using a collaborative decision making (CDM) process. A suitable method for sharing aircraft trajectories is necessary for this negotiation. Sharing a whole trajectory would require a high amount of bandwidth, and the shared trajectory might become invalid if the weather forecast changed. Instead, a description of the trajectory, decoupled from the weather conditions, could be shared, so that the actual trajectory could be computed from this trajectory description. This trajectory description should be easy to process using a computing program —as some of the CDM processes will be automated— but also easy to understand for a human operator —who will be supervising the process and making decisions. This thesis presents a series of formal languages that can be used for this purpose. These languages provide the means to describe aircraft trajectories during all phases of flight, from push back to arrival at the gate. They can also describe trajectories of both manned and unmanned aircraft, including fixedwing and some rotary-wing aircraft (quadrotors). Some of these languages are tightly interrelated and organized in a language hierarchy. One of the key languages in this hierarchy, the aircraft intent description language (AIDL), had already been developed prior to this thesis. This language was derived from the equations of motion of fixed-wing aircraft, and can provide an unambiguous description of fixed-wing aircraft trajectories. A variant of this language, the quadrotor AIDL (QR-AIDL), is developed in this thesis to allow describing a quadrotor aircraft trajectory with the same level of detail. Then, the intent composite description language (ICDL) is built on top of these two languages, providing more flexibility to describe some parts of the trajectory while leaving others unspecified. The ICDL is used to provide generic descriptions of common aircraft manoeuvres, which can be particularized and combined to form complex descriptions of flight. Another language is built on top of the ICDL, the flight intent description language (FIDL). The FIDL specifies high-level requirements on trajectories —including constraints and objectives—, but can use features of the ICDL to provide arbitrary levels of detail in different parts of the flight. The ICDL and FIDL have been developed in collaboration with Boeing Research & Technology Europe (BR&TE). Also, the mission intent description language (MIDL) has been developed to allow describing missions involving multiple aircraft. This language is based on the FIDL and keeps all its expressive power, while it also provides new semantics for describing mission tasks, mission objectives, and constraints involving several aircraft. In ATM, the movement of aircraft while on the airport surface also has to be monitored and managed. Another formal language has been designed for this purpose, denoted surface movement description language (SMDL). This language does not belong to the language hierarchy described above, and it is based on the clearances used in airport surface operations. Means to express uncertainty and mutability of different parts of the trajectory are also provided. Finally, the applications of these languages to trajectory prediction and mission planning are explored in this thesis. The concept of trajectory language processing engine (TLPE) is used in these two applications. A TLPE is an ATM function whose main input and output are expressed in any of the languages in the hierarchy described in this thesis. A modular trajectory predictor is defined as a combination of multiple TLPEs, each of them performing a small subtask. Special attention is given to the TLPE that builds the horizontal, vertical, and configuration profiles of the trajectory. In particular, a novel method for the generation of the vertical profile is presented. The process of planning a mission can also be seen as a TLPE, where the main input is expressed in the MIDL and the output consists of a number of trajectory descriptions —one for each aircraft available in the mission— expressed in the FIDL. A mixed integer linear programming (MILP) formulation for the problem of assigning mission tasks to the available aircraft is provided. In addition, since finding optimal paths between locations is a key problem to mission planning, a novel path finding algorithm is presented. This algorithm can compute near-shortest paths avoiding all obstacles in an urban environment in very short times. The several formal languages described in this thesis can serve as a standard specification to share trajectory information among different actors in ATM. In combination, these languages can describe trajectories with the necessary level of detail for any application, and can be used to increase automation by exploiting this information using decision support tools (DSTs). Their applications to some basic functions of DSTs, such as trajectory prediction, have been analized.
Resumo:
La necesidad creciente del ciudadano por recuperar las relaciones con su entorno en busca de un cambio que mejore su calidad de vida, hace que nos replanteemos las ciudades y los elementos que la componen. La presente investigación se centra en los pavimentos urbanos como elemento principal de conexión entre el ciudadano y su entorno, de generación del paisaje urbano. El paisaje urbano nos ofrece el pavimento como parte exterior y visible de su piel, la epidermis, en la que se apoya y desarrolla toda la actividad de la ciudad, dando forma e influyendo en la calidad del espacio Los pavimentos urbanos deben permitir la utilización y el uso de la vía pública exterior con total seguridad y confort para el ciudadano. El objetivo principal de la presente investigación es poder establecer criterios de diseño y uso en los pavimentos urbanos, atendiendo a los parámetros funcionales (estudio de la marcha humana: normal y patológica, ergonomía, antropometría, biomecánica) y formales o de diseño (relacionados con la dimensión, la forma, el color, la textura o las juntas, la usabilidad, durabilidad, desgaste). Se añaden factores externos como contaminantes, lugar, usos, climatología. La normativa existente, tanto a nivel nacional como internacional, no establece un nivel de seguridad para los pavimentos exteriores. La situación se agrava con la existencia de una variedad de métodos de ensayos y de directivas europeas, no consiguiendo llegar a un consenso en la designación del método de ensayo más adecuado al tipo de material y uso. La tesis concluye que se deben tener en cuenta las necesidades del ciudadano. Seleccionar el material adecuado al lugar y buscar las características adecuadas del material en las condiciones de uso previstas. Conocer el lugar y el uso al que se destina de forma que definamos las características fundamentales que se mantienen inalterables durante un periodo de tiempo razonable ABSTRACT The increasing need for citizens to recover their relationship with their environment as they seek to improve quality of life has made us reconsider cities and the elements that constitute them. This piece of research is focused on urban pavements as an essential element of connection between the citizen and their environment in the urban area. The urban area offers pavements as an external and visible part of its skin, its epidermis, upon which all activity is supported and carried out, giving shape and influencing in the quality of space. Citizens should be allowed to use urban pavements on public roads with total safety and comfort. The main objective of this research is to be able to establish criteria for the design and use of urban pavements, according to both functional parameters (study of human walking – normal and pathological, ergonometric, anthropometric, and biomechanically) as well as formal or design parameters (related to size, shape, colour, texture, joinings, usability, durability and resilience). Further external considerations are taken into account such as pollution, location, use and climate. Current regulations, both national and internationally, do not establish a standard degree of safety for exterior pavements. The situation is complicated further by the existence of a number of test methods and European directives, that do not reach a consensus on the most appropriate test methods on usage and materials. The thesis concludes that the focus should be citizen-centric. Materials should be chosen according to how appropriate they are for the location and the designated kind of usage. Understanding and knowing the site and the proposed kind of use are of fundamental necessity when defining the characteristics that are unchanging over a reasonable period of time.
Resumo:
La tesis plantea el estudio de la figura de Fernando García Mercadal (1896- 1985) y su obra, en el contexto del proyecto moderno perteneciente a la racionalidad teórica colectiva de la segunda generación del Movimiento Moderno en Europa, y explora la vida y circunstancias de un arquitecto que aunque nacido en el XIX, trajo la modernidad a España. El Movimiento Moderno en España, se articula en las décadas de los años 20 y 30 a través del GATEPAC y un grupo de arquitectos racionalistas en Madrid que Carlos Flores denomina Generación del 1925. Fernando García Mercadal, primero de su promoción en 1921 y pensionado en Roma, pertenece a ambos y pronto se convierte junto con Josep Lluis Sert, en una de las figuras más relevantes del panorama moderno español. Único miembro fundador del GATEPAC que había nacido en el siglo XIX, publica habitualmente en la revista AC (1931-1937), y en la revista Arquitectura desde 1920. Organiza en la Residencia de Estudiantes, entre 1928 y 1932, un famoso ciclo de Conferencias que imparten Le Corbusier, Mendelsohn, Van Doesburg, Gropius y Giedion. También asiste a la reunión constituyente de los CIAM en La Sarraz en 1928, al CIAM II en Frankfurt en 1929 y al CIAM III en Bruselas en 1930. Fue profesor en la Escuela de Arquitectura de Madrid y Arquitecto Jefe de la Oficina de Urbanismo y de Parques y Jardines del Ayuntamiento de Madrid, cargo al que accede por oposición en 1932. Tras la guerra fue depurado e inhabilitado profesionalmente, hasta que en 1946 comienza a trabajar en el Departamento de Arquitectura del I.N.P. donde continúa hasta los años 70. En 1979 es nombrado Académico de número de la Real Academia de Bellas Artes de San Fernando y muere en Madrid en 1985. Estos son los datos conocidos y aunque en la tesis se aportan nuevos datos inéditos, es en las premisas para su interpretación donde este trabajo de investigación pone el acento. En la historiografía de nuestra arquitectura moderna, pervive una tendencia a suponer una desconexión entre la vanguardia arquitectónica en los años 20 y 30 y el movimiento moderno internacional. El manto de silencio que cayó sobre la generación anterior a la guerra, una vez terminada esta, contribuye a reforzar la idea, cuyo origen y causas exceden el ámbito de trabajo, aunque se tratarán tangencialmente por ser ineludible hacerlo. La tesis pone en cuestión ese planteamiento desde el convencimiento fundamentado en los datos y en la consulta de fuentes originales, que la arquitectura española anterior a la guerra, aun con las circunstancias particulares del país, estuvo en sintonía con la europea, siendo esta la hipótesis de partida de la investigación. Las aportaciones más significativas que, a mi entender, presenta la tesis doctoral, y tienen mayor originalidad, son las siguientes; 1.Puesta en valor de la arquitectura de FGM, antes y después de la guerra, abandonando la idea de su supuesta renuncia a las ideas modernas a partir de los 30; 2. Puesta en valor, con aportación de datos concretos, de la Intensa relación mantenida por FGM y otros arquitectos españoles del Movimiento Moderno con los arquitectos de igual tendencia en el resto de Europa, a través de contactos recíprocos y continuos; 3. Estudio de la obra de FGM en el marco del Movimiento Moderno como una nueva arquitectura basada no tanto en la epidermis, como en una forma de hacer y encarar los problemas donde el proceso es tan importante como el resultado; con el Urbanismo como una nueva ciencia, y con el desarrollo de nuevos programas funcionales acordes a las necesidades de la sociedad contemporánea como el Rincón de Goya y el Hospital de Zaragoza. Se manejan tres métodos de trabajo. Los dos primeros aportan un nuevo enfoque al análisis crítico de FGM y su obra, situándole en el contexto internacional, además del español. El tercero, de carácter instrumental, permite el manejo y sistematización de la documentación. El primer método, consiste en aplicar el criterio generacional de Pevsner o Giedion entre otros, al Movimiento Moderno en España, situando a Fernando García Mercadal como arquitecto de la segunda generación, para hacer un análisis crítico comparativo de su trayectoria con otros arquitectos europeos de la misma, que permita establecer semejanzas y diferencias. El segundo método, complementario al anterior, consiste en estudiar las relaciones internacionales de FGM con las figuras más próximas a él y sus posibles influencias. Por último, y en relación con la documentación de obras y proyectos, se manejan a su vez dos criterios. Para la obra completa, y debido a la inexistencia de originales del Legado García Mercadal, se utiliza con carácter general el material ya publicado, disperso en libros y revistas. En el caso de las cinco obras seleccionadas, se completa con búsqueda en archivos, toma de datos in situ actualizados cuando es posible, y una recopilación de su repercusión en prensa escrita de su momento. ABSTRACT This research study focuses on Fernando Garcia Mercadal (1896-1985) and his work in the context of the Modern project as part of the collective theoretical rationality of the second generation of European Modern architecture. It explores the life and circumstances of the architect, who even though born in 19th century introduced Modern architecture in Spain. Modern architecture (Modern Movement) in Spain covered two decades between 20's and 30's through GATEPAC and a group of rationalists in Madrid that Carlos Flores named “generation of '25”. Fernando Garcia Mercadal, top of his class in 1921 and granted with the scholarship in Rome, belonged to both groups and early in his career he became, along with Josep Lluis Sert, one of the most relevant figures of Modern Architecture in Spain. He was the only member of GATEPAC who was born in 19th century. He frequently published on the magazine “AC” (1931-1937) and on “Arquitecture” magazine since 1920. He organized a series of famous lectures at “Residencia de Estudiantes” (Madrid) between 1928 and 1932 in which Le Corbusier, Mendelsohn, Van Doesburg, Gropius or Giedion took part. He was a member of the constituent meeting of CIAM in La Sarraz in 1928, CIAM II in Frankfurt in 1929 and CIAM III in Brussels in 1930. Mercadal was a teacher at Escuela de Arquitectura de Madrid and the Chief of the Urban Planning, Parks and Gardens Office of the Council of Madrid. He earned his position by public examination in 1932. After the civil war he was disqualified professionally until 1946, when he started working at the Architecture Department at INP until 70's. In 1979 he was elected as an academic member of “Real Academia de Bellas Artes de San Fernando” and later died in 1985. These are the well-known facts and even though this research study provides unpublished facts, it focuses on the premises to interpret them. Throughout the historiographical discourse of Spanish Modern architecture there is a tendency to assume a disconnection between the Avant-garde architecture movements in 20's and 30's and International Modern architecture (Modern Movement). The generation preceding the war remained silent in regard to this issue and once the war was over, they contributed to support the disconnection. The origin and cause exceed the frame of this work, even though they are incidentally commented due to its importance. This research study questions the approach explained above, based on the facts and the original sources. Its first hypothesis states that Spanish architecture before the civil war was, under its own circumstances, in tune with European architecture. The most important and original contributions of this research study are the following under my point of view: 1. To highlight the architecture of FGM, before and after the war, leaving behind his reputed withdrawal of Modernity after 30's; 2. To highlight the intense relationship between FGM and other Modern Spanish architects and other European architects sharing the same ideas, providing detailed facts; 3. Study of FGM's work in the context of Modern architecture as a new architecture based on its know-how and the way problems are faced. The process is as important as the result, not so much based on the dermis; with urban planning as the new science and with the development of the new functional programs based on the needs of contemporary society as in Rincón de Goya or Hospital de Zaragoza. Three work methods are used. The first two add a new vision of the critical analysis related to FGM and his work, positioning him in the international context in addition to Spain. The third is used as an instrument to manage and systematize the documentation. The first method applies the generational criteria of Pevsner or Giedion (among others) to Modern architecture in Spain, positioning Fernando Garcia Mercadal as a second generation architect. A critical-comparative analysis of his career and contemporary European architects is made to establish similarities and differences. The second method is complementary to the previous one and studies the international relationships of FGM with other recognised architects that were close to him and their possible influences. At last, in relation to his works and projects, two methods are used. For the complete works, due to the lack of originals, published material found on magazines and books is used as the source. In the case of the five selected buildings, it is complemented with archive search, onsite data collection when possible and the impact on the press at that moment.
Resumo:
La seguridad en el ámbito nuclear juega un papel muy importante debido a las graves consecuencias que pueden tener los posibles accidentes, cuyos efectos se pueden extender por extensos espacios y prolongarse mucho en el tiempo. Es por eso que desde el inicio del desarrollo de la tecnología nuclear siempre se ha vigilado por mantener las instalaciones nucleares en un nivel de riesgo aceptable. En esta tesis se pretende poner de manifiesto algunas carencias del análisis de riesgo clásico que se resumen en una forma de distinguir y separar transitorios de daño y transitorios seguros pertenecientes a una misma secuencia, definiendo el llamado dominio de daño y evaluando la probabilidad de que algún transitorio perteneciente a la secuencia sea de daño, es decir, que esté contenido dentro de la región del dominio de daño, aportando la llamada probabilidad de superación para obtener la frecuencia de superación de estados finales no deseados. En la tesis se realiza en primer lugar un breve resumen de algunos reactores de alta temperatura refrigerados con gas, de los que se ha elegido al reactor de prueba de alta temperatura (HTTR) como ejemplo para mostrar la metodología. Aparte de ver el diseño de los diferentes reactores y su aportación a la investigación y desarrollo de nuevos modelos, se estudiaron algunos incidentes y se tomaron datos de algunos de ellos para ajustar las probabilidades de los sucesos a emplear en los árboles de fallos. Seguidamente se realiza un análisis simple de una secuencia, según la metodología clásica de análisis probabilista del riesgo, usando solo arboles de fallos y de sucesos, evaluando la frecuencia de daño de dicha secuencia. En el núcleo de la Tesis se describe la metodología y la aportación que se propone para obtener la cuantificación de tan solo los transitorios de daño y su aportación al estado final. Una aportación significativa es el modelado del HTTR, plasmado en el programa de simulación HTTR5+, necesario para poder aplicar la metodología, con el que se ha llevado a cabo la simulación de un transitorio de prueba, a fin de realizar la comparación con el obtenido por el fabricante (JAERI), buscando el dominio de daño y su cuantificación. Para este fin, se desarrolló un módulo que gestiona las diferentes simulaciones para delinear el dominio de daño, el cual se integró al simulador HTTR5+ para crear el programa DD-HTTR5+. Los resultados de la frecuencia de superación de la variable de daño se han comparado con los obtenidos por el método tradicional, para finalmente extraer las conclusiones de la Tesis. Uno de los resultados más significativos es que para la secuencia analizada un 40% de los transitorios que pertenecen a la secuencia son de daño y el otro 60% son transitorios seguros. Al emplear el método clásico se estaba realizando una sobreestimación de la probabilidad y frecuencia de daño. La Tesis también contiene en anexos una descripción muy detallada del HTTR, con respecto a su diseño, modos de operación, sistemas y componentes, etc. También se detallan las propiedades termofísicas del HTTR, así como las tasas de fallos y los árboles de fallos utilizados. Toda esta información fue de gran ayuda para realizar el modelo y programa de simulación HTTR5+.