139 resultados para Superficies algebraicas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de este proyecto es la modelización tridimensional de superficies rocosas de litología de areniscas triásicas, en concreto unas manifestaciones rupestres que podrían corresponder a un yacimiento celta. Uno de los motivos tenidos en cuenta a la hora de elegir este emplazamiento es generar la representación de un lugar por descubrir, con interés arqueológico y geológico, y que pueda ayudar a ampliar el patrimonio cultural de la zona. El motivo por el que se eligió la metodología láser escáner, es la capacidad que tienen estos equipos de analizar sobre la roca patrones geométricos y detalles morfológicos que, a simple vista, pasan desapercibidos. Toda la región está documentada como zona con numerosas manifestaciones de civilizaciones celtíberas y romanas, con emplazamientos militares, castros, necrópolis…, lo cual es un contexto a tener en cuenta a la hora de la adscripción de datación del yacimiento encontrado. Además, se sabe que el litoral del mar de Tethys llegaba en el Triásico hasta ese lugar, información que será de interés más adelante para corroborar una de las manifestaciones encontradas, adicionales al posible yacimiento celta anteriormente mencionado. La placa rocosa en la que se centrará el estudio de la modelización 3D abarca aproximadamente 5x5 metros. El equipo que se ha utilizado para el levantamiento es un láser escáner Riegl LMS-Z420i con una precisión teórica de 10 mm, y que cuenta con cámara Canon EOS 20D calibrada. El software utilizado ha sido el programa propio del láser escáner, Riscan Pro, para un procesamiento inicial, y el programa Real Works, para completar el trabajo de modelización y análisis objeto del presente Proyecto Fin de Carrera (PFC). Como parte del proyecto, se describen los pasos del procesamiento con dichos programas, para agilizar el trabajo de futuros profesionales que utilicen este proyecto como guía. Al final, como resultado del tratamiento de los datos obtenidos, se obtiene un modelo tridimensional de la placa rocosa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, existe la necesidad de vincular la práctica urbana y arquitectónica al pensamiento ecológico. Eso sucede porque el paisaje es el ámbito disciplinario que registra una mayor identidad contemporánea del lugar y el medio a través del cual asociar las estructuras urbanas a los procesos ecológicos. La amplitud conceptual del término paisaje, le otorga la capacidad para teorizar y proyectar sitios, territorios, ecosistemas, redes organizacionales complejas, infraestructuras, amplias superficies urbanas, y ser visto a la vez como una herramienta de negociación entre conflictos territoriales, diferentes escalas, cruces de fronteras administrativas y enfoques sectoriales. En esta tesis se presenta una propuesta metodológica para la implementación del Convenio Europeo del Paisaje (Consejo de Europa, 2000) en contextos urbanos y periurbanos. Para ello, la tesis aborda, desde una perspectiva aplicada a la planificación territorial, las relaciones espaciales de los diferentes elementos del sistema territorial que componen el mosaico paisajístico de una ciudad de rango medio, Segovia, y su entorno inmediato. El enfoque aplicado de la tesis se materializa a partir de una serie de propuestas de diseño, planificación, ordenación, gestión y protección del paisaje enfocadas a resolver problemas concretos detectados en la zona de estudio seleccionada. Para definir dichas propuestas,, la tesis adopta las bases teóricas o conceptuales de la Arquitectura del Paisaje, una disciplina de diseño aplicada, basada en significados sociales, ecológicos, económicos, culturales e históricos y en los valores visuales y estéticos. El resultado es la propuesta de una herramienta, el Plan de Paisaje de Segovia, cuyo objetivo es el de ofrecer una estrategia para el desarrollo a escala local basado en los procesos ecológicos y las estructuras del paisaje. La identificación y caracterización del paisaje, la definición de objetivos de calidad paisajística de protección, conservación, restauración y creación de nuevos paisajes, así como la propuesta de una estrategia de infraestructura verde para el municipio que promueva la conexión ecológica a escala regional, pretenden enriquecer y mejorar el proceso de planificación urbana y logran una ordenación territorial más integrada, más armónica y equilibrada. Los beneficios de incorporar un enfoque basado en el carácter del paisaje para asesorar en la toma de decisiones sobre el crecimiento urbano y los futuros desarrollos están cada vez mas demostrados y reconocidos. En el contexto europeo, los Planes de Paisaje están siendo incorporados como una nueva herramienta para hacer más efectivo el cumplimiento de los objetivos de desarrollo sostenible. ABSTRACT Nowadays, there is a need to link urban and architectural practice to ecological thinking, being landscape the disciplinary field which has the highest contemporary identity of the place, as well as the capacity to associate urban structures with ecological processes. The conceptual scope of the term landscape offers the ability to theorize and project sites, territories, ecosystems, complex organizational networks, infrastructures, large urban areas, and be seen as a tool to negotiate between territorial conflicts, different scales, administrative boundaries and sectoral approaches. A methodology for the implementation of the European Landscape Convention (Council of Europe, 2000) in urban and peri-urban contexts is presented in this thesis. To do this, the thesis examines, from an applied perspective to spatial planning, the spatial relationships of the different elements of the territorial system that make up the landscape mosaic of Segovia, a middle size city, and its immediate surroundings. The applied approach results in a series of proposals for design, planning, development, management and protection of the landscape focused on solving specific problems identified in the study area selected. To define these proposals, the thesis adopts the theoretical and conceptual foundations of Landscape Architecture, an applied design discipline, based on social, ecological, economic, cultural and historical meanings and visual and aesthetic values. The result is the proposal of a tool, the Landscape Plan of Segovia, whose aim is to provide a strategy for development at the local level, based on ecological processes and landscape structures. The identification and characterization of the landscape, the definition of landscape quality objectives for protection, conservation, restoration and creation of new landscapes as well as a proposed green infrastructure strategy for the town to promote ecological connectivity regionally, intend to enrich and improve the urban planning process and ensure a more integrated, harmonious and balanced territorial development. The benefits of incorporating an approach based on the character of the landscape to assist in the decision making processes on urban growth and future developments are increasingly recognized and proven. In the European context, Landscape Plans are being incorporated as a new tool for a more effective compliance with the objectives of sustainable development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El comportamiento post-rotura de los vidrios laminados es uno de los temas que están siendo investigados para explicar la capacidad de carga remanente tras la rotura de la primera lámina. En investigaciones previas se ha observado que en el caso de impacto humano en vidrios recocidos se llega a una capacidad hasta 3 veces superior, sin explicación clara del comportamiento estructural del conjunto. Para realizar un acercamiento a la resistencia a la rotura del vidrio laminado se ha planificado una campaña de ensayos de rotura con anillos concéntricos de grandes superficies en vidrio recocido, termoendurecido y templado, con dos series adicionales de vidrio recocido y termoendurecido con una capa de butiral adherida justo después del proceso de fabricación. Para realizar la comparación de las distribuciones de Weibull de las distintas tensiones de rotura se utiliza un proceso iterativo basado en la distribución real de tensiones obtenida con un modelo de elementos finitos ajustado con datos experimentales. Las comparaciones finales muestran un aumento apreciable de la resistencia (45%) en el caso de vidrios recocidos, y menor en el de los termoendurecidos (25%).The post-fracture behavior of the laminated glasses is one of the research topics that are being studied to explain the load capacity after the break of the first sheet. Previous experimental work have shown, that in case of human impact in annealed glasses, the capacity of bearing load it can be up to 3 times higher without clear explanation of the structural behavior of the plate. To make an approximation to the post-fracture resistance, a experimental program to test annealed, heat-tempered and toughened glass plates has been prepared. Two additional series of annealed and heattempered, with a layer of polyvinyl butyral adhered just after the manufacturing process, have also been incorporated. Coaxial Double Ring with large test surface areas Coaxial Double Ring with large test surface areas is the standard that has been followed. To make the comparison of Weibull's distributions of the different fracture stress, an iterative process based on the actual stress distribution obtained with a finite elements model updated with experimental results has been used. Final comparisons show a great stress improvement for the annealed glass plates (45 %), and a minor increment for the heat-tempered (25 %).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El origen de la investigación se basa en la necesid ad de intervención a nivel ambiental, económico y social, en el barrio Almenara de Tetuán , Madrid. El objetivo principal de la investigación es la búsqueda de una metodología de rehabilitación energética de barrios y regeneración urbana. Los objetivos secundarios so n la aplicación de la metodología al barrio reduciendo las demandas energéticas de modo directo, mediante la mejora de los parámetros característicos de la envolvente, y de m odo indirecto, mediante la aplicación de materiales fríos en cubierta y fachada, la intro ducción de envolventes vegetales, que aumenten la evapotranspiración y reduzcan la temper atura ambiental y la modificación de la morfología de la cubierta, incorporando zonas de estancia. Todo ello, en busca de un espacio urbano global. La metodología de trabajo comenzó con la caracterización histórica y normativa del área por medio de la cons ulta de publicaciones del Ministerio y Gerencia de Urbanismo. Y la caracterización edifica toria del barrio por medio de los Archivos de Documentación histórica. Desde el punto de vista medioambiental, se ha realizado un análisis climático, a partir de la dir ección y velocidad de los vientos y la radiación solar recibida por las superficies estruc turantes de pavimentación y cubiertas, así como las fachadas en los solsticios y equinocci os. Todo ello, analizando la localización de las zonas verdes actuales y futuras y su influen cia. Se ha analizado la movilidad del transporte público, la influencia de los ciclistas y accesibilidad de personas con movilidad reducida. Se han obtenido las lesiones como parámet ros en términos de condicionamiento térmico, a nivel urbano y edificat orio y se ha realizado un trabajo a nivel termográfico de la edificación. El análisis s ocial y poblacional se ha obtenido mediante una encuesta de elaboración propia sobre e l estado actual de la edificación, las condiciones de confort de los inquilinos, y la obte nción de indicadores de Vulnerabilidad Urbana a través de la aplicación de cartografía din ámica online denominada “Atlas de Vulnerabilidad Urbana de España”. Finalmente, se ha aplicado todo lo anterior al barrio Almenara a nivel urbano y edificatorio, sobre una m anzana residencial tipo, y sobre una vivienda característica, desde el punto de vista me dioambiental, económico y social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una amarra electrodinámica (electrodynamic tether) opera sobre principios electromagnéticos intercambiando momento con la magnetosfera planetaria e interactuando con su ionosfera. Es un subsistema pasivo fiable para desorbitar etapas de cohetes agotadas y satélites al final de su misión, mitigando el crecimiento de la basura espacial. Una amarra sin aislamiento captura electrones del plasma ambiente a lo largo de su segmento polarizado positivamente, el cual puede alcanzar varios kilómetros de longitud, mientras que emite electrones de vuelta al plasma mediante un contactor de plasma activo de baja impedancia en su extremo catódico, tal como un cátodo hueco (hollow cathode). En ausencia de un contactor catódico activo, la corriente que circula por una amarra desnuda en órbita es nula en ambos extremos de la amarra y se dice que ésta está flotando eléctricamente. Para emisión termoiónica despreciable y captura de corriente en condiciones limitadas por movimiento orbital (orbital-motion-limited, OML), el cociente entre las longitudes de los segmentos anódico y catódico es muy pequeño debido a la disparidad de masas entre iones y electrones. Tal modo de operación resulta en una corriente media y fuerza de Lorentz bajas en la amarra, la cual es poco eficiente como dispositivo para desorbitar. El electride C12A7 : e−, que podría presentar una función de trabajo (work function) tan baja como W = 0.6 eV y un comportamiento estable a temperaturas relativamente altas, ha sido propuesto como recubrimiento para amarras desnudas. La emisión termoiónica a lo largo de un segmento así recubierto y bajo el calentamiento de la operación espacial, puede ser más eficiente que la captura iónica. En el modo más simple de fuerza de frenado, podría eliminar la necesidad de un contactor catódico activo y su correspondientes requisitos de alimentación de gas y subsistema de potencia, lo que resultaría en un sistema real de amarra “sin combustible”. Con este recubrimiento de bajo W, cada segmento elemental del segmento catódico de una amarra desnuda de kilómetros de longitud emitiría corriente como si fuese parte de una sonda cilíndrica, caliente y uniformemente polarizada al potencial local de la amarra. La operación es similar a la de una sonda de Langmuir 2D tanto en los segmentos catódico como anódico. Sin embargo, en presencia de emisión, los electrones emitidos resultan en carga espacial (space charge) negativa, la cual reduce el campo eléctrico que los acelera hacia fuera, o incluso puede desacelerarlos y hacerlos volver a la sonda. Se forma una doble vainas (double sheath) estable con electrones emitidos desde la sonda e iones provenientes del plasma ambiente. La densidad de corriente termoiónica, variando a lo largo del segmento catódico, podría seguir dos leyes distintas bajo diferentes condiciones: (i) la ley de corriente limitada por la carga espacial (space-charge-limited, SCL) o (ii) la ley de Richardson-Dushman (RDS). Se presenta un estudio preliminar sobre la corriente SCL frente a una sonda emisora usando la teoría de vainas (sheath) formada por la captura iónica en condiciones OML, y la corriente electrónica SCL entre los electrodos cilíndricos según Langmuir. El modelo, que incluye efectos óhmicos y el efecto de transición de emisión SCL a emisión RDS, proporciona los perfiles de corriente y potencial a lo largo de la longitud completa de la amarra. El análisis muestra que en el modo más simple de fuerza de frenado, bajo condiciones orbitales y de amarras típicas, la emisión termoiónica proporciona un contacto catódico eficiente y resulta en una sección catódica pequeña. En el análisis anterior, tanto la transición de emisión SCL a RD como la propia ley de emisión SCL consiste en un modelo muy simplificado. Por ello, a continuación se ha estudiado con detalle la solución de vaina estacionaria de una sonda con emisión termoiónica polarizada negativamente respecto a un plasma isotrópico, no colisional y sin campo magnético. La existencia de posibles partículas atrapadas ha sido ignorada y el estudio incluye tanto un estudio semi-analítico mediante técnica asintóticas como soluciones numéricas completas del problema. Bajo las tres condiciones (i) alto potencial, (ii) R = Rmax para la validez de la captura iónica OML, y (iii) potencial monotónico, se desarrolla un análisis asintótico auto-consistente para la estructura de plasma compleja que contiene las tres especies de cargas (electrones e iones del plasma, electrones emitidos), y cuatro regiones espaciales distintas, utilizando teorías de movimiento orbital y modelos cinéticos de las especies. Aunque los electrones emitidos presentan carga espacial despreciable muy lejos de la sonda, su efecto no se puede despreciar en el análisis global de la estructura de la vaina y de dos capas finas entre la vaina y la región cuasi-neutra. El análisis proporciona las condiciones paramétricas para que la corriente sea SCL. También muestra que la emisión termoiónica aumenta el radio máximo de la sonda para operar dentro del régimen OML y que la emisión de electrones es mucho más eficiente que la captura iónica para el segmento catódico de la amarra. En el código numérico, los movimientos orbitales de las tres especies son modelados para potenciales tanto monotónico como no-monotónico, y sonda de radio R arbitrario (dentro o más allá del régimen de OML para la captura iónica). Aprovechando la existencia de dos invariante, el sistema de ecuaciones Poisson-Vlasov se escribe como una ecuación integro-diferencial, la cual se discretiza mediante un método de diferencias finitas. El sistema de ecuaciones algebraicas no lineal resultante se ha resuelto de con un método Newton-Raphson paralelizado. Los resultados, comparados satisfactoriamente con el análisis analítico, proporcionan la emisión de corriente y la estructura del plasma y del potencial electrostático. ABSTRACT An electrodynamic tether operates on electromagnetic principles and exchanges momentum through the planetary magnetosphere, by continuously interacting with the ionosphere. It is a reliable passive subsystem to deorbit spent rocket stages and satellites at its end of mission, mitigating the growth of orbital debris. A tether left bare of insulation collects electrons by its own uninsulated and positively biased segment with kilometer range, while electrons are emitted by a low-impedance active device at the cathodic end, such as a hollow cathode, to emit the full electron current. In the absence of an active cathodic device, the current flowing along an orbiting bare tether vanishes at both ends and the tether is said to be electrically floating. For negligible thermionic emission and orbital-motion-limited (OML) collection throughout the entire tether (electron/ion collection at anodic/cathodic segment, respectively), the anodic-to-cathodic length ratio is very small due to ions being much heavier, which results in low average current and Lorentz drag. The electride C12A7 : e−, which might present a possible work function as low as W = 0.6 eV and moderately high temperature stability, has been proposed as coating for floating bare tethers. Thermionic emission along a thus coated cathodic segment, under heating in space operation, can be more efficient than ion collection and, in the simplest drag mode, may eliminate the need for an active cathodic device and its corresponding gas-feed requirements and power subsystem, which would result in a truly “propellant-less” tether system. With this low-W coating, each elemental segment on the cathodic segment of a kilometers-long floating bare-tether would emit current as if it were part of a hot cylindrical probe uniformly polarized at the local tether bias, under 2D probe conditions that are also applied to the anodic-segment analysis. In the presence of emission, emitted electrons result in negative space charge, which decreases the electric field that accelerates them outwards, or even reverses it, decelerating electrons near the emitting probe. A double sheath would be established with electrons being emitted from the probe and ions coming from the ambient plasma. The thermionic current density, varying along the cathodic segment, might follow two distinct laws under different con ditions: i) space-charge-limited (SCL) emission or ii) full Richardson-Dushman (RDS) emission. A preliminary study on the SCL current in front of an emissive probe is presented using the orbital-motion-limited (OML) ion-collection sheath and Langmuir’s SCL electron current between cylindrical electrodes. A detailed calculation of current and bias profiles along the entire tether length is carried out with ohmic effects considered and the transition from SCL to full RDS emission is included. Analysis shows that in the simplest drag mode, under typical orbital and tether conditions, thermionic emission provides efficient cathodic contact and leads to a short cathodic section. In the previous analysis, both the transition between SCL and RDS emission and the current law for SCL condition have used a very simple model. To continue, considering an isotropic, unmagnetized, colissionless plasma and a stationary sheath, the probe-plasma contact is studied in detail for a negatively biased probe with thermionic emission. The possible trapped particles are ignored and this study includes both semianalytical solutions using asymptotic analysis and complete numerical solutions. Under conditions of i) high bias, ii) R = Rmax for ion OML collection validity, and iii) monotonic potential, a self-consistent asymptotic analysis is carried out for the complex plasma structure involving all three charge species (plasma electrons and ions, and emitted electrons) and four distinct spatial regions using orbital motion theories and kinetic modeling of the species. Although emitted electrons present negligible space charge far away from the probe, their effect cannot be neglected in the global analysis for the sheath structure and two thin layers in between the sheath and the quasineutral region. The parametric conditions for the current to be space-chargelimited are obtained. It is found that thermionic emission increases the range of probe radius for OML validity and is greatly more effective than ion collection for cathodic contact of tethers. In the numerical code, the orbital motions of all three species are modeled for both monotonic and non-monotonic potential, and for any probe radius R (within or beyond OML regime for ion collection). Taking advantage of two constants of motion (energy and angular momentum), the Poisson-Vlasov equation is described by an integro differential equation, which is discretized using finite difference method. The non-linear algebraic equations are solved using a parallel implementation of the Newton-Raphson method. The results, which show good agreement with the analytical results, provide the results for thermionic current, the sheath structure, and the electrostatic potential.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El wolframio (W) y sus aleaciones se consideran los mejores candidatos para la construcción del divertor en la nueva generación de reactores de fusión nuclear. Este componente va a recibir las cargas térmicas más elevadas durante el funcionamiento del reactor ya que estará en contacto directo con el plasma. En los últimos años, después de un profundo análisis y siguiendo una estrategia de reducción de costes, la Organización de ITER tomó la decisión de construir el divertor integramente de wolframio desde el principio. Por ello, el wolframio no sólo actuará como material en contacto con el plasma (PFM), sino que también tendría aplicaciones estructurales. El wolframio, debido a sus excelentes propiedades termo-físicas, cumple todos los requerimientos para ser utilizado como PFM, sin embargo, su inherente fragilidad pone en peligro su uso estructural. Por tanto, uno de los principales objetivos de esta tesis es encontrar una aleación de wolframio con menor fragilidad. Durante éste trabajo, se realizó la caracterización microstructural y mecánica de diferentes materiales basados en wolframio. Sin embargo, ésta tarea es un reto debido a la pequeña cantidad de material suministrado, su reducido tamaño de grano y fragilidad. Por ello, para una correcta medida de todas las propiedades físicas y mecánicas se utilizaron diversas técnicas experimentales. Algunas de ellas se emplean habitualmente como la nanoindentación o los ensayos de flexión en tres puntos (TPB). Sin embargo, otras fueron especificamente desarrolladas e implementadas durante el desarrollo de esta tesis como es el caso de la medida real de la tenacidad de fractura en los materiales masivos, o de las medidas in situ de la tenacidad de fractura en las láminas delgadas de wolframio. Diversas composiciones de aleaciones de wolframio masivas (W-1% Y2O3, W-2% V-0.5% Y2O3, W-4% V-0.5% Y2O3, W-2% Ti-1% La2O3 y W-4% Ti-1% La2O3) se han estudiado y comparado con un wolframio puro producido en las mismas condiciones. Estas aleaciones, producidas por ruta pulvimetalúrgica de aleado mecánico (MA) y compactación isostática en caliente (HIP), fueron microstructural y mecánicamente caracterizadas desde 77 hasta 1473 K en aire y en alto vacío. Entre otras propiedades físicas y mecánicas se midieron la dureza, el módulo elástico, la resistencia a flexión y la tenacidad de fractura para todas las aleaciones. Finalmente se analizaron las superficies de fractura después de los ensayos de TPB para relacionar los micromecanismos de fallo con el comportamiento macroscópico a rotura. Los resultados obtenidos mostraron un comportamiento mecánico frágil en casi todo el intervalo de temperaturas y para casi todas las aleaciones sin mejoría de la temperatura de transición dúctil-frágil (DBTT). Con el fin de encontrar un material base wolframio con una DBTT más baja se realizó también un estudio, aún preliminar, de láminas delgadas de wolframio puro y wolframio dopado con 0.005wt.% potasio (K). Éstas láminas fueron fabricadas industrialmente mediante sinterizado y laminación en caliente y en frío y se sometieron posteriormente a un tratamiento térmico de recocido desde 1073 hasta 2673 K. Se ha analizado la evolución de su microestructura y las propiedades mecánicas al aumentar la temperatura de recocido. Los resultados mostraron la estabilización de los granos de wolframio con el incremento de la temperatura de recocido en las láminas delgadas de wolframio dopado con potasio. Sin embargo, es necesario realizar estudios adicionales para entender mejor la microstructura y algunas propiedades mecánicas de estos materiales, como la tenacidad de fractura. Tungsten (W) and tungsten-based alloys are considered to be the best candidate materials for fabricating the divertor in the next-generation nuclear fusion reactors. This component will experience the highest thermal loads during the operation of a reactor since it directly faces the plasma. In recent years, after thorough analysis that followed a strategy of cost reduction, the ITER Organization decided to built a full-tunsgten divertor before the first nuclear campaigns. Therefore, tungsten will be used not only as a plasma-facing material (PFM) but also in structural applications. Tungsten, due to its the excellent thermo-physical properties fulfils the requirements of a PFM, however, its use in structural applications is compromised due to its inherent brittleness. One of the objectives of this phD thesis is therefore, to find a material with improved brittleness behaviour. The microstructural and mechanical characterisation of different tunsgten-based materials was performed. However, this is a challenging task because of the reduced laboratory-scale size of the specimens provided, their _ne microstructure and their brittleness. Consequently, many techniques are required to ensure an accurate measurement of all the mechanical and physical properties. Some of the applied methods have been widely used such as nanoindentation or three-point bending (TPB) tests. However, other methods were specifically developed and implemented during this work such as the measurement of the real fracture toughness of bulk-tunsgten alloys or the in situ fracture toughness measurements of very thin tungsten foils. Bulk-tunsgten materials with different compositions (W-1% Y2O3, W-2% V- 0.5% Y2O3, W-4% V-0.5% Y2O3, W-2% Ti-1% La2O3 and W-4% Ti-1% La2O3) were studied and compared with pure tungsten processed under the same conditions. These alloys, produced by a powder metallurgical route of mechanical alloying (MA) and hot isostatic pressing (HIP), were microstructural and mechanically characterised from 77 to 1473 K in air and under high vacuum conditions. Hardness, elastic modulus, flexural strength and fracture toughness for all of the alloys were measured in addition to other physical and mechanical properties. Finally, the fracture surfaces after the TPB tests were analysed to correlate the micromechanisms of failure with the macroscopic behaviour. The results reveal brittle mechanical behaviour in almost the entire temperature range for the alloys and micromechanisms of failure with no improvement in the ductile-brittle transition temperature (DBTT). To continue the search of a tungsten material with lowered DBTT, a preliminary study of pure tunsgten and 0.005 wt.% potassium (K)-doped tungsten foils was also performed. These foils were industrially produced by sintering and hot and cold rolling. After that, they were annealed from 1073 to 2673 K to analyse the evolution of the microstructural and mechanical properties with increasing annealing temperature. The results revealed the stabilisation of the tungsten grains with increasing annealing temperature in the potassium-doped tungsten foil. However, additional studies need to be performed to gain a better understanding of the microstructure and mechanical properties of these materials such as fracture toughness.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El ánimo de superación y consecución de nuevos logros es una constante a lo largo de la historia arquitectura y la ingeniería. La construcción de estructuras cada vez más audaces, ligeras y esbeltas es un buen ejemplo de esta superación, pero este camino no está únicamente ligado a la consecución de nuevas formas estructurales y arquitectónicas, sino también a la búsqueda de una mayor economía de medios y materiales en su construcción, y el caso particular de las estructuras laminares metálicas no es una excepción. La presente tesis doctoral aborda el campo de las láminas de entramado desde una nueva perspectiva: la relación existente entre la introducción de una serie de innovaciones tecnológicas en la industria y la evolución formal de esta tipología estructural, tanto en lo que se refiere a la complejidad de las superficies construidas como en lo relativo a la elegancia de las mallas portantes alcanzada. Para ello esta investigación plantea la caracterización y clasificación de los sistemas constructivos prefabricados empleados en la construcción de láminas metálicas de celosía en función de la influencia de la tecnología y los procesos industriales de producción empleados en la fabricación de sus componentes, considerando asimismo las posibilidades formales y estéticas que ofrecen dichos sistemas y el grado de aprovechamiento de material que su diseño y fabricación permiten. Para alcanzar el objetivo propuesto se propone una metodología analítica específica que aborda la caracterización de los diferentes casos no sólo desde un enfoque cualitativo y abstracto, en función de las propiedades de los sistemas, sino que propone el estudio de su aplicación práctica en la realización de estructuras existentes, pudiendo así cuantificar gran parte de los parámetros considerados en la clasificación. Gracias a la aplicación de esta metodología se ha podido establecer la relación inequívoca que existe entre los avances generados por la industria y la evolución formal de las láminas de celosía, gracias a la unión de la innovación tecnológica y el talento creativo de los diseñadores – arquitectos e ingenieros – en la búsqueda de la belleza. Asimismo se han podido determinar cómo, a pesar de los asombrosos avances realizados, aún existen aspectos susceptibles de optimización en el diseño y fabricación de sistemas constructivos prefabricados, proponiendo nuevas vías de investigación que puedan conducir a la obtención de diseños que puedan llevar aún más lejos el desarrollo de esta tipología estructural. ABSTRACT The aim of improvement and the achievement of new goals is a constant process throughout the history of the architecture and engineering. The construction of increasingly daring, light and slender structures is a great example of this surmounting, but this track is not only related to the attainment of new structural and architectural shapes, but also to the pursuit of a higher economy of means and materials in its building process, and the particular case of steel grid shells makes no exception. The present doctoral dissertation addresses the field of lattice shells from a new viewpoint: the existing relationship between the insertion of a number of technological innovations in the industry and the formal evolution of this structural type, either referring to the complexity of the built surfaces as related to the elegance of the achieved load bearing grids. Within this aim this investigation outlines the characterization and classification of the prefabricated building systems used in the construction of steel trussed shells according to the influence of technology and industrial production processes used in its component fabrication, also considering the formal and aesthetic possibilities that the mentioned systems provide and the performance degree of raw material which its design and fabrication makes possible. In order to reach the proposed objective, this work develops an specific methodology which addresses the characterization of the different cases not only from an abstract and qualitative focus, based on the system properties, but also regarding the analysis of their real use in existing structures, being thus capable to quantify most of the parameters which are considered in this classification. By means of this methodology it has been possible to lay down the unambiguous relationship between the advances provided by the industry and the formal evolution of lattice shells, given the combination of technological innovation and the creative talent of designers – architects and engineers – in the pursuit of beauty. Furthermore, it has been determined how, in spite the astonishing advances that have been made, some issues in the design and fabrication of systems are still suitable to be optimized, addressing new research paths which may lead to the achievement of new designs suitable to drive the development of this structural type even further.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los análisis de fiabilidad representan una herramienta adecuada para contemplar las incertidumbres inherentes que existen en los parámetros geotécnicos. En esta Tesis Doctoral se desarrolla una metodología basada en una linealización sencilla, que emplea aproximaciones de primer o segundo orden, para evaluar eficientemente la fiabilidad del sistema en los problemas geotécnicos. En primer lugar, se emplean diferentes métodos para analizar la fiabilidad de dos aspectos propios del diseño de los túneles: la estabilidad del frente y el comportamiento del sostenimiento. Se aplican varias metodologías de fiabilidad — el Método de Fiabilidad de Primer Orden (FORM), el Método de Fiabilidad de Segundo Orden (SORM) y el Muestreo por Importancia (IS). Los resultados muestran que los tipos de distribución y las estructuras de correlación consideradas para todas las variables aleatorias tienen una influencia significativa en los resultados de fiabilidad, lo cual remarca la importancia de una adecuada caracterización de las incertidumbres geotécnicas en las aplicaciones prácticas. Los resultados también muestran que tanto el FORM como el SORM pueden emplearse para estimar la fiabilidad del sostenimiento de un túnel y que el SORM puede mejorar el FORM con un esfuerzo computacional adicional aceptable. Posteriormente, se desarrolla una metodología de linealización para evaluar la fiabilidad del sistema en los problemas geotécnicos. Esta metodología solamente necesita la información proporcionada por el FORM: el vector de índices de fiabilidad de las funciones de estado límite (LSFs) que componen el sistema y su matriz de correlación. Se analizan dos problemas geotécnicos comunes —la estabilidad de un talud en un suelo estratificado y un túnel circular excavado en roca— para demostrar la sencillez, precisión y eficiencia del procedimiento propuesto. Asimismo, se reflejan las ventajas de la metodología de linealización con respecto a las herramientas computacionales alternativas. Igualmente se muestra que, en el caso de que resulte necesario, se puede emplear el SORM —que aproxima la verdadera LSF mejor que el FORM— para calcular estimaciones más precisas de la fiabilidad del sistema. Finalmente, se presenta una nueva metodología que emplea Algoritmos Genéticos para identificar, de manera precisa, las superficies de deslizamiento representativas (RSSs) de taludes en suelos estratificados, las cuales se emplean posteriormente para estimar la fiabilidad del sistema, empleando la metodología de linealización propuesta. Se adoptan tres taludes en suelos estratificados característicos para demostrar la eficiencia, precisión y robustez del procedimiento propuesto y se discuten las ventajas del mismo con respecto a otros métodos alternativos. Los resultados muestran que la metodología propuesta da estimaciones de fiabilidad que mejoran los resultados previamente publicados, enfatizando la importancia de hallar buenas RSSs —y, especialmente, adecuadas (desde un punto de vista probabilístico) superficies de deslizamiento críticas que podrían ser no-circulares— para obtener estimaciones acertadas de la fiabilidad de taludes en suelos. Reliability analyses provide an adequate tool to consider the inherent uncertainties that exist in geotechnical parameters. This dissertation develops a simple linearization-based approach, that uses first or second order approximations, to efficiently evaluate the system reliability of geotechnical problems. First, reliability methods are employed to analyze the reliability of two tunnel design aspects: face stability and performance of support systems. Several reliability approaches —the first order reliability method (FORM), the second order reliability method (SORM), the response surface method (RSM) and importance sampling (IS)— are employed, with results showing that the assumed distribution types and correlation structures for all random variables have a significant effect on the reliability results. This emphasizes the importance of an adequate characterization of geotechnical uncertainties for practical applications. Results also show that both FORM and SORM can be used to estimate the reliability of tunnel-support systems; and that SORM can outperform FORM with an acceptable additional computational effort. A linearization approach is then developed to evaluate the system reliability of series geotechnical problems. The approach only needs information provided by FORM: the vector of reliability indices of the limit state functions (LSFs) composing the system, and their correlation matrix. Two common geotechnical problems —the stability of a slope in layered soil and a circular tunnel in rock— are employed to demonstrate the simplicity, accuracy and efficiency of the suggested procedure. Advantages of the linearization approach with respect to alternative computational tools are discussed. It is also found that, if necessary, SORM —that approximates the true LSF better than FORM— can be employed to compute better estimations of the system’s reliability. Finally, a new approach using Genetic Algorithms (GAs) is presented to identify the fully specified representative slip surfaces (RSSs) of layered soil slopes, and such RSSs are then employed to estimate the system reliability of slopes, using our proposed linearization approach. Three typical benchmark-slopes with layered soils are adopted to demonstrate the efficiency, accuracy and robustness of the suggested procedure, and advantages of the proposed method with respect to alternative methods are discussed. Results show that the proposed approach provides reliability estimates that improve previously published results, emphasizing the importance of finding good RSSs —and, especially, good (probabilistic) critical slip surfaces that might be non-circular— to obtain good estimations of the reliability of soil slope systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las imágenes satelitales son una importante fuente de información para el seguimiento de la vegetación y de la cartografía de la tierra en varias escalas. Varios índices de vegetación se han empleado para evaluar la calidad y cantidad de la vegetación utilizando datos satelitales. Dado que las características de las bandas espectrales del infrarrojo cercano (NIR, radiación reflejada en la longitud de onda 800 nm) y el rojo (RED, radiación reflejada en la longitud de onda 670 nm) son muy distintas según el tipo de sensor, los valores del Índice de Vegetación de la Diferencia Normalizada (NDVI) variarán según el tamaño del píxel y de la heterogeneidad y la escala de las superficies. Se seleccionaron dos zonas de dehesa (Salamanca y Córdoba) y se tomaron imágenes mensuales del satélite DEIMOS-1 con una resolución espacial de 22 m × 22 m. El objetivo de este estudio es establecer una comparación entre diferentes resoluciones, mediante los valores de NDVI obtenidos en diferentes épocas del año en el que la actividad fotosintética de las plantas varía. Los resultados a diferentes escalas mostraron un comportamiento fractal del NDVI por lo que puede concluirse que las áreas de pasto herbáceo evaluadas presentan un comportamiento homogéneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La radioterapia intraoperatoria (RIO) con electrones es una modalidad de tratamiento contra el cáncer que combina cirugía y radiación terapéutica aplicada a un tumor sin resecar o al lecho tumoral después de una resección. Este tratamiento se planifica con una imagen preoperatoria del paciente. Sería adecuado incluir en la planificación información acerca de la superficie del lecho tumoral ya que la acumulación de fluidos, las superficies cóncavas y las irregularidades en la superficie irradiada modifican significativamente la distribución de la dosis. Existen diversos escáneres de superficie pero el que mejor se podría adaptar al entorno de la RIO sería el que utiliza un dispositivo de holografía conoscópica (ConoProbe, Optimet Metrology Ltd.) ya que permite realizar medidas de distancias en cavidades, en superficies reflectantes y en tejidos biológicos. La holografía conoscópica es una técnica de interferometría basada en la propagación de la luz en cristales birrefringentes. Para obtener las coordenadas 3D de los puntos de la superficie barridos por el dispositivo ConoProbe es necesario utilizar un sistema de posicionamiento como el que se utiliza en el quirófano de la RIO para localizar el aplicador de RIO con el que se conduce el haz de electrones (sistema de posicionamiento óptico OptiTrack, NaturalPoint Inc.). El objetivo de este proyecto fin de grado consistió en desarrollar un sistema de escaneado de superficies y realizar diversas pruebas para evaluar la calidad del sistema desarrollado y su viabilidad en el entorno de la RIO. Para integrar la información del dispositivo ConoProbe y del sistema de posicionamiento OptiTrack se realizó una calibración temporal para sincronizar los datos de ambos dispositivos utilizando la función de correlación cruzada y una calibración espacial para transformar la distancia medida por el dispositivo ConoProbe en coordenadas 3D de la superficie del objeto escaneado. Se plantearon dos métodos para realizar esta calibración espacial, por ajuste de pares de puntos y por ajuste a un plano. La calibración espacial elegida fue la primera ya que presentaba menor error. El error del sistema es inferior a 2 mm siendo un error aceptable en el entorno de la RIO. Diferentes pruebas con diversos materiales y formas han permitido comprobar que el sistema de escaneado funciona incluso con líquidos. En un procedimiento de RIO, el escaneado de la superficie se haría después de colocar el aplicador. En este caso, se puede obtener también la superficie del objeto alrededor de centro del aplicador colocando verticalmente el dispositivo ConoProbe. Es complicado obtener la superficie próxima a las paredes del aplicador debido a que estas afectan al cono de luz reflejado. De todas formas, el sistema de escaneado desarrollado proporciona más información en este escenario que un sistema de escáner 3D de luz estructurada (no se podría escanear nada de la superficie con el aplicador colocado). Esta información es útil para la estimación de la distribución de la dosis real que recibe un paciente en un procedimiento de RIO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(SPA)Las propiedades mecánicas de las uniones adhesivas no solo dependen de la naturaleza y propiedades de los adhesivos; hay muchos otros parámetros que influyen directamente en el comportamiento de las uniones adhesivas. Algunos de los más significativos son: el acabado superficial de los materiales, área y espesor de la capa adhesiva, un diseño adecuado, secuencia de aplicación, propiedades químicas de la superficie y preparación de los sustratos antes de aplicar el adhesivo. La resistencia mecánica de las uniones adhesivas está íntimamente relacionada con el proceso de rotura, directamente dependiente del mecanismo cohesión-adhesión. El objeto de este trabajo es analizar la influencia de dos acabados superficiales diferentes, sobre el comportamiento a fatiga de uniones con adhesivo epoxi. Los resultados muestran que la compatibilidad química entre el adhesivo y la capa prepintada mejora la adhesión de las uniones y la resistencia mecánica frente a cargas estáticas y dinámicas. Se ha obtenido el límite de fatiga para las uniones de ambas superficies. (ENG)The mechanical properties of adhesive joints depend not only on the nature and properties of the adhesives; there are many parameters which influence the behaviour of the adhesive joints. Some of more significant parameters are: the surface conditions of materials, area and thickness of adhesive layer, compatibility of the design, applying sequence, chemical properties of surface and the surface treatments of substrates prior to be bonded. The mechanical resistance of adhesive joints is interrelated to the fracture process depended on cohesion-adhesion mechanism. The aim of this paper is analyse the influence of two different surfaces on the fatigue behaviour of epoxy adhesive joints. The results show that chemical compatibility of adhesive and paint improve adhesion of joints and the mechanical resistance against static and dynamic loads. The fatigue limited has been obtained for joints with both surfaces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En estudios previos desarrollados en la central Nuclear de cofrentes (Valencia) se ha observado que los microorganismos presentes en las aguas radiactivas de las piscinas de almacenamiento de combustible nuclear gastado son capaces de colonizar las superficies metálicas de las paredes y conducciones y formar biopelículas sobre éstas. Estas biopelículas retienen los radionúclidos de las aguas contributyendo a su descontaminación. En este proyecto se ha diseñado una planta piloto para la biodescontaminación de las aguas radiactivas. Actualmente el agua radiactiva procedente de las piscinas de combustible se hace pasar por resinas de intercambio iónico que posteriormente tienen que ser gestionadas como residuos radiactivos. En este proyecto, el agua se hace pasar por un biorreactor que contiene ovillos de acero inoxidable capaces de ser colonizados por los microorganismos existentes en dichas aguas. A su paso por el biorreactor, el agua entra en contacto con el material del ovillo, formándose una biopelícula que retiene los radioisótopos presentes en el agua. La biopelícula es fácilmente eliminada por cualquier procedimiento convencional de descontaminación radioquímica de materiales y los radionúclidos se pueden concentrar en un volumen pequeño de eluyente para su recuperación, disposición final o contención. A continuación, el material del biorreactor puede ser gestionado como material no radiactivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En febrero de 2014, BCASA (Barcelona Cicle de l'Aigua, S.A.) realizó un estudio del drenaje del Passeig de Gràcia de Barcelona mediante el modelo matemático InfoWorks ICM. El objetivo era el análisis de riesgos y la aplicación de medidas correctivas para minimizar estos, con la intensificación del drenaje en puntos estratégicos. Se obtuvieron resultados de afecciones en situación inicial y proyectada. En este modelo matemático se incluyeron tanto los elementos subterráneos de recogida del agua de lluvia (conductos, pozos y sumideros), como todas las superficies (calzadas, aceras, jardines...) por los que circula la precipitación hasta los imbornales.