26 resultados para space radiation environment
em Universidad Politécnica de Madrid
Resumo:
El entorno espacial actual hay un gran numero de micro-meteoritos y basura espacial generada por el hombre, lo cual plantea un riesgo para la seguridad de las operaciones en el espacio. La situación se agrava continuamente a causa de las colisiones de basura espacial en órbita, y los nuevos lanzamientos de satélites. Una parte significativa de esta basura son satélites muertos, y fragmentos de satélites resultantes de explosiones y colisiones de objetos en órbita. La mitigación de este problema se ha convertido en un tema de preocupación prioritario para todas las instituciones que participan en operaciones espaciales. Entre las soluciones existentes, las amarras electrodinámicas (EDT) proporcionan un eficiente dispositivo para el rápido de-orbitado de los satélites en órbita terrestre baja (LEO), al final de su vida útil. El campo de investigación de las amarras electrodinámicas (EDT) ha sido muy fructífero desde los años 70. Gracias a estudios teóricos, y a misiones para la demostración del funcionamiento de las amarras en órbita, esta tecnología se ha desarrollado muy rápidamente en las últimas décadas. Durante este período de investigación, se han identificado y superado múltiples problemas técnicos de diversa índole. Gran parte del funcionamiento básico del sistema EDT depende de su capacidad de supervivencia ante los micro-meteoritos y la basura espacial. Una amarra puede ser cortada completamente por una partícula cuando ésta tiene un diámetro mínimo. En caso de corte debido al impacto de partículas, una amarra en sí misma, podría ser un riesgo para otros satélites en funcionamiento. Por desgracia, tras varias demostraciones en órbita, no se ha podido concluir que este problema sea importante para el funcionamiento del sistema. En esta tesis, se presenta un análisis teórico de la capacidad de supervivencia de las amarras en el espacio. Este estudio demuestra las ventajas de las amarras de sección rectangular (cinta), en cuanto a la probabilidad de supervivencia durante la misión, frente a las amarras convencionales (cables de sección circular). Debido a su particular geometría (longitud mucho mayor que la sección transversal), una amarra puede tener un riesgo relativamente alto de ser cortado por un único impacto con una partícula de pequeñas dimensiones. Un cálculo analítico de la tasa de impactos fatales para una amarra cilindrica y de tipo cinta de igual longitud y masa, considerando el flujo de partículas de basura espacial del modelo ORDEM2000 de la NASA, muestra mayor probabilidad de supervivencia para las cintas. Dicho análisis ha sido comparado con un cálculo numérico empleando los modelos de flujo el ORDEM2000 y el MASTER2005 de ESA. Además se muestra que, para igual tiempo en órbita, una cinta tiene una probabilidad de supervivencia un orden y medio de magnitud mayor que una amarra cilindrica con igual masa y longitud. Por otra parte, de-orbitar una cinta desde una cierta altitud, es mucho más rápido, debido a su mayor perímetro que le permite capturar más corriente. Este es un factor adicional que incrementa la probabilidad de supervivencia de la cinta, al estar menos tiempo expuesta a los posibles impactos de basura espacial. Por este motivo, se puede afirmar finalmente y en sentido práctico, que la capacidad de supervivencia de la cinta es bastante alta, en comparación con la de la amarra cilindrica. El segundo objetivo de este trabajo, consiste en la elaboración de un modelo analítico, mejorando la aproximación del flujo de ORDEM2000 y MASTER2009, que permite calcular con precisión, la tasa de impacto fatal al año para una cinta en un rango de altitudes e inclinaciones, en lugar de unas condiciones particulares. Se obtiene el numero de corte por un cierto tiempo en función de la geometría de la cinta y propiedades de la órbita. Para las mismas condiciones, el modelo analítico, se compara con los resultados obtenidos del análisis numérico. Este modelo escalable ha sido esencial para la optimización del diseño de la amarra para las misiones de de-orbitado de los satélites, variando la masa del satélite y la altitud inicial de la órbita. El modelo de supervivencia se ha utilizado para construir una función objetivo con el fin de optimizar el diseño de amarras. La función objectivo es el producto del cociente entre la masa de la amarra y la del satélite y el numero de corte por un cierto tiempo. Combinando el modelo de supervivencia con una ecuación dinámica de la amarra donde aparece la fuerza de Lorentz, se elimina el tiempo y se escribe la función objetivo como función de la geometría de la cinta y las propietades de la órbita. Este modelo de optimización, condujo al desarrollo de un software, que esta en proceso de registro por parte de la UPM. La etapa final de este estudio, consiste en la estimación del número de impactos fatales, en una cinta, utilizando por primera vez una ecuación de límite balístico experimental. Esta ecuación ha sido desarollada para cintas, y permite representar los efectos tanto de la velocidad de impacto como el ángulo de impacto. Los resultados obtenidos demuestran que la cinta es altamente resistente a los impactos de basura espacial, y para una cinta con una sección transversal definida, el número de impactos críticos debidos a partículas no rastreables es significativamente menor. ABSTRACT The current space environment, consisting of man-made debris and tiny meteoroids, poses a risk to safe operations in space, and the situation is continuously deteriorating due to in-orbit debris collisions and to new satellite launches. Among these debris a significant portion is due to dead satellites and fragments of satellites resulted from explosions and in-orbit collisions. Mitigation of space debris has become an issue of first concern for all the institutions involved in space operations. Bare electrodynamic tethers (EDT) can provide an efficient mechanism for rapid de-orbiting of defunct satellites from low Earth orbit (LEO) at end of life. The research on EDT has been a fruitful field since the 70’s. Thanks to both theoretical studies and in orbit demonstration missions, this technology has been developed very fast in the following decades. During this period, several technical issues were identified and overcome. The core functionality of EDT system greatly depends on their survivability to the micrometeoroids and orbital debris, and a tether can become itself a kind of debris for other operating satellites in case of cutoff due to particle impact; however, this very issue is still inconclusive and conflicting after having a number of space demonstrations. A tether can be completely cut by debris having some minimal diameter. This thesis presents a theoretical analysis of the survivability of tethers in space. The study demonstrates the advantages of tape tethers over conventional round wires particularly on the survivability during the mission. Because of its particular geometry (length very much larger than cross-sectional dimensions), a tether may have a relatively high risk of being severed by the single impact of small debris. As a first approach to the problem, survival probability has been compared for a round and a tape tether of equal mass and length. The rates of fatal impact of orbital debris on round and tape tether, evaluated with an analytical approximation to debris flux modeled by NASA’s ORDEM2000, shows much higher survival probability for tapes. A comparative numerical analysis using debris flux model ORDEM2000 and ESA’s MASTER2005 shows good agreement with the analytical result. It also shows that, for a given time in orbit, a tape has a probability of survival of about one and a half orders of magnitude higher than a round tether of equal mass and length. Because de-orbiting from a given altitude is much faster for the tape due to its larger perimeter, its probability of survival in a practical sense is quite high. As the next step, an analytical model derived in this work allows to calculate accurately the fatal impact rate per year for a tape tether. The model uses power laws for debris-size ranges, in both ORDEM2000 and MASTER2009 debris flux models, to calculate tape tether survivability at different LEO altitudes. The analytical model, which depends on tape dimensions (width, thickness) and orbital parameters (inclinations, altitudes) is then compared with fully numerical results for different orbit inclinations, altitudes and tape width for both ORDEM2000 and MASTER2009 flux data. This scalable model not only estimates the fatal impact count but has proved essential in optimizing tether design for satellite de-orbit missions varying satellite mass and initial orbital altitude and inclination. Within the frame of this dissertation, a simple analysis has been finally presented, showing the scalable property of tape tether, thanks to the survivability model developed, that allows analyze and compare de-orbit performance for a large range of satellite mass and orbit properties. The work explicitly shows the product of tether-to-satellite mass-ratio and fatal impact count as a function of tether geometry and orbital parameters. Combining the tether dynamic equation involving Lorentz drag with space debris impact survivability model, eliminates time from the expression. Hence the product, is independent of tether de-orbit history and just depends on mission constraints and tether length, width and thickness. This optimization model finally led to the development of a friendly software tool named BETsMA, currently in process of registration by UPM. For the final step, an estimation of fatal impact rate on a tape tether has been done, using for the first time an experimental ballistic limit equation that was derived for tapes and accounts for the effects of both the impact velocity and impact angle. It is shown that tape tethers are highly resistant to space debris impacts and considering a tape tether with a defined cross section, the number of critical events due to impact with non-trackable debris is always significantly low.
Resumo:
This PhD work is focused on liquid crystal based tunable phase devices with special emphasis on their design and manufacturing. In the course of the work a number of new manufacturing technologies have been implemented in the UPM clean room facilities, leading to an important improvement in the range of devices being manufactured in the laboratory. Furthermore, a number of novel phase devices have been developed, all of them including novel electrodes, and/or alignment layers. The most important manufacturing progress has been the introduction of reactive ion etching as a tool for achieving high resolution photolithography on indium-tin-oxide (ITO) coated glass and quartz substrates. Another important manufacturing result is the successful elaboration of a binding protocol of anisotropic conduction adhesives. These have been employed in high density interconnections between ITO-glass and flexible printed circuits. Regarding material characterization, the comparative study of nonstoichiometric silicon oxide (SiOx) and silica (SiO2) inorganic alignment layers, as well as the relationship between surface layer deposition, layer morphology and liquid crystal electrooptical response must be highlighted, together with the characterization of the degradation of liquid crystal devices in simulated space mission environment. A wide variety of phase devices have been developed, with special emphasis on beam steerers. One of these was developed within the framework of an ESA project, and consisted of a high density reconfigurable 1D blaze grating, with a spatial separation of the controlling microelectronics and the active, radiation exposed, area. The developed devices confirmed the assumption that liquid crystal devices with such a separation of components, are radiation hard, and can be designed to be both vibration and temperature sturdy. In parallel to the above, an evenly variable analog beam steering device was designed, manufactured and characterized, providing a narrow cone diffraction free beam steering. This steering device is characterized by a very limited number of electrodes necessary for the redirection of a light beam. As few as 4 different voltage levels were needed in order to redirect a light beam. Finally at the Wojskowa Akademia Techniczna (Military University of Technology) in Warsaw, Poland, a wedged analog tunable beam steering device was designed, manufactured and characterized. This beam steerer, like the former one, was designed to resist the harsh conditions both in space and in the context of the shuttle launch. Apart from the beam steering devices, reconfigurable vortices and modal lens devices have been manufactured and characterized. In summary, during this work a large number of liquid crystal devices and liquid crystal device manufacturing technologies have been developed. Besides their relevance in scientific publications and technical achievements, most of these new devices have demonstrated their usefulness in the actual work of the research group where this PhD has been completed. El presente trabajo de Tesis se ha centrado en el diseño, fabricación y caracterización de nuevos dispositivos de fase basados en cristal líquido. Actualmente se están desarrollando dispositivos basados en cristal líquido para aplicaciones diferentes a su uso habitual como displays. Poseen la ventaja de que los dispositivos pueden ser controlados por bajas tensiones y no necesitan elementos mecánicos para su funcionamiento. La fabricación de todos los dispositivos del presente trabajo se ha realizado en la cámara limpia del grupo. La cámara limpia ha sido diseñada por el grupo de investigación, es de dimensiones reducidas pero muy versátil. Está dividida en distintas áreas de trabajo dependiendo del tipo de proceso que se lleva a cabo. La cámara limpia está completamente cubierta de un material libre de polvo. Todas las entradas de suministro de gas y agua están selladas. El aire filtrado es constantemente bombeado dentro de la zona limpia, a fin de crear una sobrepresión evitando así la entrada de aire sin filtrar. Las personas que trabajan en esta zona siempre deben de estar protegidas con un traje especial. Se utilizan trajes especiales que constan de: mono, máscara, guantes de látex, gorro, patucos y gafas de protección UV, cuando sea necesario. Para introducir material dentro de la cámara limpia se debe limpiar con alcohol y paños especiales y posteriormente secarlos con nitrógeno a presión. La fabricación debe seguir estrictamente unos pasos determinados, que pueden cambiar dependiendo de los requerimientos de cada dispositivo. Por ello, la fabricación de dispositivos requiere la formulación de varios protocolos de fabricación. Estos protocolos deben ser estrictamente respetados a fin de obtener repetitividad en los experimentos, lo que lleva siempre asociado un proceso de fabricación fiable. Una célula de cristal líquido está compuesta (de forma general) por dos vidrios ensamblados (sándwich) y colocados a una distancia determinada. Los vidrios se han sometido a una serie de procesos para acondicionar las superficies internas. La célula se llena con cristal líquido. De forma resumida, el proceso de fabricación general es el siguiente: inicialmente, se cortan los vidrios (cuya cara interna es conductora) y se limpian. Después se imprimen las pistas sobre el vidrio formando los píxeles. Estas pistas conductoras provienen del vidrio con la capa conductora de ITO (óxido de indio y estaño). Esto se hace a través de un proceso de fotolitografía con una resina fotosensible, y un desarrollo y ataque posterior del ITO sin protección. Más tarde, las caras internas de los vidrios se acondicionan depositando una capa, que puede ser orgánica o inorgánica (un polímero o un óxido). Esta etapa es crucial para el funcionamiento del dispositivo: induce la orientación de las moléculas de cristal líquido. Una vez que las superficies están acondicionadas, se depositan espaciadores en las mismas: son pequeñas esferas o cilindros de tamaño calibrado (pocos micrómetros) para garantizar un espesor homogéneo del dispositivo. Después en uno de los sustratos se deposita un adhesivo (gasket). A continuación, los sustratos se ensamblan teniendo en cuenta que el gasket debe dejar una boca libre para que el cristal líquido se introduzca posteriormente dentro de la célula. El llenado de la célula se realiza en una cámara de vacío y después la boca se sella. Por último, la conexión de los cables a la célula y el montaje de los polarizadores se realizan fuera de la sala limpia (Figura 1). Dependiendo de la aplicación, el cristal líquido empleado y los demás componentes de la célula tendrán unas características particulares. Para el diseño de los dispositivos de este trabajo se ha realizado un estudio de superficies inorgánicas de alineamiento del cristal líquido, que será de gran importancia para la preparación de los dispositivos de fase, dependiendo de las condiciones ambientales en las que vayan a trabajar. Los materiales inorgánicos que se han estudiado han sido en este caso SiOx y SiO2. El estudio ha comprendido tanto los factores de preparación influyentes en el alineamiento, el comportamiento del cristal líquido al variar estos factores y un estudio de la morfología de las superficies obtenidas.
Resumo:
SRAM-based FPGAs are in-field reconfigurable an unlimited number of times. This characteristic, together with their high performance and high logic density, proves to be very convenient for a number of ground and space level applications. One drawback of this technology is that it is susceptible to ionizing radiation, and this sensitivity increases with technology scaling. This is a first order concern for applications in harsh radiation environments, and starts to be a concern for high reliability ground applications. Several techniques exist for coping with radiation effects at user application. In order to be effective they need to be complemented with configuration memory scrubbing, which allows error mitigation and prevents failures due to error accumulation. Depending on the radiation environment and on the system dependability requirements, the configuration scrubber design can become more or less complex. This paper classifies and presents current and novel design methodologies and architectures for SRAM-based FPGAs, and in particular for Xilinx Virtex-4QV/5QV, configuration memory scrubbers.
Resumo:
En entornos hostiles tales como aquellas instalaciones científicas donde la radiación ionizante es el principal peligro, el hecho de reducir las intervenciones humanas mediante el incremento de las operaciones robotizadas está siendo cada vez más de especial interés. CERN, la Organización Europea para la Investigación Nuclear, tiene alrededor de unos 50 km de superficie subterránea donde robots móviles controlador de forma remota podrían ayudar en su funcionamiento, por ejemplo, a la hora de llevar a cabo inspecciones remotas sobre radiación en los diferentes áreas destinados al efecto. No solo es preciso considerar que los robots deben ser capaces de recorrer largas distancias y operar durante largos periodos de tiempo, sino que deben saber desenvolverse en los correspondientes túneles subterráneos, tener en cuenta la presencia de campos electromagnéticos, radiación ionizante, etc. y finalmente, el hecho de que los robots no deben interrumpir el funcionamiento de los aceleradores. El hecho de disponer de un sistema de comunicaciones inalámbrico fiable y robusto es esencial para la correcta ejecución de las misiones que los robots deben afrontar y por supuesto, para evitar tales situaciones en las que es necesario la recuperación manual de los robots al agotarse su energía o al perder el enlace de comunicaciones. El objetivo de esta Tesis es proveer de las directrices y los medios necesarios para reducir el riesgo de fallo en la misión y maximizar las capacidades de los robots móviles inalámbricos los cuales disponen de almacenamiento finito de energía al trabajar en entornos peligrosos donde no se dispone de línea de vista directa. Para ello se proponen y muestran diferentes estrategias y métodos de comunicación inalámbrica. Teniendo esto en cuenta, se presentan a continuación los objetivos de investigación a seguir a lo largo de la Tesis: predecir la cobertura de comunicaciones antes y durante las misiones robotizadas; optimizar la capacidad de red inalámbrica de los robots móviles con respecto a su posición; y mejorar el rango operacional de esta clase de robots. Por su parte, las contribuciones a la Tesis se citan más abajo. El primer conjunto de contribuciones son métodos novedosos para predecir el consumo de energía y la autonomía en la comunicación antes y después de disponer de los robots en el entorno seleccionado. Esto es importante para proporcionar conciencia de la situación del robot y evitar fallos en la misión. El consumo de energía se predice usando una estrategia propuesta la cual usa modelos de consumo provenientes de diferentes componentes en un robot. La predicción para la cobertura de comunicaciones se desarrolla usando un nuevo filtro de RSS (Radio Signal Strength) y técnicas de estimación con la ayuda de Filtros de Kalman. El segundo conjunto de contribuciones son métodos para optimizar el rango de comunicaciones usando novedosas técnicas basadas en muestreo espacial que son robustas frente a ruidos de campos de detección y radio y que proporcionan redundancia. Se emplean métodos de diferencia central finitos para determinar los gradientes 2D RSS y se usa la movilidad del robot para optimizar el rango de comunicaciones y la capacidad de red. Este método también se valida con un caso de estudio centrado en la teleoperación háptica de robots móviles inalámbricos. La tercera contribución es un algoritmo robusto y estocástico descentralizado para la optimización de la posición al considerar múltiples robots autónomos usados principalmente para extender el rango de comunicaciones desde la estación de control al robot que está desarrollando la tarea. Todos los métodos y algoritmos propuestos se verifican y validan usando simulaciones y experimentos de campo con variedad de robots móviles disponibles en CERN. En resumen, esta Tesis ofrece métodos novedosos y demuestra su uso para: predecir RSS; optimizar la posición del robot; extender el rango de las comunicaciones inalámbricas; y mejorar las capacidades de red de los robots móviles inalámbricos para su uso en aplicaciones dentro de entornos peligrosos, que como ya se mencionó anteriormente, se destacan las instalaciones científicas con emisión de radiación ionizante. En otros términos, se ha desarrollado un conjunto de herramientas para mejorar, facilitar y hacer más seguras las misiones de los robots en entornos hostiles. Esta Tesis demuestra tanto en teoría como en práctica que los robots móviles pueden mejorar la calidad de las comunicaciones inalámbricas mediante la profundización en el estudio de su movilidad para optimizar dinámicamente sus posiciones y mantener conectividad incluso cuando no existe línea de vista. Los métodos desarrollados en la Tesis son especialmente adecuados para su fácil integración en robots móviles y pueden ser aplicados directamente en la capa de aplicación de la red inalámbrica. ABSTRACT In hostile environments such as in scientific facilities where ionising radiation is a dominant hazard, reducing human interventions by increasing robotic operations are desirable. CERN, the European Organization for Nuclear Research, has around 50 km of underground scientific facilities, where wireless mobile robots could help in the operation of the accelerator complex, e.g. in conducting remote inspections and radiation surveys in different areas. The main challenges to be considered here are not only that the robots should be able to go over long distances and operate for relatively long periods, but also the underground tunnel environment, the possible presence of electromagnetic fields, radiation effects, and the fact that the robots shall in no way interrupt the operation of the accelerators. Having a reliable and robust wireless communication system is essential for successful execution of such robotic missions and to avoid situations of manual recovery of the robots in the event that the robot runs out of energy or when the robot loses its communication link. The goal of this thesis is to provide means to reduce risk of mission failure and maximise mission capabilities of wireless mobile robots with finite energy storage capacity working in a radiation environment with non-line-of-sight (NLOS) communications by employing enhanced wireless communication methods. Towards this goal, the following research objectives are addressed in this thesis: predict the communication range before and during robotic missions; optimise and enhance wireless communication qualities of mobile robots by using robot mobility and employing multi-robot network. This thesis provides introductory information on the infrastructures where mobile robots will need to operate, the tasks to be carried out by mobile robots and the problems encountered in these environments. The reporting of research work carried out to improve wireless communication comprises an introduction to the relevant radio signal propagation theory and technology followed by explanation of the research in the following stages: An analysis of the wireless communication requirements for mobile robot for different tasks in a selection of CERN facilities; predictions of energy and communication autonomies (in terms of distance and time) to reduce risk of energy and communication related failures during missions; autonomous navigation of a mobile robot to find zone(s) of maximum radio signal strength to improve communication coverage area; and autonomous navigation of one or more mobile robots acting as mobile wireless relay (repeater) points in order to provide a tethered wireless connection to a teleoperated mobile robot carrying out inspection or radiation monitoring activities in a challenging radio environment. The specific contributions of this thesis are outlined below. The first sets of contributions are novel methods for predicting the energy autonomy and communication range(s) before and after deployment of the mobile robots in the intended environments. This is important in order to provide situational awareness and avoid mission failures. The energy consumption is predicted by using power consumption models of different components in a mobile robot. This energy prediction model will pave the way for choosing energy-efficient wireless communication strategies. The communication range prediction is performed using radio signal propagation models and applies radio signal strength (RSS) filtering and estimation techniques with the help of Kalman filters and Gaussian process models. The second set of contributions are methods to optimise the wireless communication qualities by using novel spatial sampling based techniques that are robust to sensing and radio field noises and provide redundancy features. Central finite difference (CFD) methods are employed to determine the 2-D RSS gradients and use robot mobility to optimise the communication quality and the network throughput. This method is also validated with a case study application involving superior haptic teleoperation of wireless mobile robots where an operator from a remote location can smoothly navigate a mobile robot in an environment with low-wireless signals. The third contribution is a robust stochastic position optimisation algorithm for multiple autonomous relay robots which are used for wireless tethering of radio signals and thereby to enhance the wireless communication qualities. All the proposed methods and algorithms are verified and validated using simulations and field experiments with a variety of mobile robots available at CERN. In summary, this thesis offers novel methods and demonstrates their use to predict energy autonomy and wireless communication range, optimise robots position to improve communication quality and enhance communication range and wireless network qualities of mobile robots for use in applications in hostile environmental characteristics such as scientific facilities emitting ionising radiations. In simpler terms, a set of tools are developed in this thesis for improving, easing and making safer robotic missions in hostile environments. This thesis validates both in theory and experiments that mobile robots can improve wireless communication quality by exploiting robots mobility to dynamically optimise their positions and maintain connectivity even when the (radio signal) environment possess non-line-of-sight characteristics. The methods developed in this thesis are well-suited for easier integration in mobile robots and can be applied directly at the application layer of the wireless network. The results of the proposed methods have outperformed other comparable state-of-the-art methods.
Resumo:
La perspectiva del arquitecto en calidad ambiental, y salud en un contexto sostenible, se amplía al considerar las radiaciones electromagnéticas no ionizantes en el diseño arquitectónico. En ese sentido, además del confort higrotérmico, acústico, lumínico y de la calidad del aire, se podría considerar el confort electromagnético de un lugar. Dado que existe gran controversia en cuales han de ser los límites de exposición a radiaciones electromagnéticas no ionizantes, establezco como punto de referencia los valores límite más restrictivos, que son los recomendados por la norma SBM-2008, desarrollada por el Institut für Baubiologie & Oekologie Neubeuern (IBN)1. Se plantean como hipótesis que podemos modificar el entorno electromagnético con materiales de construcción y geometría; y que determinados trazados geométricos tienen la capacidad de reducir el impacto de los campos electromagnéticos sobre los organismos vivos. El objetivo consiste en demostrar experimentalmente que podemos trabajar sobre la calidad ambiental electromagnética de un espacio, a través de la elección de materiales de construcción y trazados geométricos, intentando demostrar que existe una relación causa - efecto entre ambos. La metodología plantea tres aproximaciones experimentales, cada una con un tipo de radiación electromagnética, pues se pretende abarcar las situaciones que comúnmente se pueden presentar en un entorno habitado, ya sea urbano o rural. La primera aproximación trata sobre las alteraciones del campo geomagnético natural (nT / m) provocadas por los materiales de construcción. Utilizo el geomagnetómetro BPM 2010, para realizar un ensayo con cuatro tipos de materiales de distinta procedencia: origen vegetal muy poco procesado (corcho aglomerado negro) y más procesado (OSB), origen derivado del petróleo (tablero rígido de poliuretano) y de origen mineral metálico (chapa minionda). De la lectura de los datos se observa relación causa-efecto entre los materiales de construcción estudiados y las modificaciones que pueden ejercer sobre el campo magnético de un lugar. A continuación se estudia el entorno de radiación electromagnética artificial a baja frecuencia (3 Hz a 3 kHz) y a alta frecuencia, (800 MHz a 10 GHz) en vivienda y en oficina utilizando unas geometrías concretas: las tarjetas de corrección de radiaciones. Estas tarjetas se ubican en paramentos verticales y horizontales de un espacio sometido a radiación propia de un entorno urbano. Se concluye que en una habitación inciden múltiples variables simultáneas muy difíciles de trabajar por separado y que aparentemente no se pueden identificar cambios significativos en las mediciones con y sin las tarjetas de corrección de radiaciones. A continuación estudio el entorno de radiación electromagnética artificial a baja frecuencia asociada a la red de distribución eléctrica. Para poder ver cómo este entorno electromagnético lo podemos modificar, utilizo las tarjetas de corrección de radiaciones ubicadas en relación directa con organismos vivos, por un lado germinados de semillas de haba mungo sometidas a campos electromagnéticos complejos a alta y baja frecuencia, propios de una oficina; y por otro lado germinados de semillas de haba mungo, sometidas a campos electromagnéticos puros a 50 Hz, sin influencias de radiación a alta frecuencia. Se concluye que se observa relación causa - efecto entre los trazados geométricos estudiados y su capacidad para reducir el impacto de los campos electromagnéticos a altas y bajas frecuencias sobre las semillas de haba mungo. También utilizo las tarjetas de corrección de radiaciones en un ensayo normalizado en el laboratorio de bioelectromagnetismo del Hospital Universitario Ramón y Cajal, con células de neuroblastoma humano. Se concluye que se observa relación causa - efecto entre los trazados geométricos estudiados y su capacidad para reducir el impacto de los campos electromagnéticos de 50 Hz Y 100 μT sobre células de neuroblastoma humano y además disminuyen la velocidad de proliferación celular respecto del grupo de células de control. Finalmente se estudia el entorno de radiación electromagnética artificial a alta frecuencia, asociado a comunicaciones inalámbricas. Para ello realizo simulaciones con el software CST Studio, sobre las tarjetas de corrección de radiaciones a alta frecuencia. A la luz de los datos se observa relación causa - efecto entre el trazado geométrico estudiado y su capacidad para reducir radiaciones electromagnéticas de alta frecuencia. Se comprueba además que, las tarjetas de corrección de radiaciones disminuyen la intensidad de la radiación acercándose a los límites de exposición establecidos por el instituto de la biología de la construcción alemán, que podrían estar señalando los estándares de biocompatibilidad. ABSTRACT The perspective of the architect in environmental quality, and health in a sustainable context is extended to consider non-ionizing electromagnetic radiation in architectural design. In that sense, besides the hygrothermal, acoustic, lighting and air quality comfort, the electromagnetic comfort of an indoor space could be considered. There is still great controversy about which should be the limits of exposure to nonionizing electromagnetic radiation, as a benchmark, the more restrictive limits are considered, by the SBM- 2008 standard, developed by the Institut für Baubiologie & Oekologie Neubeuern (IBN). The hypotheses that arise are the following: the electromagnetic environment can be modified by using certain construction materials and geometry; and certain geometric design have the ability to reduce the impact of electromagnetic fields on living organisms. The aim is to demonstrate experimentally that we can work on electromagnetic environmental quality of a indoor space, by using certain construction materials and geometric design, trying to demonstrate a cause - effect relationship between them. The methodology raises three experimental approaches, each with a type of radiation, it is intend to cover situations commonly may occur in an inhabited environment, whether urban or rural. The first approach discusses the alteration of the natural magnetic field (nT / m) caused by the building materials. Geomagnetometre BPM 2010 is used for conducting a test with four types of materials from different sources: vegetable origin less processing (black agglomerate cork) and vegetable origin more processed (OSB), petroleum origin (rigid polyurethane board) and metallic origin (miniwave plate). It is observed across the data information that exist cause-effect relationship between the construction materials studied and the modifications that they can exercise on the magnetic field of a place. Then I study the environment of artificial electromagnetic radiation at low frequency (3 Hz to 3 kHz) and high frequency (800 MHz to 10 GHz) in housing and office, using some specific geometries: correcting radiation cards. These cards are placed in vertical and horizontal surfaces of an indoor space concerned by radiation. I conclude that an indoor space is affected by multiple simultaneous variables difficult to work separately and apparently it is not possible identify significant changes in measurements with and without correcting radiation cards. Then the artificial electromagnetic environment of low-frequency radiation associated with the electricity distribution network is studied. To see how the electromagnetic environment can be changed, correcting radiation cards are placed directly related to living organisms. On one hand, mung bean seeds subject to complex electromagnetic fields at low and high frequency, typical of an office; and on the other hand mung bean seeds, subjected to pure electromagnetic fields at 50 Hz, no influenced by high frequency radiation. It is observed that exist cause-effect relationship between the geometric design and their ability to reduce the impact of electromagnetic fields at high and low frequencies that arrives on on mung bean seeds. The correcting radiation cards were also used in a standard test in the bioelectromagnetics laboratory of Ramón y Cajal University Hospital, on human neuroblastoma cells. It is observed that exist cause-effect relationship between the geometric design and their ability to reduce the impact of electromagnetic fields at 50 Hz and 100 μT on human neuroblastoma cells and also decrease the rate of cell proliferation compared to the group of cells control. Finally the artificial electromagnetic radiation environment at high frequency associated with wireless communications was studied. Simulations with CST Study software were made to determine the behavior of correcting radiation cards in high-frequency. It is observed across the data information that exist causeeffect relationship between the geometric design and the ability to reduce the levels of high-frequency electromagnetic radiation. It also checks that radiation correcting cards decrease the intensity of radiation approaching exposure limits established by Institut für Baubiologie & Oekologie Neubeuern (IBN), which could be signaling biocompatibility standards.
Resumo:
Nowadays integrated circuit reliability is challenged by both variability and working conditions. Environmental radiation has become a major issue when ensuring the circuit correct behavior. The required radiation and later analysis performed to the circuit boards is both fund and time expensive. The lack of tools which support pre-manufacturing radiation hardness analysis hinders circuit designers tasks. This paper describes an extensively customizable simulation tool for the characterization of radiation effects on electronic systems. The proposed tool can produce an in depth analysis of a complete circuit in almost any kind of radiation environment in affordable computation times.
Resumo:
Monte-Carlo (MC) methods are a valuable tool for dosimetry in radiotherapy, including Intra-Operative Electron Radiotherapy (IOERT), since effects such as inhomogeneities or beam hardening may be realistically reproduced.
Resumo:
Several samples of NdFeB and SmCo permanent magnets have been irradiated with gamma rays up to different total irradiation doses until 1Mrad(Si). Magnetic properties of the samples have been measured at different temperatures before and after irradiation. The modifications of the magnetic parameters are presented. From these results it is highlighted which permanent magnets show more resistance to radiation and are more suitable to be included in devices for space applications or high radiation environments.
Resumo:
One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.
Resumo:
Las plantas son organismos sésiles que han desarrollado la capacidad para detectar variaciones sutiles en su ambiente y producir respuestas adaptativas mediante rutas de señalización. Los estímulos causados por el estrés biótico y abiótico son numerosos y dependiendo del tiempo de exposición y su intensidad, pueden reducir la tasa de crecimiento de las plantas y la producción. Los cambios en la concentración del calcio citosólico libre constituyen una de las primeras reacciones intracelulares a las situaciones de estrés abiótico. En esta situación, el calcio actúa como segundo mensajero y las variaciones en su concentración son descodificadas por proteínas de unión a calcio. Las más conocidas son las manos-EF y los dominios C2. Los dominios C2 han sido descritos como dominios de unión a lípidos dependientes de calcio. Estos dominios se consideran proteínas periféricas solubles en agua que se asocian de manera reversible a los lípidos de la membrana mediante una o dos regiones funcionales: el sitio de unión a calcio y el sitio polibásico. A pesar de que se conoce la estructura molecular de algunos dominios C2, se desconocen aspectos relacionados como las reglas que dirigen su forma de interaccionar con los diferentes fosfolípidos y proteínas, la posición que ocupan en la bicapa lipídica y su papel en la transmisión de señales. En esta tesis se ha estudiado una proteína de Arabidopsis thaliana (At3g17980) representativa de una nueva familia de proteínas con dominios C2, que consiste únicamente de un dominio C2. Esta proteína, llamada AtC2.1, ha sido clonada en el vector pETM11, expresada en E. coli y purificada a homogeneidad en dos pasos cromatográficos. Se obtuvieron cristales de AtC2.1 de buena calidad mediante técnicas de difusión de vapor. La proteína fue co-cristalizada con calcio, fosfocolina (POC) y el fosfolípido 1,2-dihexanoil-sn-glicero-3-fosfo-L-serina (PSF). Se recogieron ocho conjuntos de datos de difracción de rayos X empleando radiación sincrotrón. Los cristales difractaron hasta 1.6 Å de resolución. Siete de ellos pertenecían al grupo ortorrómbico P212121, con las dimensiones de la celdilla unidad a = 35.3, b = 88.9, c = 110.6 Å, y un cristal pertenecía al grupo espacial monoclínico C2, con a = 124.84, b = 35.27, c = 92.32 Å y = 121.70º. La estructura se resolvió mediante la técnica MR-SAD utilizando el cinc como dispersor anómalo. La estructura cristalina mostró que la molécula forma un dímero en el que cada protómero se pliega como un dominio C2 típico, con la topología tipo II y presenta una inserción de 43 aminoácidos que la diferencia de los dominios C2 conocidos. El mapa de densidad electrónica mostró dos átomos de calcio por protómero. Se resolvieron las estructuras de AtC2.1 en complejo con POC o PSF. En ambos complejos, el análisis cristalográfico detectó máximos de densidad electrónica en la región correspondiente al sitio polibásico formado por las hebras 2, 3 5 y el lazo 3. Éstos se interpretaron correctamente como dos moléculas de POC y un átomo de cinc, en un complejo, y como la cabeza polar del PSF en el otro. AtC2.1 define un sitio de interacción con lípidos dependiente de cinc. En conclusión, en este trabajo se presenta la estructura tridimensional de AtC2.1, miembro representativo de una familia de proteínas de Arabidopsis thaliana, identificadas como proteínas que interaccionan con los receptores de ABA. Estas proteínas están constituidas únicamente por un dominio C2. El análisis conjunto de los datos biofísicos y cristalográficos muestra que AtC2.1 es un sensor de calcio que une lípidos usando dos sitios funcionales. Estos datos sugieren un mecanismo de inserción en membrana dependiente de calcio que trae consigo la disociación de la estructura dimérica y, por consiguiente, un cambio en las propiedades de superficie de la molécula. Este mecanismo proporciona las bases del reconocimiento y transporte de los receptores de ABA y/o otras moléculas a la membrana celular. Plants are sessile organisms that have developed the capacity to detect slight variations of their environment. They are able to perceive biotic and abiotic stress signals and to transduce them by signaling pathways in order to trigger adaptative responses. Stress factors are numerous and, depending on their exposition time and their concentration, can reduce plant growth rate, limiting the productivity of crop plants. Changes in the cytosolic free calcium concentration are observed as one of the earliest intracellular reactions to abiotic stress signals. Calcium plays a key role as a second messenger, and calcium concentration signatures, called calcium signals, are decodified by calcium binding proteins. The main calcium binding structures are the EF-hand motif and the C2 domains. C2 domain is a calcium dependent lipid-binding domain of approximately 130 amino acids. C2 domain displays two functional regions: the Ca-binding region and the polybasic cluster. Both of them can interact with the membrane phospholipids. Despite the number of C2 domain 3D structures currently available, questions about how they interact with the different target phospholipids, their precise spatial position in the lipid bilayer, interactions with other proteins and their role in transmitting signals downstream, have not yet been explored. In this work we have studied an uncharacterized protein from Arabidopsis thaliana (At3g17980) consisting of only a single C2 domain, as member of a new protein C2-domain family. This protein called AtC2.1 was cloned into the pETM11 vector and expressed in E. coli, allowing the purification to homogeneity in two chromatographic steps. Good quality diffracting crystals were obtained using vapor-diffusion techniques. Crystals were co-crystalized with calcium; phosphocholine (POC) and/or the phospholipid 1,2-dihexanoyl-sn-glycero-3-phospho-L-serine (PSF). Eight data set were collected with synchrotron radiation. Crystals diffracted up to 1.6 Å resolution and seven of them belong to the orthorhombic space group P212121, with unit-cell parameters a = 35.3, b = 88.9, c = 110.6 Å. Another crystal was monoclinic, space group C2, with a = 124.84, b = 35.27, c = 92.32 Å and = 121.70º. The structural model was solved by MR-SAD using Zn2+ as anomalous scatterer. The crystal structure shows that the molecule is a dimer. Each monomer was folded as a canonical C2 domain with the topology II with a 43 residues insertion. The electron density map reveals two calcium ions per molecule. Structures of AtC2.1, complexed with POC and PSF, have been solved. Well-defined extra electron densities were found, in both complexes, within the concave surface formed by strands 2, 3, 5 and loop 3 of AtC2.1. These densities were clearly explained by the presence of the two POC molecules, one zinc atom and head groups of PSF, occupying the cavity of the polybasic site. AtC2.1 defines a new metal dependent lipid-binding site into the polybasic site. In conclusion, in this thesis it is presented the molecular structure of AtC2.1, a representative member of a family of Arabidopsis thaliana C2 domain proteins, of unknown function, but identified as a molecular interacting unit of the ABA receptors. The joint analyses of the biophysical and crystallographic data show that AtC2.1 is a calcium sensor that binds lipids in two sites and suggest a model of calcium-dependent membrane insertion mechanism that will involve either dimer dissociation or a strong rearrangement of the dimeric structure. This mechanism may be the basis for the recognition and delivery of ABA receptors or other protein molecules to cell membranes.
Resumo:
This paper performs a further generalization of the notion of independence in constraint logic programs to the context of constraint logic programs with dynamic scheduling. The complexity of this new environment made necessary to first formally define the relationship between independence and search space preservation in the context of CLP languages. In particular, we show that search space preservation is, in the context of CLP languages, not only a sufficient but also a necessary condition for ensuring that both the intended solutions and the number of transitions performed do not change. These results are then extended to dynamically scheduled languages and used as the basis for the extension of the concepts of independence. We also propose several a priori sufficient conditions for independence and also give correctness and efficiency results for parallel execution of constraint logic programs based on the proposed notions of independence.
Resumo:
The arrangement of atoms at the surface of a solid accounts for many of its properties: Hardness, chemical activity, corrosion, etc. are dictated by the precise surface structure. Hence, finding it, has a broad range of technical and industrial applications. The ability to solve this problem opens the possibility of designing by computer materials with properties tailored to specific applications. Since the search space grows exponentially with the number of atoms, its solution cannot be achieved for arbitrarily large structures. Presently, a trial and error procedure is used: an expert proposes an structure as a candidate solution and tries a local optimization procedure on it. The solution relaxes to the local minimum in the attractor basin corresponding to the initial point, that might be the one corresponding to the global minimum or not. This procedure is very time consuming and, for reasonably sized surfaces, can take many iterations and much effort from the expert. Here we report on a visualization environment designed to steer this process in an attempt to solve bigger structures and reduce the time needed. The idea is to use an immersive environment to interact with the computation. It has immediate feedback to assess the quality of the proposed structure in order to let the expert explore the space of candidate solutions. The visualization environment is also able to communicate with the de facto local solver used for this problem. The user is then able to send trial structures to the local minimizer and track its progress as they approach the minimum. This allows for simultaneous testing of candidate structures. The system has also proved very useful as an educational tool for the field.
Resumo:
The article shows a range of contemporary phenomena linked with urban space and the increasing citizens? interactivity in the network. The sources for theory and reflection are related to the ongoing research project ?Interactive Atlas of urban habitability" which is based on citizen participation in the sensitive description of the urban environment. It addresses a classification of variables related to the desires of urban habitability.
Resumo:
This paper introduces novel calibration processes applied to antenna arrays with new architectures and technologies designed to improve the performance of traditional earth stations for satellite communications due to the increasing requirement of data capacity during last decades. Besides, the Radiation Group from the Technical University of Madrid has been working on the development of new antenna arrays based on novel architecture and technologies along many projects as a solution for the ground segment in the early future. Nowadays, the calibration process is an interesting and cutting edge research field in a period of expansion with a lot of work to do for calibration in transmission and also for reception of these novel antennas under development.
Resumo:
The solaR package allows for reproducible research both for photovoltaics (PV) systems performance and solar radiation. It includes a set of classes, methods and functions to calculate the sun geometry and the solar radiation incident on a photovoltaic generator and to simulate the performance of several applications of the photovoltaic energy. This package performs the whole calculation procedure from both daily and intradaily global horizontal irradiation to the final productivity of grid-connected PV systems and water pumping PV systems. It is designed using a set of S4 classes whose core is a group of slots with multivariate time series. The classes share a variety of methods to access the information and several visualization methods. In addition, the package provides a tool for the visual statistical analysis of the performance of a large PV plant composed of several systems. Although solaR is primarily designed for time series associated to a location defined by its latitude/longitude values and the temperature and irradiation conditions, it can be easily combined with spatial packages for space-time analysis.