39 resultados para Pluto (Planet)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Two complementary benchmarks have been proposed so far for the evaluation and continuous improvement of RDF stream processors: SRBench and LSBench. They put a special focus on different features of the evaluated systems, including coverage of the streaming extensions of SPARQL supported by each processor, query processing throughput, and an early analysis of query evaluation correctness, based on comparing the results obtained by different processors for a set of queries. However, none of them has analysed the operational semantics of these processors in order to assess the correctness of query evaluation results. In this paper, we propose a characterization of the operational semantics of RDF stream processors, adapting well-known models used in the stream processing engine community: CQL and SECRET. Through this formalization, we address correctness in RDF stream processor benchmarks, allowing to determine the multiple answers that systems should provide. Finally, we present CSRBench, an extension of SRBench to address query result correctness verification using an automatic method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las evidencias del impacto sobre el medio ambiente asociado al funcionamiento de las ciudades hacen que sea urgente proponer medidas que reduzcan este consumo y mejoren la eficiencia del metabolismo urbano. La existencia de límites en la disponibilidad de recursos materiales y energéticos, plantea actualmente un reto importante al ser humano: ¿son posibles otras formas de organización más adecuadas a esta condición de limitación? Para dar respuesta, resulta fundamental conocer cómo interactuarán nuestros sistemas urbanos en un modelo económico de continuo desarrollo, con la población que alojan, y si podrán adaptarse a la capacidad de carga limitada del Planeta, evitando futuras situaciones de colapso anunciadas desde distintos ámbitos científicos. En ese contexto, la tesis formula un método de análisis del alojamiento que, mediante la evaluación a largo plazo, permita proponer medidas de intervención para reducir el consumo de recursos asociado a su funcionamiento. Se parte de un enfoque ecológico para definir el alojamiento como una parte fundamental del sistema urbano, que está compuesto por tres elementos: habitantes, viviendas y recursos naturales; por tanto, para reducir los impactos asociados al alojamiento es necesario tener en cuenta la diferente naturaleza de estos elementos y el carácter dinámico de las relaciones que se producen entre ellos. La Ecología, a través del estudio de los ecosistemas, ha identificado estrategias de supervivencia y adaptación ante los cambios y perturbaciones. La similitud entre los elementos de un ecosistema (población y soporte) y los del alojamiento (habitantes, viviendas y recursos naturales) permite verificar que la aplicación de estas estrategias al alojamiento puede conducir a situaciones más deseables en la relación de los sistemas urbanos con su entorno A partir de esta hipótesis, se propone un método de análisis diacrónico1 o a largo plazo, para conocer la evolución en el tiempo del alojamiento a través de la cuantificación de una serie de indicadores descriptivos de los habitantes, las viviendas y los recursos naturales. La aplicación de este método a un sistema urbano permitiría conocer las características de los elementos del sistema y, para un ámbito temporal de futuro, prever su evolución, identificar escenarios no deseables y proponer medidas de intervención que corrijan anticipadamente estas situaciones y eviten impactos ambientales innecesarios. La validación del método de análisis se realiza mediante la aplicación al caso de Madrid en periodo retrospectivo (de 1940 a 2010) A partir del estudio de la evolución en Madrid de los indicadores seleccionados, se proponen medidas de intervención en el alojamiento basadas en estrategias ecológicas que habrían conducido a una evolución alternativa con un impacto menor sobre el medio ambiente que la situación actual. El método de análisis se aplica con carácter prospectivo definiendo tres escenarios de futuro para Madrid hasta 2100. Para cada uno de ellos se analiza la evolución previsible de los indicadores y se proponen diferentes medidas de intervención que, desde el punto de vista ecológico, conducirían a una situación más adecuada. La tesis concluye en el interés de este método de análisis diacrónico que permite estimar posibilidades en la evolución futura del alojamiento, identificar las necesidades de recursos para responder a las demandas de los habitantes y, desde un enfoque ecológico, definir, cuantificar y evaluar posibles medidas de intervención que reduzcan los impactos ambientales. El método, por tanto, es una herramienta de interés para la toma de decisiones en la intervención en el alojamiento y en la planificación urbana a largo plazo. ABSTRACT Evidence of the impact on the environment associated with the operation of cities make it urgent to propose measures to reduce energy consumption and improve the efficiency of urban metabolism. The limited availability of materials and energy resources currently poses a significant challenge to human beings: are more appropriate forms of organization for this limitation possible? In response, it is essential to know how our urban systems with the population they host will interact in an economic model of continuous development and whether they can adapt to the limited endurance capacity of the planet, thus avoiding future collapse situations which are being announced from different scientific fields. In this context, the thesis puts forward a method of housing analysis that by a long term assessment will enable to propose intervention measures to reduce resource consumption associated with its operation. The thesis is based on an ecological approach to identify housing as a fundamental part of the urban system, which is composed of three elements: inhabitants, homes and natural resources. Therefore, in order to reduce the impacts associated with housing it is necessary to consider the characteristics of these elements and the dynamic nature of the relationships among them. Ecology, through the analysis of ecosystems, has identified strategies for survival and adaptation to changes and disturbances. The similarity between the elements of an ecosystem (population and support) and housing (inhabitants, homes and natural resources) enables to verify that the implementation of these strategies to housing can lead to better situations in the relationship existing between urban systems with their environment. From this hypothesis, a diachronic or long term analysis method is proposed to know the evolution of housing over time through the quantification of a descriptive indicators series of inhabitants, homes and natural resources. The implementation of this method to a urban system would allow better knowledge of the characteristics of these elements and forecast their development, identify undesirable scenarios and propose early intervention measures to correct these situations and avoid unnecessary environmental impacts. The validation of the method of analysis has been proved in the city of Madrid for the years 1940-2010. From the analysis of the evolution of the indicators selected, accommodation intervention measures are proposed based on ecological strategies that would have led to an alternative development having less impact on the environment than that of the current situation. The analysis method is implemented prospectively defining three future scenarios for the city of Madrid until 2100. The likely evolution of the indicators are analyzed for each scenario and various intervention measures that would lead to a better situation from an ecological point of view are proposed. The thesis conclusion states the interest of this diachronic analysis method to estimate potential future developments in the housing field, identify resource requirements to meet the demands of the citizens and, from an ecological approach, define, quantify and assess possible intervention measures to reduce environmental impacts. The method, therefore, is an interesting tool for decision-making process as for the intervention in housing and urban planning in the long term.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este Proyecto Final de Carrera es la realización de un ensayo de fiabilidad de componentes electrónicos, más concretamente de Minimódulos de Silicio, con el fin de estudiar su comportamiento a lo largo del tiempo de vida. Debido a la larga duración de los Minimódulos de Silicio , un ensayo de este tipo podría durar años, por lo que es necesario realizar un ensayo acelerado que acorte significativamente el tiempo del experimento, para ello, han de someterse a esfuerzos mayores que en condiciones normales de funcionamiento. A día de hoy, los Minimódulos de silicio, que conocemos como placas solares fotovoltaicas, se usan en infinidad de dispositivos debido a las múltiples ventajas que conllevan. La principal ventaja es poder llevar electricidad a cualquier parte del planeta sin necesidad de tener que hacer unas elevadas inversiones. Esta electricidad proviene de una fuente de energía inagotable y nada contaminante, con lo que ayudamos a mantener el equilibrio del planeta. La mayoría de las veces estas placas solares fotovoltaicas se usan en el exterior, soportando cambios de temperatura y de humedad elevados, de ahí, la importancia de realizar ensayos de fiabilidad, que muestren sus posibles causas de fallo, los efectos que producen estos fallos y los aspectos de diseño, fabricación y mantenimiento que puedan afectarles. Los Minimódulos de silicio utilizados en este proyecto son el modelo MC-SP0.8-NF-GCS de la empresa fabricante Multicomp. Para realizar el Proyecto hubiéramos necesitado una cámara climática que simulara unas condiciones ambientales determinadas, pero debido a la dificultad de iluminar el módulo dentro de la cámara climática hemos desarrollado un nuevo sistema de ensayos acelerados en temperatura. El nuevo sistema de ensayos acelerados consiste en: •Colocar los módulos fotovoltaicos en el laboratorio con un foco de 500W que irradia lo equivalente al sol. •Los tres módulos trabajarán a tres temperaturas diferentes para simular condiciones ambientales distintas, concretamente a 60°C, 72°C y 84°C. •Mediante un sistema automático de medida diseñado en LabVIEW, de manera simultánea tomará medidas de tensión en las tres placas y estudiaremos el grado degradación en cada placa. Se analizaran los resultados obtenido de cada una de las medidas y se realizará un estudio de fiabilidad y del proceso de degradación sufrido por los Minimódulos de silicio. Este PFC se puede dividir en las siguientes fases de trabajo siendo el ensayo la parte más larga en el tiempo: •Búsqueda de bibliografía documentación y normas aplicables. •Familiarización con los equipos y software, estudiando el manejo del software que viene con el Multímetro Keithley 2601 y el programa LabVIEW. •Desarrollo del hardware y sistemas necesarios para la realización del ensayo. •Montaje del ensayo •Realización del ensayo. •Análisis de resultados. ABSTRACT. The objective of this Final Project is conducting a test reliability of electronic components, more specifically Silicon minimodules, in order to study their behavior throughout the life span. Due to the long duration of Silicon minimodules a test like this could take years, so it is necessary to perform an accelerated significantly shorten the time of the experiment, testing for it, should be subjected to greater efforts than in normal operating. Today, the mini-modules, silicon is known as photovoltaic solar panels are used in a multitude of devices due to the many advantages they bring. The main advantage is to bring electricity to anywhere in the world without having to make high investments. This electricity comes from an inexhaustible source of energy and no pollution, thus helping to maintain the balance of the planet. Most of the time these solar photovoltaic panels are used on the outside, enduring changes in temperature and high humidity, hence, the importance of reliability testing, showing the possible causes of failure, the effects produced by these faults and aspects of design, manufacturing and maintenance that may affect them. The silicon mini-modules used in this project are the MC-SP0.8-NF-GCS model Multicomp manufacturing company. To realize the project we would have needed a climatic chamber to simulate specific environmental conditions, but due to the difficulty of illuminating the module in the climate chamber we have developed a new system of accelerated tests in temperature. The new system is accelerated tests: •Place the PV modules in the laboratory with a focus on the equivalent 500W radiating sun. •The three modules work at three different temperatures to simulate different environmental conditions, namely at 60 °C, 72 °C and 84 °C. •Automatic measurement system designed in LabVIEW, simultaneous voltage measurements taken at the three plates and study the degradation degree in each plate. The results obtained from each of the measurements and a feasibility study and degradation suffered by the silicon is performed minimodules were analyzed. This PFC can be divided into the following phases of the test work the longest part being overtime: •Literature search and documentation standards. •Familiarization with equipment and software, studying management software that comes with the Keithley 2601 multimeter and the LabVIEW program. •Development of hardware and systems necessary for the conduct of the trial. •Experiment setup •Carrying out the experiment. •Analysis of results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fotosíntesis es el proceso biológico que permite la producción primaria y, por tanto, la vida en nuestro planeta. La tasa fotosintética viene determinada por la ‘maquinaria’ bioquímica y las resistencias difusivas al paso del CO2 desde la atmósfera hasta su fijación en el interior de los cloroplastos. Históricamente la mayor resistencia difusiva se ha atribuido al cierre estomático, sin embargo ahora sabemos, debido a las mejoras en las técnicas experimentales, que existe también una resistencia grande que se opone a la difusión del CO2 desde los espacios intercelulares a los lugares de carboxilación. Esta resistencia, llamada normalmente por su inversa: la conductancia del mesófilo (gm), puede ser igual o incluso superior a la resistencia debida por el cierre estomático. En la presente tesis doctoral he caracterizado la limitación que ejerce la resistencia del mesófilo a la fijación de CO2 en diversas especies forestales y en distintos momentos de su ciclo biológico. En la fase de regenerado, hemos estudiado tres situaciones ambientales relevantes en el mayor éxito de su supervivencia, que son: el déficit hídrico, su interacción con la irradiancia y el paso del crecimiento en la sombra a mayor irradiancia, como puede suceder tras la apertura de un hueco en el dosel forestal. En la fase de arbolado adulto se ha caracterizado el estado hídrico y el intercambio gaseoso en hojas desarrolladas a distinta irradiancia dentro del dosel vegetal durante tres años contrastados en pluviometría. Para cada tipo de estudio se han empleado las técnicas ecofisiológicas más pertinentes para evaluar el estado hídrico y el intercambio gaseoso. Por su complejidad y la falta de un método que permita su cuantificación directa, la gm ha sido evaluada por los métodos más usados, que son: la discriminación isotópica del carbono 13, el método de la J variable, el método de la J constante y el método de la curvatura. Los resultados más significativos permiten concluir que la limitación relativa a la fotosíntesis por la conductancia estomática, del mesófilo y bioquímica es dependiente de la localización de la hoja en el dosel forestal. Por primera vez se ha documentado que bajo estrés hídrico las hojas desarrolladas a la sombra estuvieron más limitadas por una reducción en la gm, mientras que las hojas desarrolladas a pleno sol estuvieron más limitadas por reducción mayor de la conductancia estomática (gsw). Encontramos buena conexión entre el aparato fotosintético foliar y el sistema hídrico debido al alto grado de correlación entre la conductancia hidráulica foliar aparente y la concentración de CO2 en los cloroplastos en distintas especies forestales. Además, hemos mostrado diferentes pautas de regulación del intercambio gaseoso según las particularidades ecológicas de las especies estudiadas. Tanto en brinzales crecidos de forma natural y en el arbolado adulto como en plántulas cultivadas en el invernadero la ontogenia afectó a las limitaciones de la fotosíntesis producidas por estrés hídrico, resultando que las limitaciones estomáticas fueron dominantes en hojas más jóvenes mientras que las no estomáticas en hojas más maduras. La puesta en luz supuso un gran descenso en la gm durante los días siguientes a la transferencia, siendo este efecto mayor según el grado de sombreo previo en el que se han desarrollado las hojas. La aclimatación de las hojas a la alta irradiancia estuvo ligada a las modificaciones anatómicas foliares y al estado de desarrollo de la hoja. El ratio entre la gm/gsw determinó la mayor eficiencia en el uso del agua y un menor estado oxidativo durante la fase de estrés hídrico y su posterior rehidratación, lo cual sugiere el uso de este ratio en los programas de mejora genética frente al estrés hídrico. Debido a que la mayoría de modelos de estimación de la producción primaria bruta (GPP) de un ecosistema no incluye la gm, los mismos están incurriendo en una sobreestimación del GPP particularmente bajo condiciones de estrés hídrico, porque más de la mitad de la reducción en fotosíntesis en hojas desarrolladas a la sombra se debe a la reducción en gm. Finalmente se presenta un análisis de la importancia en las estimas de la gm bajo estrés hídrico de la refijación del CO2 emitido en la mitocondria a consecuencia de la fotorrespiración y la respiración mitocondrial en luz. ABSTRACT Photosynthesis is the biological process that supports primary production and, therefore, life on our planet. Rates of photosynthesis are determined by biochemical “machinery” and the diffusive resistance to the transfer of CO2 from the atmosphere to the place of fixation within the chloroplasts. Historically the largest diffusive resistance was attributed to the stomata, although we now know via improvements in experimental techniques that there is also a large resistance from sub-stomatal cavities to sites of carboxylation. This resistance, commonly quantified as mesophyll conductance (gm), can be as large or even larger than that due to stomatal resistance. In the present PhD I have characterized the limitation exerted by the mesophyll resistance to CO2 fixation in different forest species at different stages of their life cycle. In seedlings, we studied three environmental conditions that affect plant fitness, namely, water deficit, the interaction of water deficit with irradiance, and the transfer of plants grown in the shade to higher irradiance as can occur when a gap opens in the forest canopy. At the stage of mature trees we characterized water status and gas exchange in leaves developed at different irradiance within the canopy over the course of three years that had contrasting rainfall. For each study we used the most relevant ecophysiological techniques to quantify water relations and gas exchange. Due to its complexity and the lack of a method that allows direct quantification, gm was estimated by the most commonly used methods which are: carbon isotope discrimination, the J-variable, constant J and the curvature method The most significant results suggest that the relative limitation of photosynthesis by stomata, mesophyll and biochemistry depending on the position of the leaf within the canopy. For the first time it was documented that under water stress shaded leaves were more limited by a reduction in gm, while the sun-adapted leaves were more limited by stomatal conductance (gsw). The connection between leaf photosynthetic apparatus and the hydraulic system was shown by the good correlations found between the apparent leaf hydraulic conductance and the CO2 concentration in the chloroplasts in shade- and sun-adapted leaves of several tree species. In addition, we have revealed different patterns of gas exchange regulation according to the functional ecology of the species studied. In field grown trees and greenhouse-grown seedlings ontogeny affected limitations of photosynthesis due to water stress with stomatal limitations dominating in young leaves and nonstomatal limitations in older leaves. The transfer to high light resulted in major decrease of gm during the days following the transfer and this effect was greater as higher was the shade which leaves were developed. Acclimation to high light was linked to the leaf anatomical changes and the state of leaf development. The ratio between the gm/gsw determined the greater efficiency in water use and reduced the oxidative stress during the water stress and subsequent rehydration, suggesting the use of this ratio in breeding programs aiming to increase avoidance of water stress. Because most models to estimate gross primary production (GPP) of an ecosystem do not include gm, they are incurring an overestimation of GPP particularly under conditions of water stress because more than half of An decrease in shade-developed leaves may be due to reduction in gm. Finally, we present an analysis of the importance of how estimates of gm under water stress are affected by the refixation of CO2 that is emitted from mitochondria via photorespiration and mitochondrial respiration in light.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The study of granular systems is of great interest to many fields of science and technology. The packing of particles affects to the physical properties of the granular system. In particular, the crucial influence of particle size distribution (PSD) on the random packing structure increase the interest in relating both, either theoretically or by computational methods. A packing computational method is developed in order to estimate the void fraction corresponding to a fractal-like particle size distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Important physical and biological processes in soil-plant-microbial systems are dominated by the geometry of soil pore space, and a correct model of this geometry is critical for understanding them. We analyze the geometry of soil pore space with the X-ray computed tomography (CT) of intact soil columns. We present here some preliminary results of our investigation on Minkowski functionals of parallel sets to characterize soil structure. We also show how the evolution of Minkowski morphological measurements of parallel sets may help to characterize the influence of conventional tillage and permanent cover crop of resident vegetation on soil structure in a Spanish Mediterranean vineyard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los retos a los que se enfrenta la humanidad es la demanda de una sociedad con casi cero residuos: la búsqueda de una economía más eficiente en el uso de los recursos teniendo en cuenta el cambio climático y un abastecimiento sostenible de materias primas que permitan satisfacer las necesidades de una población mundial cada vez mayor, dentro de los límites sostenibles de los recursos naturales del planeta. Abordar este desafío implica la recuperación y reciclaje de materiales para reducir consumos de materias primas y, para ello, debe promoverse la innovación en la prevención y gestión de residuos, como estrategia hacia un desarrollo urbano sostenible. Los envases y embalajes forman parte de la cultura actual, relacionándose con el grado de desarrollo de países y regiones; el sector de la construcción no es ajeno a la problemática y genera un importante volumen de embalajes en las obras que no se gestionan de forma adecuada. El modelo de gestión de Residuos de Construcción Demolición (RCD) actual es poco eficaz, ya que los vertederos siguen recibiendo grandes cantidades de residuos valorizables. La normativa ha conseguido minimizar las prácticas ilegales, pero se comprueba que la gestión actual de los RCD en obra deja en manos de las plantas de tratamiento la misión de separar los residuos según su naturaleza y los datos aportados por las distintas plantas no permiten afirmar el grado de alcance de dicho objetivo, ni el destino de los mismos. Los envases y embalajes son un tipo de residuos que por su naturaleza suponen una fuente de recursos valorizables y por ello están presentes en directivas y leyes, dirigidas fundamentalmente al sector de la alimentación. En el ámbito de la construcción, hasta la fecha, no se habían tratado de forma específica, motivo que justifica este trabajo. Esta Tesis Doctoral tiene como objetivo principal mejorar la gestión de residuos de embalajes procedentes de materiales de construcción. Para ello se estudia un importante conjunto de obras de edificación residencial colectiva de 1173 viviendas, análisis que llevará a conocer los patrones de producción de los Residuos de Envases y Embalajes en Construcción (REEC) e identificar los productos o materiales responsables de su generación. La monitorización realizada, permitirá diseñar estrategias específicas que minimicen la generación de estos residuos y optimicen su valorización. Se ha podido comprobar que el tratamiento particularizado de los REEC puede mejorar los resultados de la gestión del conjunto de RCD, debido a que, al no mezclarse, se elimina un importante agente contaminador de los residuos inertes. Las obras analizadas alcanzan un nivel de segregación in situ muy bajo, y los capítulos de cerramientos e instalaciones suman más del 50% del global de REEC. Particularizando en cada tipo de material, el cartón predomina en los trabajos de electricidad, el plástico en las particiones y la madera en fachadas. Se evalúa la opción del eco-­‐rediseño para uno de los embalajes predominantes, y se identifican estrategias para minimizar su impacto. Se comprueba que el ahorro en la gestión de RCD en caso de impulsar la segregación in situ no es muy significativo en las obras estudiadas, si bien se demuestra que la viabilidad económica es el factor más importante para motivar a las empresas constructoras. Las Administraciones Públicas deberían incentivar la gestión responsable, estableciendo medidas de control en las plantas de tratamiento e implementando en sus obras medidas de gestión de RCD ejemplares para el mercado. Una adecuada planificación de la obra, y formación específica para el personal son medidas que facilitan la segregación in situ y mejoran los resultados. Los promotores, mediante su relación contractual con el resto de agentes, tienen la capacidad de establecer objetivos de reducción, planificación y gestión sostenible de los REEC. Por último, se propone un sistema de gestión de REEC, integrable dentro del Sistema de Gestión de la empresa constructora, que permite evitar que residuos valorizables tales como los envases y embalajes se envíen a vertedero, guiando al sector hacia un futuro más respetuoso, alineado con el desarrollo sostenible. ABSTRACT One of the challenges humanity faces is the demand of an almost zero waste society: the search for a more efficient economy in the use of resources, taking into account climate change and a sustainable supply of raw materials, that meet the needs of an increasing world population within the sustainable limits of the planet's natural resources. Addressing this challenge involves the recovery and recycling of materials to reduce consumption of raw materials, so innovation must therefore be promoted in the prevention and management of waste, as a strategy towards a sustainable urban development. Packaging is part of our current culture and is related to the degree of development of countries and regions; the construction sector is no stranger to this problem and generates a significant amount of packaging waste in the site works, which nowadays is not managed properly. The current Construction Demolition Waste (CDW) management model is ineffective, since landfills continue to receive large amounts of recoverable waste. The legislation has managed to minimize illegal practices, but it has been observed that the current management of CDW in the analysed works leaves the mission of separating waste according to their nature to the plants, and data provided by the latter does not allow for checking the scope of this objective, nor the destiny of the waste. Packaging is a type of waste which, by its nature, represents a source of recoverable resources and is therefore present in directives and laws, focused primarily on the food industry. It has not been specifically treated to date in the construction field, hence the reason that justifies this work. This Thesis aims to improve the management of packaging waste from construction materials. An important set of residential building works with 1173 dwellings is analysed, which leads to knowledge on the production patterns of packaging waste (PW) in the construction industry, and the identification of the products responsible for its generation. The monitorization also allows for the design of specific strategies which minimise the generation of waste and optimize recovery. It has been found that the individualized treatment of PW can improve the results of the management of the whole CDW since, when not mixed, a major pollutant of inert waste is removed. The analysed works reached a very low segregation level and the façades and building services phases account for more than 50% of the overall PW. Focusing on each type of material, cardboard predominates electricity works, plastic on partitions and wood on façades. Eco-­‐redesign is evaluated for one of the predominant packages, and strategies are identified to minimise their impact are . There is evidence that the savings in the CDW management in case of promoting segregation on site are not very significant at the studied works, although economic feasibility is the most important factor to motivate the construction companies. Public Administrations should encourage responsible management, establishing control measures in treatment plants and implementing CDW management exemplary measures on their work sites for the market. A proper planning of the works and specific training for the personnel are measures that facilitate in situ segregation and improve outcomes. The developers, through their contractual relationship with the other agents, have the ability to set reduction targets, planning and sustainable management of PW. Finally, a management system for PW is proposed, integrated within the Management System of the construction company, which aims to avoid that recoverable waste such as packaging is sent to landfill, leading the industry towards a more environmentally friendly future, aligned with sustainable development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la Ilustración, el imperio español alcanzó su máxima amplitud y las instituciones oficiales incrementaron su apoyo a las ciencias. Para defender sus fronteras y ejercer con eficacia el poder político, económico y religioso, la Corona y la Iglesia necesitaban obtener información precisa --incluida la climatológica-- de las posesiones españolas y de los pobladores de éstas. Fueron varios los procedimientos empleados para ello: sistema de cuestionarios y relaciones geográficas, estudios medico-topográficos, visitas e inspecciones oficiales, expediciones político-científicas, correspondencia epistolar, artículos periodísticos, etc. Dichos procedimientos fueron aplicados por redes de informadores cuyas actuaciones se basaban en la división del trabajo, el reparto de colaboradores en diferentes lugares, el uso de códigos de comunicación comprensibles, el envío de los resultados a los superiores jerárquicos y la toma de decisiones por las autoridades competentes. Las redes de información estaban sometidas a dictámenes que normalizaban su creación y continuidad temporal, daban forma a su estructura interna, especificaban sus cometidos y obligaban a cumplir protocolos y plazos. En su seno se idearon planes de investigación integrados en el estudio general de la Tierra, el ser humano y la cultura. El beneficio de las actuaciones de sus miembros se plasmó en cubrir grandes ámbitos geográficos con el consiguiente ahorro de tiempo, esfuerzos y medios. En sus correspondientes contextos, los miembros de las redes efectuaron estudios climatológicos conforme a intereses, imposiciones y circunstancias específicas. Así, los médicos se interesaron por las condiciones climáticas que influían en la salud humana; los funcionarios reales y los ingenieros militares describieron los climas locales y regionales aptos para el fomento y el control político, jurídico y educativo de los habitantes de los territorios hispánicos; los expedicionarios estudiaron las interacciones entre los fenómenos naturales y las influencias de los accidentes geográficos en los climas; los clérigos se interesaron por los aspectos estéticos, apologéticos y contemplativos de los climas; finalmente, en la prensa de la época se publicaron registros meteorológicos periódicos y trabajos climatológicos varios. En definitiva, el saber climatológico en el mundo hispánico ilustrado aportó algunos rasgos esenciales a la climatología en una etapa pre-fundacional de esta disciplina. Dichos rasgos se desarrollaron generalmente en una escala local o regional y se refirieron a los siguientes asuntos: el calor como principal agente de las modificaciones atmosféricas, de la formación de vapor acuoso y de las precipitaciones; la influencia del suelo en el aumento de humedad y calor en el aire; el poder de los vientos para trasladar de un lugar a otro el frío o el calor, el vapor de agua, los fenómenos atmosféricos y los agentes responsables de las enfermedades contagiosas; las propiedades del aire atmosférico y su capacidad para interaccionar con el medio ambiente; la condición estática y repetitiva de los climas, si bien se admitió que dichos fenómenos podían sufrir modificaciones; la corroboración experimental de las diferencias climáticas entre las zonas tropicales y medias del planeta; la refutación de que la naturaleza americana y sus habitantes eran inferiores a los europeos; y la demostración de que los principios rectores de los fenómenos físicos del Viejo y el Nuevo Mundo eran idénticos. Desde el último tercio del siglo XVIII, los documentos producidos por los componentes de las redes de información incluyeron datos meteorológicos. Pero no siempre se emplearon los mismos instrumentos de medida ni se siguieron los mismos protocolos de indagación en idénticas condiciones. Además, y salvo excepciones, los períodos durante los cuales se recabaron datos atmosféricos fueron relativamente cortos, y los expertos no efectuaron las mismas operaciones aritméticas con los parámetros. Por esta razón, y por la orientación utilitaria de los ilustrados hispánicos, el saber climatológico no obtuvo en el período y en el ámbito geográfico considerados resultados teóricos apreciables; en cambio, dio lugar a una gran cantidad de actividades prácticas con aplicaciones a la medicina, la agricultura, la náutica, el fomento, la prevención de riesgos naturales, etc. La principal utilidad de este trabajo consiste en servir de complemento a los procedimientos actualmente en uso en historia de la hidrología y en climatología histórica. ABSTRACT During the Enlightenment, the Spanish Empire achieved its highest length and State institutions increased their support to sciences. In order to defend their frontiers and to exercise political, economical and religious power, the Crown and the Church needed exact information --including the climatologic one-- about its possessions and its habitants. Some of the procedures employed to get that objective were: system of questionnaires and geographic relations, medical-topographic studies, official visits and inspections, political-scientific expeditions, direct mail, journalistic articles, etc. Those procedures were applied by informers´ networks which obtained, manned and transmitted every kind of data about the natural and moral reality of the Hispanic territories; their actions were based on the division of tasks, the distribution of collaborators at several places, the use of understandable communication codes and the sending of results to the hierarchical superiors; after, the competent authorities took decisions. The information networks were subjected to rules witch regulated its creation, temporary continuity, interior structure, objectives, protocols and periods. Their memberships invented plans about the general research of the Earth, the human beings and the culture; and they contributed to get benefits because of covering large geographic frames and economizing time, effort and means. According to their specifics contexts, concerns, impositions and circumstances, the informers performed climatologic tasks. Thus, the physicians were interested in the climatic conditions which affected to human health; the royal officers and military engineers described the most propitious climates to patronage and political, lawful and educative control of inhabitants of Hispanic territories; the participants in politic-scientific expeditions studied the interactions among natural phenomena and the influence of geographic aspects on the climate; the clergymen underlined the esthetic, apologetic and contemplative face of climates; finally, in the newspapers were published a lot of meteorological data and climatologic works. So, the climatologic knowledge in the Hispanic enlightened world added these essential aspects --referred in a local and regional area-- during the pre-foundational epoch of the climatology: the heat as first agent of atmospheric modifications, aqueous vapor and precipitations; the influx of the land in the increment of humidity and heat of the air; the power of the winds to convey the cold, the heat, the aqueous vapor, the atmospheric phenomena and the agents which caused contagious maladies; the properties of the air and its faculty to mediate with the environs; the static and repetitive condition of the climate and its possibility to experience change; the experimental confirmation of climatic varieties between tropical and central areas of the planet; the negation of the inferiority of the American nature and inhabitants; the demonstration about the equality of the rules which conducted physical phenomena in the Old and the New world. Since the last third part of the eighteenth century, the documents produced by the members of the networks included meteorological data. But the informers were not used to employ the same measure instruments and homogeneous protocols completion in the same conditions. Exceptions besides, the times of taking atmospheric data, usually were very short; and the experts did not carry out the same arithmetical operations with parameters. Because of this reason and the utilitarian guidance of the informers, during the Hispanic Enlightenment, it was not possible to obtain theoretic conclusions about climatologic knowledge; but there were a lot of practical activities applied to Medicine, Agriculture, Navigation, patronage, prevention of natural risks, etc. The main utility of this work consist in favoring the present procedures of the History of Hydrology and Historic Climatology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper demonstrates the importance of a holistic comprehension of the Earth like a planet that is alive, not only in its Biosphere, looking at the atmosphere-ocean-crust-mantle interactions as its different sectorial expressions (climate, fluid-dynamics, morpho-dynamics, tectonics…) following the solar radiation and nuclear geothermal sources of energy. It considers the environmental incidence of different engineering activities to realize their underfeeding as the raison, and leads to that holistic formation as the being of the engineering geology

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper shows the importance of a holistic comprehension of the Earth as a living planet, where man inhabits and is exposed to environmental incidences of different nature. The aim of the paper here summarized is a reflection on all these concepts and scientific considerations related to the important role of men in the handling of natural hazards. Our Planet is an unstable and dynamical system highly sensitive to initial conditions, as proposed by Chaos theory (González-Miranda 2004); it is a complex organic whole, which responds to minimal variations which can affect several natural phenomena such as plate tectonics, solar flares, fluid turbulences, landscape formation, forest fires, growth and migration of populations and biological evolution. This is known as the “butterfly effect” (Lorenz 1972), which means that a small change of the system causes a chain of events leading to large-scale unpredictable consequences. The aim of this work is dwelling on the importance of the knowledge of these natural and catastrophic geological, biological and human systems so much sensible to equilibrium conditions, to prevent, avoid and mend their effects, and to face them in a resilient way

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The underground cellars that appear in different parts of Spain are part of an agricultural landscape dispersed, sometimes damaged, others at risk of disappearing. This paper studies the measurement and display of a group of wineries located in Atauta (Soria), in the Duero River corridor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The singularities in Dromo are characterized in this paper, both from an analytical and a numerical perspective. When the angular momentum vanishes, Dromo may encounter a singularity in the evolution equations. The cancellation of the angular momentum occurs in very speci?c situations and may be caused by the action of strong perturbations. The gravitational attraction of a perturbing planet may lead to rapid changes in the angular momentum of the particle. In practice, this situation may be encountered during deep planetocentric ?ybys. The performance of Dromo is evaluated in di?erent scenarios. First, Dromo is validated for integrating the orbit of Near Earth Asteroids. Resulting errors are of the order of the diameter of the asteroid. Second, a set of theoretical ?ybys are designed for analyzing the performance of the formulation in the vicinity of the singularity. New sets of Dromo variables are proposed in order to minimize the dependency of Dromo on the angular momentum. A slower time scale is introduced, leading to a more stable description of the ?yby phase. Improvements in the overall performance of the algorithm are observed when integrating orbits close to the singularity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dado que es difícil imaginar en el futuro una sociedad moderna donde la energía no juegue un papel fundamental y puesto que numerosos estudios han demostrado que el ritmo actual de consumo de combustibles es insostenible y perjudicial para la vida del planeta, es fundamental concienciar a la humanidad de que un cambio de tendencia no solo es necesario sino que es imperativo. No se trata de erradicar por completo el uso de fuentes de carácter fósil, pues en muchos países es su principal o incluso su única forma de obtener energía, sino de avanzar hacia un equilibrio en la generación, para lo que será vital permitir el desarrollo de energías limpias, aumentar la eficiencia de la tecnología y reducir el consumo. En este contexto se ha decidido construir un rotor eólico de pequeñas dimensiones que servirá como herramienta de estudio para alumnos de ingeniería. Para diseñar la turbina se ha desarrollado un modelo de programación informática que, basado en conceptos aerodinámicos, permite calcular la geometría de las palas en función de unas condiciones iniciales, estimar la potencia del rotor y obtener sus curvas de funcionamiento. Uno de los principales problemas de la tecnología eólica es su alta variabilidad, por ello se ha implementado un sistema de regulación de velocidad; se trata de un mecanismo que actúa sobre la orientación de las palas y permite regular la potencia de un generador eléctrico acoplado al rotor. Los aerogeneradores actuales recurren a este tipo de sistemas para tratar de suavizar los desequilibrios de potencia que puedan producir las ráfagas de viento. Se ha recurrido a un software de diseño asistido por ordenador para dibujar tanto el rotor como el sistema de regulación de velocidad. La mayoría de las piezas del rotor se han fabricado con ayuda de una impresora 3D, otras, las metálicas, se han tallado en aluminio mediante un torno. Aunque el programa informático que realiza los cálculos aerodinámicos devuelve datos teóricos a cerca del comportamiento del rotor, se ha creído necesario probar el molino mediante ensayos de laboratorio a fin de obtener un resultado más realista.Abstract Given that it’s difficult to imagine any modern society in the future where energy does not play a crucial role, and as many studies have shown that the actual rate of fuel consumption is unsustainable and harmful to life on the planet, it is essential to raise mankind’s awareness that a change in the current trend is not only necessary, but is also imperative. It is not a question of completely eradicating the use of fossil fuels, as in many countries they are the main or even the only way of generating energy, but rather working towards a balance in generation. To do so it is vital to encourage the development of clean energies, increase technological efficiency and reduce consumption. In view of this we have decided to build a small scale wind turbine rotor which can be used as a study tool for engineering students. To design the turbine a software programme was developed based on aerodynamic concepts, which allows us to calculate the geometry of the blades depending on certain initial conditions, estimate the power of the turbine, and obtain performance curves. One of the main issues with wind technology is its high variability, and therefore we implemented a speed regulation system consisting of a mechanism that varies the orientation of the blades and thus allows us to regulate the power of an electric generator attached to the turbine. Current wind powered generators use this type of system to try to smooth out spikes in power that may be caused by gusts of wind. We have used CAD software to design both the turbine itself and the speed regulation system. Most of the turbine parts have been manufactured with the aid of a 3D printer, while the other metallic parts have been turned on made a lathe in aluminum. Although the software programme which calculates the aerodynamics provide us theoretical data about the operation of the rotor. We consider it necessary to test the wind turbine in a lab to obtain more accurate results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con 1.300 millones de personas en el mundo sin acceso a la electricidad (la mayoría en entornos rurales de países empobrecidos), la energía solar fotovoltaica constituye una solución viable técnica y económicamente para electrificar las zonas más remotas del planeta donde las redes eléctricas convencionales no llegan. Casi todos los países en el mundo han desarrollado algún tipo de programa de electrificación fotovoltaica rural durante los últimos 40 años, principalmente los países más pobres, donde a través de diferentes modelos de financiación, se han instalado millones de sistemas solares domiciliarios (pequeños sistemas fotovoltaicos para uso doméstico). Durante este largo período, se han ido superando muchas barreras, como la mejora de la calidad de los sistemas fotovoltaicos, la reducción de costes, la optimización del diseño y del dimensionado de los sistemas, la disponibilidad financiera para implantar programas de electrificación rural, etc. Gracias a esto, la electrificación rural descentralizada ha experimentado recientemente un salto de escala caracterizada por la implantación de grandes programas con miles de sistemas solares domiciliarios e integrando largos períodos de mantenimiento. Muchos de estos grandes programas se están llevando a cabo con limitado éxito, ya que generalmente parten de supuestos e hipótesis poco contrastadas con la realidad, comprometiendo así un retorno económico que permita el desarrollo de esta actividad a largo plazo. En este escenario surge un nuevo reto: el de cómo garantizar la sostenibilidad de los grandes programas de electrificación rural fotovoltaica. Se argumenta que la principal causa de esta falta de rentabilidad es el imprevisto alto coste de la fase de operación y mantenimiento. Cuestiones clave tales como la estructura de costes de operación y mantenimiento o la fiabilidad de los componentes del sistema fotovoltaico no están bien caracterizados hoy en día. Esta situación limita la capacidad de diseñar estructuras de mantenimiento capaces de asegurar la sostenibilidad y la rentabilidad del servicio de operación y mantenimiento en estos programas. Esta tesis doctoral tiene como objetivo responder a estas cuestiones. Se ha realizado varios estudios sobre la base de un gran programa de electrificación rural fotovoltaica real llevado a cabo en Marruecos con más de 13.000 sistemas solares domiciliarios instalados. Sobre la base de este programa se ha hecho una evaluación en profundidad de la fiabilidad de los sistemas solares a partir de los datos de mantenimiento recogidos durante 5 años con más de 80.000 inputs. Los resultados han permitido establecer las funciones de fiabilidad de los equipos tal y como se comportan en condiciones reales de operación, las tasas de fallos y los tiempos medios hasta el fallo para los principales componentes del sistema, siendo este el primer caso de divulgación de resultados de este tipo en el campo de la electrificación rural fotovoltaica. Los dos principales componentes del sistema solar domiciliario, la batería y el módulo fotovoltaico, han sido analizados en campo a través de una muestra de 41 sistemas trabajando en condiciones reales pertenecientes al programa solar marroquí. Por un lado se ha estudiado la degradación de la capacidad de las baterías y por otro la degradación de potencia de los módulos fotovoltaicos. En el caso de las baterías, los resultados nos han permitido caracterizar la curva de degradación en capacidad llegando a obtener una propuesta de nueva definición del umbral de vida útil de las baterías en electrificación rural. También sobre la base del programa solar de Marruecos se ha llevado a cabo un estudio de caracterización de los costes reales de operación y mantenimiento a partir de la base de datos de contabilidad del programa registrados durante 5 años. Los resultados del estudio han permitido definir cuáles son costes que más incidencia tienen en el coste global. Se han obtenido los costes unitarios por sistema instalado y se han calculado los montantes de las cuotas de mantenimiento de los usuarios para garantizar la rentabilidad de la operación y mantenimiento. Finalmente, se propone un modelo de optimización matemática para diseñar estructuras de mantenimiento basado en los resultados de los estudios anteriores. La herramienta, elaborada mediante programación lineal entera mixta, se ha aplicado al programa marroquí con el fin de validar el modelo propuesto. ABSTRACT With 1,300 million people worldwide deprived of access to electricity (mostly in rural environments), photovoltaic solar energy has proven to be a cost‐effective solution and the only hope for electrifying the most remote inhabitants of the planet, where conventional electric grids do not reach because they are unaffordable. Almost all countries in the world have had some kind of rural photovoltaic electrification programme during the past 40 years, mainly the poorer countries, where through different organizational models, millions of solar home systems (small photovoltaic systems for domestic use) have been installed. During this long period, many barriers have been overcome, such as quality enhancement, cost reduction, the optimization of designing and sizing, financial availability, etc. Thanks to this, decentralized rural electrification has recently experienced a change of scale characterized by new programmes with thousands of solar home systems and long maintenance periods. Many of these large programmes are being developed with limited success, as they have generally been based on assumptions that do not correspond to reality, compromising the economic return that allows long term activity. In this scenario a new challenge emerges, which approaches the sustainability of large programmes. It is argued that the main cause of unprofitability is the unexpected high cost of the operation and maintenance of the solar systems. In fact, the lack of a paradigm in decentralized rural services has led to many private companies to carry out decentralized electrification programmes blindly. Issues such as the operation and maintenance cost structure or the reliability of the solar home system components have still not been characterized. This situation does not allow optimized maintenance structure to be designed to assure the sustainability and profitability of the operation and maintenance service. This PhD thesis aims to respond to these needs. Several studies have been carried out based on a real and large photovoltaic rural electrification programme carried out in Morocco with more than 13,000 solar home systems. An in‐depth reliability assessment has been made from a 5‐year maintenance database with more than 80,000 maintenance inputs. The results have allowed us to establish the real reliability functions, the failure rate and the main time to failure of the main components of the system, reporting these findings for the first time in the field of rural electrification. Both in‐field experiments on the capacity degradation of batteries and power degradation of photovoltaic modules have been carried out. During the experiments both samples of batteries and modules were operating under real conditions integrated into the solar home systems of the Moroccan programme. In the case of the batteries, the results have enabled us to obtain a proposal of definition of death of batteries in rural electrification. A cost assessment of the Moroccan experience based on a 5‐year accounting database has been carried out to characterize the cost structure of the programme. The results have allowed the major costs of the photovoltaic electrification to be defined. The overall cost ratio per installed system has been calculated together with the necessary fees that users would have to pay to make the operation and maintenance affordable. Finally, a mathematical optimization model has been proposed to design maintenance structures based on the previous study results. The tool has been applied to the Moroccan programme with the aim of validating the model.