986 resultados para METEOROLOGIA COM SATÉLITE


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Varios grupos de la Universidad Politécnica de Madrid se encuentran actualmente desarrollando un micro-satélite de experimentación bajo el proyecto UPMSat-2, sucesor de otro exitoso proyecto similar, el UPM-Sat 1. Bajo este marco la autora del presente documento ha llevado a cabo la realización de tres tareas fundamentales para hacer posible la puesta en órbita de dicho satélite. Las tareas principales definidas como alcance de este proyecto pretenden facilitar el uso de la memoria no volátil del computador de a bordo y comprobar el funcionamiento de todos los sistemas del satélite. Por ello se ha realizado el arranque desde la memoria no volátil junto con un manejador para el uso de la misma y un conjunto de pruebas de validación del software e integración del hardware. La satisfacción con los resultados obtenidos ha hecho posible la inclusión del software y pruebas desarrolladas al conjunto de todo el software del proyecto UPMSat-2, contribuyendo así a la capacidad del satélite para ser puesto en órbita.---ABSTRACT---UPMSat-2, the successor of UPM-Sat 1, is a joint project for the development of a micro-satellite for experimentation, which is being carried out by various research groups at Universidad Politécnica de Madrid. The author of this document has developed three main tasks to make possible the correct operation of this satellite during the duration of its mission. The scope of the present work is to enable the use of the on-board computer’s non-volatile memory and the development of a software to test that the satellite’s subsystems are working properly. To this end, the non-volatile memory’s boot sequence has been implemented together with the driver to use such memory, and a series of validation and integration tests for the software and the hardware. The results of the this work have been satisfactory, therefore they have been included in UPMSat-2’s software, contributing this way to the capacity of the satellite to carry out its mission.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado tiene como objetivo realizar un estudio del centelleo troposférico en presencia de lluvia en la banda Ka. Para ello se han utilizado los datos obtenidos de un enlace Tierra-satélite mediante una estación receptora situada en la ETSIT UPM. En la primera parte de este proyecto, se ha realizado un estudio teórico, no demasiado profundo de los principales fenómenos que afectan a este tipo de enlaces, comentando algunos modelos de predicción y profundizando en el centelleo troposférico, ya que es el principal tema que se trata en este proyecto. En segundo lugar, se ha realizado el experimento. En la primera parte se ha comprobado que efectivamente se cumple el modelo de pendiente de -20 dB/dec debidos a la lluvia, todo ello procesando los datos que han sido tomados en la ETSIT mediante Matlab. En la segunda parte, se han tratado individualmente distintos tipos de eventos con el fin de determinar una frecuencia de corte adecuada para realizar la separación mediante filtrado de las componentes de lluvia respecto a las de centelleo, así como verificar el cumplimiento de la pendiente en el espectro de -26 dB/dec debida al centelleo. Posteriormente, una vez que se ha obtenido una frecuencia de corte adecuada para el filtro, he separado las componentes espectrales debidas al centelleo de las componentes debidas a la lluvia. Se ha obtenido la varianza de una serie de eventos, ya que es el parámetro que mejor caracteriza la intensidad del centelleo y la hemos comparado en los diferentes meses para observar su variación, ya que las lluvias de verano tienen asociadas la presencia de turbulencias mayores respecto a las de invierno. Para finalizar el proyecto, se han expuesto las conclusiones a las que hemos llegado mediante el mismo, comentando también las posibles líneas de investigación futuras. ABSTRACT. The aim of this Project is to make a study about tropospheric Scintillation in presence of rain in the Ka band. For this purpose, the data obtained in an Earth-satellite link by a receiving station located at ETSIT UPM will be used. In the first part of this project, a non-detailed theoretical study of the principal phenomena affecting this type of links has been performed, commenting some prediction models and deepening in tropospheric Scintillation, because this is the principal objective of this project. In the second part, the experiment has been completed. In the first part the fulfillment of -20 dB/dec of slope due to the rain has been proved, after processing the data obtained in the ETSIT using Matlab. In the second part different types of events have been treated in order to determine an adequate cut frequency with the purpose of separating by filtering the components of the rain from the components of scintillation as well as verifying the fulfillment of the slope in the spectrum of -26 dB/dec due to scintillation. Afterwards, once that one suitable cut frequency for the filter has been obtained, the components of scintillation respect to the components produced by rain have been separated. The variance of a series of events has been obtained, because it is the parameter that best characterizes the scintillation intensity and during the different months it has been compared with the objective of observing its variation, due to the higher association of summer rains to the presence of greater turbulences than during winter rains. To complete this project I have presented the final conclusions to which we have come, also commenting on the possible future lines of investigation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El grupo de investigación GTIC-Radiocomunicaciones de la Universidad Politécnica de Madrid (UPM) participa en uno de los experimentos de propagación de APEX (Alphasat Propagation Experiment), denominado Alphasat propagation experiment by measuring the copolar level of the Q-Band beacon at 39.4 GHz. El experimento comenzó en abril de 2014, midiendo la señal de 39,4 GHz. Durante los primeros meses hasta septiembre de 2014, se hicieron medidas con apuntamiento fijo. El satélite no es geoestacionario sino que tiene una cierta inclinación, por lo que su posición aparente no es fija, describiendo una pequeña elipse en el cielo. Como consecuencia de esto se produce una variación sistemática en el nivel de la señal recibida que hay que eliminar. El presente Trabajo fin de Grado recoge técnicas útiles para llevar a cabo la compensación del desapuntamiento producido por el apuntamiento fijo configurado en el receptor diseñado por el grupo de investigación GTIC-Radiocomunicaciones de la UPM. El conjunto de datos utilizado, ha sido preprocesado con anterioridad llevándose a cabo un proceso de marcado y sincronización de los datos obtenidos a través de la baliza a 39,4 GHz enviada desde el Alphasat. A lo largo del documento se interpretarán y compararán los resultados obtenidos mediante gráficas elaboradas tras la aplicación de las técnicas que se describen en el desarrollo del mismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo realizado en la presente tesis doctoral se debe considerar parte del proyecto UPMSat-2, que se enmarca dentro del ámbito de la tecnología aeroespacial. El UPMSat-2 es un microsatélite (de bajo coste y pequeño tamaño) diseñado, construido, probado e integrado por la Universidad Politécnica de Madrid (España), para fines de demostración tecnológica y educación. El objetivo de la presente tesis doctoral es presentar nuevos modelos analíticos para estudiar la interdependencia energética entre los subsistemas de potencia y de control de actitud de un satélite. En primer lugar, se estudia la simulación del subsistema de potencia de un microsatélite, prestando especial atención a la simulación de la fuente de potencia, esto es, los paneles solares. En la tesis se presentan métodos sencillos pero precisos para simular la producción de energía de los paneles en condiciones ambientales variables a través de su circuito equivalente. Los métodos propuestos para el cálculo de los parámetros del circuito equivalente son explícitos (o al menos, con las variables desacopladas), no iterativos y directos; no se necesitan iteraciones o valores iniciales para calcular los parámetros. La precisión de este método se prueba y se compara con métodos similares de la literatura disponible, demostrando una precisión similar para mayor simplicidad. En segundo lugar, se presenta la simulación del subsistema de control de actitud de un microsatélite, prestando especial atención a la nueva ley de control propuesta. La tesis presenta un nuevo tipo de control magnético es aplicable a la órbita baja terrestre (LEO). La ley de control propuesta es capaz de ajustar la velocidad de rotación del satélite alrededor de su eje principal de inercia máximo o mínimo. Además, en el caso de órbitas de alta inclinación, la ley de control favorece la alineación del eje de rotación con la dirección normal al plano orbital. El algoritmo de control propuesto es simple, sólo se requieren magnetopares como actuadores; sólo se requieren magnetómetros como sensores; no hace falta estimar la velocidad angular; no incluye un modelo de campo magnético de la Tierra; no tiene por qué ser externamente activado con información sobre las características orbitales y permite el rearme automático después de un apagado total del subsistema de control de actitud. La viabilidad teórica de la citada ley de control se demuestra a través de análisis de Monte Carlo. Por último, en términos de producción de energía, se demuestra que la actitud propuesto (en eje principal perpendicular al plano de la órbita, y el satélite que gira alrededor de ella con una velocidad controlada) es muy adecuado para la misión UPMSat-2, ya que permite una área superior de los paneles apuntando hacia el sol cuando se compara con otras actitudes estudiadas. En comparación con el control de actitud anterior propuesto para el UPMSat-2 resulta en un incremento de 25% en la potencia disponible. Además, la actitud propuesto mostró mejoras significativas, en comparación con otros, en términos de control térmico, como la tasa de rotación angular por satélite puede seleccionarse para conseguir una homogeneización de la temperatura más alta que apunta satélite y la antena. ABSTRACT The work carried out in the present doctoral dissertation should be considered part of the UPMSat-2 project, falling within the scope of the aerospace technology. The UPMSat-2 is a microsatellite (low cost and small size) designed, constructed integrated and tested for educational and technology demonstration purposes at the Universidad Politécnica de Madrid (Spain). The aim of the present doctoral dissertation is to present new analytical models to study the energy interdependence between the power and the attitude control subsystems of a satellite. First, the simulation of the power subsystem of a microsatellite is studied, paying particular attention to the simulation of the power supply, i.e. the solar panels. Simple but accurate methods for simulate the power production under variable ambient conditions using its equivalent circuit are presented. The proposed methods for calculate the equivalent circuit parameters are explicit (or at least, with decoupled variables), non-iterative and straight forward; no iterations or initial values for the parameters are needed. The accuracy of this method is tested and compared with similar methods from the available literature demonstrating similar precision but higher simplicity. Second, the simulation of the control subsystem of a microsatellite is presented, paying particular attention to the new control law proposed. A new type of magnetic control applied to Low Earth Orbit (LEO) satellites has been presented. The proposed control law is able to set the satellite rotation speed around its maximum or minimum inertia principal axis. Besides, the proposed control law favors the alignment of this axis with the normal direction to the orbital plane for high inclination orbits. The proposed control algorithm is simples, only magnetorquers are required as actuators; only magnetometers are required as sensors; no estimation of the angular velocity is needed; it does not include an in-orbit Earth magnetic field model; it does not need to be externally activated with information about the orbital characteristics and it allows automatic reset after a total shutdown of attitude control subsystem. The theoretical viability of the control law is demonstrated through Monte Carlo analysis. Finally, in terms of power production, it is demonstrated that the proposed attitude (on principal axis perpendicular to the orbit plane, and the satellite rotating around it with a controlled rate) is quite suitable for the UPMSat-2 mission, as it allows a higher area of the panels pointing towards the sun when compared to other studied attitudes. Compared with the previous attitude control proposed for the UPMSat-2 it results in a 25% increment in available power. Besides, the proposed attitude showed significant improvements, when compared to others, in terms of thermal control, as the satellite angular rotation rate can be selected to achieve a higher temperature homogenization of the satellite and antenna pointing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El transporte aéreo constituye un sector estratégico para el crecimiento económico de cualquier país. El sistema de gestión de tráfico aéreo ATM tiene como objetivo el movimiento seguro y eficiente de las aeronaves dentro del espacio aéreo y de los aeropuertos, siendo la seguridad, en la fase táctica, gestionada por el servicio de control de la circulación aérea. Mediante los procesos de control el tráfico aéreo es vigilado a través de sensores, regulado y guiado de forma organizada y segura. Es precisamente sobre la vigilancia donde se enfoca el contenido de la tesis, en el desarrollo de nuevos conceptos que proporcionen información de vigilancia de ‘bajo coste’ basados en las señales existentes proporcionadas por la infraestructura actual de radar secundario y por los sistemas de posicionamiento basados en satélite que utiliza la ADS-B. El conocimiento y acceso en tiempo real a las trayectorias de las aeronaves es un elemento de valor añadido no sólo para la provisión de los servicios de control de tránsito aéreo, sino para todos los actores del transporte aéreo o de la investigación, siendo uno de los elementos clave en el concepto operacional de los dos grandes proyectos tecnológicos, SESAR en Europa y NextGen en EE.UU.. En las últimas décadas el control de la circulación aérea en espacios aéreos de media y alta densidad de tráfico se ha basado en tecnologías complejas que requieren importantes infraestructuras como son el radar primario de vigilancia (PSR) y el radar secundario de vigilancia (SSR). La filosofía de los programas SESAR y NextGen siguiendo las directrices de la OACI es la de alejarse de las tecnologías basadas en tierra para evolucionar hacia nuevas tecnologías más dinámicas basadas en satélite como la ADS-B. Pero hasta que la implementación y operación de la ADS-B sea completa, existirá un período de transición que implica la coexistencia de aeronaves equipadas o no con ADS-B. El objetivo de la presente Tesis es determinar las metodologías y algoritmos más adecuados para poder hibridar las dos tecnologías descritas anteriormente, utilizando para ello un receptor de bajo coste con antena estática omnidireccional, que analice todas las señales presentes en el canal que comparten el SSR y ADS-B. Mediante esta hibridación se podrá obtener la posición de cualquier aeronave que transmita respuestas a interrogaciones SSR, en cualquiera de sus modos de trabajo, o directamente mensajes de posición ADS-B. Para desarrollar los algoritmos propuestos, además del hardware correspondiente, se han utilizado las aplicaciones LabVIEW para funciones de adquisición de datos reales, y el software MATLAB® para el desarrollo de algoritmos y análisis de datos. La validación de resultados se ha realizado mediante los propios mensajes de posición ADS-B y a través de las trazas radar proporcionadas por la entidad pública empresarial ENAIRE. La técnica desarrollada es autónoma, y no ha requerido de ninguna otra entrada que no sea la recepción omnidireccional de las señales. Sin embargo para la validación de resultados se ha utilizado información pública de las ubicaciones de la red de estaciones SSR desplegadas sobre territorio español y portugués y trazas radar. Los resultados obtenidos demuestran, que con técnicas basadas en superficies de situación definidas por los tiempos de llegada de las respuestas, es posible determinar con una precisión aceptable la posición de las estaciones SSR y la posición de cualquier aeronave que responda mediante el Modo A a éstas. ABSTRACT Air transport is a strategic sector for the economic growth of any country. The air traffic management system (ATM) aims at the safe and efficient movement of aircraft while operating within the airspace and airports, where safety, in the tactical phase, is managed by the air traffic control services. Through the air traffic control processes, aircraft are monitored by sensors, regulated and guided in an organized and safe manner. It is precisely on surveillance where this thesis is focused, developing new concepts that provide a 'low cost' surveillance information based on existing signals provided by currently secondary radar infrastructure and satellite-based positioning systems used by ADS-B. Having a deeper knowledge and a real-time access to the trajectories of the aircraft, is an element of added value not only for the provision of air traffic control services, but also for all air transport or research actors. This is one of the key elements in the operational concept proposed by the two large scale existing technological projects, SESAR in Europe and NextGen in the US. In recent decades, air traffic control in medium and high traffic density areas has been based on complex technologies requiring major infrastructures, such as the primary surveillance radar (PSR) and secondary surveillance radar (SSR). The philosophy of SESAR and NextGen programs, both following the guidelines of ICAO, is to move away from land-based technologies and evolving into some new and more dynamic satellite-based technologies such as ADS-B. Nevertheless, until the ADS-B implementation and operation is fully achieved, there will be a transitional period where aircraft with and without ADS-B equipment will have to coexist. The main objective of this thesis is to determine those methodologies and algorithms which are considered more appropriate to hybridize those two technologies, by using a low cost omnidirectional receiver, which analyzes all signals on the SSR and ADS-B shared channel. Through this hybridization, it is possible to obtain the position of any aircraft answering the SSR interrogations, in any of its modes of operation, or through the emission of ADS-B messages. To develop the proposed algorithms, LabVIEW application has been used for real-time data acquisition, as well as MATLAB software for algorithm development and data analysis, together with the corresponding hardware. The validation of results was performed using the ADS-B position messages and radar tracks provided by the Public Corporate Entity ENAIRE The developed technique is autonomous, and it does not require any other input other than the omnidirectional signal reception. However, for the validation of results, not only radar records have been used, but also public information regarding the position of SSR stations spread throughout the Spanish and Portuguese territory. The results show that using techniques based in the definition of positioning surfaces defined by the responses’ times of arrival, it is possible to determine with an acceptable level of accuracy both the position of the SSR stations as well as the position of any aircraft which transmits Mode A responses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las comunicaciones por satélite tienen cada vez mayores necesidades de espectro, con el objetivo de ofrecer servicios de banda ancha, tanto de comunicación de datos como de radiodifusión. En esta línea, se está incrementando de manera importante el uso de frecuencias en la banda Ka (20 y 30 GHz), que se verá complementada en el futuro por la banda Q/V (40 y 50 GHz) y por frecuencias en la banda W (por encima de 60 GHz). En estas frecuencias, microondas y ondas milimétricas, la troposfera produce importantes efectos de propagación. El más estudiado es el efecto de la lluvia, que produce desvanecimientos muy profundos. Sin embargo, la lluvia está presente en porcentajes de tiempo pequeños, típicamente inferiores al 5% en los climas templados. El resto del tiempo, más del 95% por ejemplo en los climas mencionados, los gases y las nubes pueden causar niveles importantes de atenuación en estas frecuencias. La Tesis aporta un nuevo modelo (Modelo Lucas-Riera), consistente en un conjunto de polinomios de aproximación para realizar, en ausencia de lluvia, la estimación de determinados parámetros de propagación, partiendo de otros datos que se suponen disponibles. El modelo está basado en datos obtenidos de radiosondeos meteorológicos y modelos físicos de atenuación por gases y nubes, que son los fenómenos más relevantes en ausencia de lluvia, y tiene en cuenta las características climatológicas del emplazamiento de interés, utilizando la clasificación climática de Köppen. Este modelo es aplicable en las bandas de frecuencias entre 12 y 100 GHz (exceptuando 60 GHz), donde se aproximarían los mencionados parámetros de propagación en una frecuencia a partir de los obtenidos en otra, en el caso de la atenuación y la temperatura de brillo, o bien se estimaría la temperatura media de radiación a una determinada frecuencia partiendo de la temperatura de superficie. Con este modelo se puede obtener una aproximación razonable si se conoce la Zona Climática de Köppen de la localización terrestre para la que queremos calcular las aproximaciones y en caso de que ésta se desconozca se aporta una Zona Global, que representa toda la superficie terrestre. La aproximación que se propone para realizar el escalado en frecuencia puede ser útil en los enlaces de comunicaciones por satélite, en los que a menudo se dispone de información en relación a los parámetros de propagación a una determinada frecuencia, por ejemplo en el enlace descendente, y sería de utilidad conocer esos mismos parámetros en el enlace ascendente de cara a poder mitigar los efectos que tiene la atmósfera sobre la señal emitida (atenuación, desvanecimiento, etc). En el caso de la temperatura media de radiación, la aproximación que se propone podría ser útil de cara a la realización de medidas de radiometría, diseño de equipamiento de instrumentación o comunicaciones por satélite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los problemas más importantes a los que se enfrenta nuestra sociedad es el de la degradación del medioambiente por la emisión de gases de efecto invernadero. La captura de CO2 en los puntos de emisión y su enterramiento mediante inyección en reservorios geológicos profundos se plantea como una solución hasta que a medio o largo plazo pueda ser mitigada la actual dependencia de la quema de combustibles fósiles. Pero la estabilidad de esos reservorios debe ser monitorizada adecuadamente. En esta tesis se ha estudiado el problema de la detección de fugas de CO2 en un análogo natural de un emplazamiento de almacenamiento profundo a través del análisis de imágenes de satélite multiespectrales. El análogo utilizado ha sido la zona de Campo de Calatrava (Ciudad Real, España), donde, por efecto de la actividad volcánica remanente, aún se pueden encontrar numerosos puntos de emisión de CO2. Se han caracterizado los puntos de emisión de CO2 identificándose dos tipologías con características y manifestaciones claramente diferenciadas: puntos de emisión húmeda o hervideros, y puntos de emisión seca o fumarolas. Para el estudio se han utilizado índices de vegetación y su relación de éstos con los contenidos atmosféricos de CO2. Se han utilizado imágenes multiespectrales de los satélites QuickBird y WorldView‐2. Se ha realizado una preselección de doce índices de vegetación especialmente adecuados para la detección de puntos de emisión de CO2. Mediante análisis y comparación de imágenes de índices de vegetación sobre puntos de emisión conocidos se ha seleccionado los cinco índices con mayor sensibilidad frente al fenómeno. Atendiendo a los principales factores condicionantes de la aparición de nuevos puntos de emisión de CO2 se ha realizado sobre las imágenes de índices de vegetación una predicción de nuevos puntos de emisión. Entre los puntos candidato se han encontrado tres nuevos puntos de emisión de CO2 no descritos previamente en la bibliografía. ABSTRACT One of the most important issues facing our society is the degradation of the environment caused by the emission of greenhouse gases. Capturing CO2 emissions, injection and burial in deep geological reservoirs is presented as a solution until the medium or long term, when the problem of the current dependence on fossil fuels burning can be mitigated. But the stability of these reservoirs should be properly monitored. In this work we study the problem of detecting CO2 leakage in a natural analogue of a deep storage site through analysis of multispectral satellite imagery. The analogue used is in the Campo de Calatrava (Ciudad Real, Spain) where, due to the remaining volcanic activity, it can still be found numerous CO2 emission points. CO2 emission points have been characterized identifying two types having distinct characteristics and effects: wet emission points or hotbeds, and dry emission points or fumaroles. For this study it has been used vegetation indices and its relationship with atmospheric CO2 contents. It has been used multispectral images from QuickBird and WorldView‐2 satellites. It has been done a preselection of twelve vegetation indices especially suitable for the detection of CO2 emission points. Using analysis and comparison of vegetation index images on real emission points it has been selected the five indexes with greater sensitivity to this phenomenon. Based upon the main factors of the emergence of new CO2 emission points it has been made a prediction of new emission points over the vegetation index images. Among the candidate points it has been found three new CO2 emission points not previously described in the literature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La actividad volcánica interviene en multitud de facetas de la propia actividad humana, no siempre negativas. Sin embargo, son más los motivos de peligrosidad y riesgo que incitan al estudio de la actividad volcánica. Existen razones de seguridad que inciden en el mantenimiento del seguimiento y monitorización de la actividad volcánica para garantizar la vida y la seguridad de los asentamientos antrópicos en las proximidades de los edificios volcánicos. En esta tesis se define e implementa un sistema de monitorización de movimientos de la corteza en las islas de Tenerife y La Palma, donde el impacto social que representa un aumento o variación de la actividad volcánica en las islas es muy severo. Aparte de la alta densidad demográfica del Archipiélago, esta población aumenta significativamente, en diferentes periodos a lo largo del año, debido a la actividad turística que representa la mayor fuente de ingresos de las islas. La población y los centros turísticos se diseminan predominantemente a lo largo de las costas y también a lo largo de los flancos de los edificios volcánicos. Quizá el mantenimiento de estas estructuras sociales y socio-económicas son los motivos más importantes que justifican una monitorización de la actividad volcánica en las Islas Canarias. Recientemente se ha venido trabajando cada vez más en el intento de predecir la actividad volcánica utilizando los nuevos sistemas de monitorización geodésica, puesto que la actividad volcánica se manifiesta anteriormente por deformación de la corteza terrestre y cambios en la fuerza de la gravedad en la zona donde más tarde se registran eventos volcánicos. Los nuevos dispositivos y sensores que se han desarrollado en los últimos años en materias como la geodesia, la observación de la Tierra desde el espacio y el posicionamiento por satélite, han permitido observar y medir tanto la deformación producida en el terreno como los cambios de la fuerza de la gravedad antes, durante y posteriormente a los eventos volcánicos que se producen. Estos nuevos dispositivos y sensores han cambiado las técnicas o metodologías geodésicas que se venían utilizando hasta la aparición de los mismos, renovando métodos clásicos y desarrollando otros nuevos que ya se están afianzando como metodologías probadas y reconocidas para ser usadas en la monitorización volcánica. Desde finales de la década de los noventa del siglo pasado se han venido desarrollando en las Islas Canarias varios proyectos que han tenido como objetivos principales el desarrollo de nuevas técnicas de observación y monitorización por un lado y el diseño de una metodología de monitorización volcánica adecuada, por otro. Se presenta aquí el estudio y desarrollo de técnicas GNSS para la monitorización de deformaciones corticales y su campo de velocidades para las islas de Tenerife y La Palma. En su implementación, se ha tenido en cuenta el uso de la infraestructura geodésica y de monitorización existente en el archipiélago a fin de optimizar costes, además de complementarla con nuevas estaciones para dar una cobertura total a las dos islas. Los resultados obtenidos en los proyectos, que se describen en esta memoria, han dado nuevas perspectivas en la monitorización geodésica de la actividad volcánica y nuevas zonas de interés que anteriormente no se conocían en el entorno de las Islas Canarias. Se ha tenido especial cuidado en el tratamiento y propagación de los errores durante todo el proceso de observación, medida y proceso de los datos registrados, todo ello en aras de cuantificar el grado de fiabilidad de los resultados obtenidos. También en este sentido, los resultados obtenidos han sido verificados con otros procedentes de sistemas de observación radar de satélite, incorporando además a este estudio las implicaciones que el uso conjunto de tecnologías radar y GNSS tendrán en un futuro en la monitorización de deformaciones de la corteza terrestre. ABSTRACT Volcanic activity occurs in many aspects of human activity, and not always in a negative manner. Nonetheless, research into volcanic activity is more likely to be motivated by its danger and risk. There are security reasons that influence the monitoring of volcanic activity in order to guarantee the life and safety of human settlements near volcanic edifices. This thesis defines and implements a monitoring system of movements in the Earth’s crust in the islands of Tenerife and La Palma, where the social impact of an increase (or variation) of volcanic activity is very severe. Aside from the high demographic density of the archipelago, the population increases significantly in different periods throughout the year due to tourism, which represents a major source of revenue for the islands. The population and the tourist centres are mainly spread along the coasts and also along the flanks of the volcanic edifices. Perhaps the preservation of these social and socio-economic structures is the most important reason that justifies monitoring volcanic activity in the Canary Islands. Recently more and more work has been done with the intention of predicting volcanic activity, using new geodesic monitoring systems, since volcanic activity is evident prior to eruption because of a deformation of the Earth’s crust and changes in the force of gravity in the zone where volcanic events will later be recorded. The new devices and sensors that have been developed in recent years in areas such as geodesy, the observation of the Earth from space, and satellite positioning have allowed us to observe and measure the deformation produced in the Earth as well as the changes in the force of gravity before, during, and after the volcanic events occur. The new devices and sensors have changed the geodetic techniques and methodologies that were used previously. The classic methods have been renovated and other newer ones developed that are now vouched for as proven recognised methodologies to be used for volcanic monitoring. Since the end of the 1990s, in the Canary Islands various projects have been developed whose principal aim has been the development of new observation and monitoring techniques on the one hand, and the design of an appropriate volcanic monitoring methodology on the other. The study and development of GNSS techniques for the monitoring of crustal deformations and their velocity field is presented here. To carry out the study, the use of geodetic infrastructure and existing monitoring in the archipelago have been taken into account in order to optimise costs, besides complementing it with new stations for total coverage on both islands. The results obtained in the projects, which are described below, have produced new perspectives in the geodetic monitoring of volcanic activity and new zones of interest which previously were unknown in the environment of the Canary Islands. Special care has been taken with the treatment and propagation of errors during the entire process of observing, measuring, and processing the recorded data. All of this was done in order to quantify the degree of trustworthiness of the results obtained. Also in this sense, the results obtained have been verified with others from satellite radar observation systems, incorporating as well in this study the implications that the joint use of radar technologies and GNSS will have for the future of monitoring deformations in the Earth’s crust.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se desarrolla dentro del marco de las comunicaciones satelitales en el innovador campo de los pequeños satélites también llamados nanosatélites o cubesats, llamados así por su forma cubica. Estos nanosatélites se caracterizan por su bajo costo debido a que usan componentes comerciales llamados COTS (commercial off-the-shelf) y su pequeño tamaño como los Cubesats 1U (10cm*10 cm*10 cm) con masa aproximada a 1 kg. Este trabajo de tesis tiene como base una iniciativa propuesta por el autor de la tesis para poner en órbita el primer satélite peruano en mi país llamado chasqui I, actualmente puesto en órbita desde la Estación Espacial Internacional. La experiencia de este trabajo de investigación me llevo a proponer una constelación de pequeños satélites llamada Waposat para dar servicio de monitoreo de sensores de calidad de agua a nivel global, escenario que es usado en esta tesis. Es ente entorno y dadas las características limitadas de los pequeños satélites, tanto en potencia como en velocidad de datos, es que propongo investigar una nueva arquitectura de comunicaciones que permita resolver en forma óptima la problemática planteada por los nanosatélites en órbita LEO debido a su carácter disruptivo en sus comunicaciones poniendo énfasis en las capas de enlace y aplicación. Esta tesis presenta y evalúa una nueva arquitectura de comunicaciones para proveer servicio a una red de sensores terrestres usando una solución basada en DTN (Delay/Disruption Tolerant Networking) para comunicaciones espaciales. Adicionalmente, propongo un nuevo protocolo de acceso múltiple que usa una extensión del protocolo ALOHA no ranurado, el cual toma en cuenta la prioridad del trafico del Gateway (ALOHAGP) con un mecanismo de contienda adaptativo. Utiliza la realimentación del satélite para implementar el control de la congestión y adapta dinámicamente el rendimiento efectivo del canal de una manera óptima. Asumimos un modelo de población de sensores finito y una condición de tráfico saturado en el que cada sensor tiene siempre tramas que transmitir. El desempeño de la red se evaluó en términos de rendimiento efectivo, retardo y la equidad del sistema. Además, se ha definido una capa de convergencia DTN (ALOHAGP-CL) como un subconjunto del estándar TCP-CL (Transmission Control Protocol-Convergency Layer). Esta tesis muestra que ALOHAGP/CL soporta adecuadamente el escenario DTN propuesto, sobre todo cuando se utiliza la fragmentación reactiva. Finalmente, esta tesis investiga una transferencia óptima de mensajes DTN (Bundles) utilizando estrategias de fragmentación proactivas para dar servicio a una red de sensores terrestres utilizando un enlace de comunicaciones satelitales que utiliza el mecanismo de acceso múltiple con prioridad en el tráfico de enlace descendente (ALOHAGP). El rendimiento efectivo ha sido optimizado mediante la adaptación de los parámetros del protocolo como una función del número actual de los sensores activos recibidos desde el satélite. También, actualmente no existe un método para advertir o negociar el tamaño máximo de un “bundle” que puede ser aceptado por un agente DTN “bundle” en las comunicaciones por satélite tanto para el almacenamiento y la entrega, por lo que los “bundles” que son demasiado grandes son eliminados o demasiado pequeños son ineficientes. He caracterizado este tipo de escenario obteniendo una distribución de probabilidad de la llegada de tramas al nanosatélite así como una distribución de probabilidad del tiempo de visibilidad del nanosatélite, los cuales proveen una fragmentación proactiva óptima de los DTN “bundles”. He encontrado que el rendimiento efectivo (goodput) de la fragmentación proactiva alcanza un valor ligeramente inferior al de la fragmentación reactiva. Esta contribución permite utilizar la fragmentación activa de forma óptima con todas sus ventajas tales como permitir implantar el modelo de seguridad de DTN y la simplicidad al implementarlo en equipos con muchas limitaciones de CPU y memoria. La implementación de estas contribuciones se han contemplado inicialmente como parte de la carga útil del nanosatélite QBito, que forma parte de la constelación de 50 nanosatélites que se está llevando a cabo dentro del proyecto QB50. ABSTRACT This thesis is developed within the framework of satellite communications in the innovative field of small satellites also known as nanosatellites (<10 kg) or CubeSats, so called from their cubic form. These nanosatellites are characterized by their low cost because they use commercial components called COTS (commercial off-the-shelf), and their small size and mass, such as 1U Cubesats (10cm * 10cm * 10cm) with approximately 1 kg mass. This thesis is based on a proposal made by the author of the thesis to put into orbit the first Peruvian satellite in his country called Chasqui I, which was successfully launched into orbit from the International Space Station in 2014. The experience of this research work led me to propose a constellation of small satellites named Waposat to provide water quality monitoring sensors worldwide, scenario that is used in this thesis. In this scenario and given the limited features of nanosatellites, both power and data rate, I propose to investigate a new communications architecture that allows solving in an optimal manner the problems of nanosatellites in orbit LEO due to the disruptive nature of their communications by putting emphasis on the link and application layers. This thesis presents and evaluates a new communications architecture to provide services to terrestrial sensor networks using a space Delay/Disruption Tolerant Networking (DTN) based solution. In addition, I propose a new multiple access mechanism protocol based on extended unslotted ALOHA that takes into account the priority of gateway traffic, which we call ALOHA multiple access with gateway priority (ALOHAGP) with an adaptive contention mechanism. It uses satellite feedback to implement the congestion control, and to dynamically adapt the channel effective throughput in an optimal way. We assume a finite sensor population model and a saturated traffic condition where every sensor always has frames to transmit. The performance was evaluated in terms of effective throughput, delay and system fairness. In addition, a DTN convergence layer (ALOHAGP-CL) has been defined as a subset of the standard TCP-CL (Transmission Control Protocol-Convergence Layer). This thesis reveals that ALOHAGP/CL adequately supports the proposed DTN scenario, mainly when reactive fragmentation is used. Finally, this thesis investigates an optimal DTN message (bundles) transfer using proactive fragmentation strategies to give service to a ground sensor network using a nanosatellite communications link which uses a multi-access mechanism with priority in downlink traffic (ALOHAGP). The effective throughput has been optimized by adapting the protocol parameters as a function of the current number of active sensors received from satellite. Also, there is currently no method for advertising or negotiating the maximum size of a bundle which can be accepted by a bundle agent in satellite communications for storage and delivery, so that bundles which are too large can be dropped or which are too small are inefficient. We have characterized this kind of scenario obtaining a probability distribution for frame arrivals to nanosatellite and visibility time distribution that provide an optimal proactive fragmentation of DTN bundles. We have found that the proactive effective throughput (goodput) reaches a value slightly lower than reactive fragmentation approach. This contribution allows to use the proactive fragmentation optimally with all its advantages such as the incorporation of the security model of DTN and simplicity in protocol implementation for computers with many CPU and memory limitations. The implementation of these contributions was initially contemplated as part of the payload of the nanosatellite QBito, which is part of the constellation of 50 nanosatellites envisaged under the QB50 project.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa considera a difusão de celulares e smartphones e as consequências deste fato em possibilidades para o ensino-aprendizagem. Aparatos de comunicação sempre estiveram ligados ao processo de ensino-aprendizagem. Entretanto, com o desenvolvimento mais intenso, nas últimas décadas, das Tecnologias de Informação e Comunicação (TIC), essa relação vem ganhando novos contornos. Surge a Internet, a evolução das máquinas computacionais e, recentemente, a explosão dos dispositivos móveis, fornecendo novos produtos e serviços convergentes. Nesse contexto, celulares e smartphones tem sido utilizados e recomendados para apoio e complemento do processo de ensino-aprendizagem: a chamada Aprendizagem Móvel. Esse ramo cresce devido à rápida expansão e barateamento dessas tecnologias na sociedade. Para verificar cientificamente essa relação foi realizada uma pesquisa de natureza qualitativa, do tipo exploratória, com dois projetos de Aprendizagem Móvel em andamento no Brasil, o Palma – Programa de Alfabetização na Língua Materna e o Escola Com Celular – ECC. Assim, a partir dos dados provenientes da pesquisa, identificamos alguns aspectos relacionados ao uso de celulares e smartphones para o processo de ensino-aprendizagem que contribuem na compreensão desse campo ainda em construção no Brasil. O uso desses dispositivos como suporte para processos de ensino-aprendizagem nos projetos estudados é delineado pelos aspectos tecnologia, dispositivo, público e contexto e novas tecnologias e Aprendizagem Móvel. O aspecto dispositivo desdobra-se em dimensões como disseminação, multifuncionalidade e acessibilidade que embasam os projetos, ainda favorece características apontadas como importantes para o processo de ensino-aprendizagem na atualidade, como mobilidade e portabilidade. Os projetos pesquisados demonstram potencial e metodologia adequada aos contextos para os quais foram criados e aplicados. Entretanto, a pesquisa indicou que ao mesmo tempo em que celulares e smartphones representam o ápice da convergência tecnológica e são considerados extremamente populares e acessíveis na sociedade contemporânea, com possibilidades concretas como nos projetos estudados, não conseguiram conquistar uma posição sólida como suporte para o ensino-aprendizagem. Tal indicação se deve, de acordo com o corpus, à carência de alguns fatores, como: fomento, as práticas se mostram extremamente dependentes da iniciativa pública ou privada para sua extensão e continuidade; sensibilização para o uso de tecnologias disponíveis, não consideram o aparelho dos próprios alunos e um planejamento que inclua, capacite e incentive o uso desses dispositivos. Além disso, a pesquisa também destaca a necessidade de uma visão crítica do uso e papel da tecnologia nesses processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os reservatórios urbanos estão suscetíveis a uma variedade de interferências antropogênicas que acarretam grande variabilidade espacial e temporal. Contudo, possuem uma dinâmica própria na qual o hidroclima e micro e macro-eventos meteorológicos atuam sobre os processos físicos, químicos e biológicos resultando em respostas particulares de cada corpo de água. No presente estudo a existência de padrões espaciais e temporais na formação de florescimentos de algas, cianobactérias e macrófitas no reservatório Guarapiranga, São Paulo, SP, foi avaliada por meio de experimento de curta escala de tempo durante o evento da entrada de uma frente fria. Foram amostrados 64 pontos em todo o reservatório, e o estudo intensivo de florescimento algal e de cianobactérias em dois ciclos nictemerais, em um ponto selecionado no reservatório. Um modelo tridimensional de hidrodinâmica foi aplicado ao estudo compartimentalizado dos tempos de residência e imagens de satélite foram analisadas para determinação de padrões temporais e espaciais durante períodos de tempo mais amplos. Os resultados revelaram que os períodos mais favoráveis ao surgimento de florescimentos de cianobactérias são geralmente os meses mais quentes, de dezembro e janeiro, ou aqueles em que ocorrem estratificações mais fortes como no fim do inverno, em julho, e após as primeiras chuvas nos meses de setembro e outubro. Existem padrões espaciais recorrentes na formação dos florescimentos, controlados em grande parte pela ação do vento, que no reservatório Guarapiranga é predominantemente nas direções leste e sudeste empurrando os florescimentos na direção da foz dos tributários Embu Mirim e Embu Guaçu e ocasionalmente na direção da foz do rio Parelheiros. As simulações hidrodinâmicas evidenciam as forçantes que determinam os padrões observados e reforçam a importância de se discretizarem os tempos de residência de diferentes compartimentos do reservatório. As séries temporais amplas permitiram a determinação da qualidade da água em cada região e fornecem subsídios para o futuro manejo do reservatório. Como esse comportamento não se restringe ao reservatório Guarapiranga, o tipo de modelagem aqui utilizada pode ser útil para obter informações importantes no processo de planejamento e seleção de medidas para o gerenciamento de reservatórios urbanos tropicais polimíticos, em geral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve o estudo das instabilidades magneto-hidro-dinâmicas (MHD) comumente observadas nas descargas elétricas de plasma no tokamak TCABR, do Instituto de Física da USP. Dois diagnósticos principais foram empregados para observar essas instabilidades: um conjunto poloidal de 24 bobinas magnéticas (bobinas de Mirnov) colocadas próximas à borda do plasma e um medidor de emissões na faixa do Ultra Violeta e de raios X moles com 20 canais (sistema SXR), cujo circuito de condicionamento de sinais foi aprimorado como parte deste trabalho. Esses diagnósticos foram escolhidos porque fornecem informações complementares, uma vez que o sistema SXR observa a parte central da coluna de plasma, enquanto as bobinas de Mirnov detectam as instabilidades MHD na região mais externa da coluna. As informações coletadas por esses diagnósticos foram submetidas à análise espectral com resolução temporal e espacial, possibilitando determinar a evolução das características espectrais e espaciais das instabilidades MHD observadas. Essas análises revelaram que durante a etapa inicial da formação do plasma (quando a corrente de plasma ainda está aumentando) ilhas magnéticas com números de onda decrescente, identificadas como sendo modos kink de borda, são detectadas nas bobinas de Mirnov. Após a formação do plasma, quando os parâmetros de equilíbrio estão relativamente estáveis (platô), oscilações são detectadas tanto nas bobinas de Mirnov quanto no sistema de SXR, indicando a presença de instabilidades MHD em toda a coluna de plasma. Em geral as oscilações medidas nas bobinas de Mirnov tem baixa amplitude e correspondem a pequenas ilhas magnéticas que foram identificadas como sendo modos de ruptura (modos tearing). Por outro lado, as instabilidades na região central foram identificadas como dentes de serra, que correspondem a relaxações periódicas da região interna à superfície magnética com fator de segurança q=1 e que são acompanhadas de oscilações precursoras, cuja amplitude depende da fase do ciclo de relaxação. Devido à essa modulação de amplitude, aparecem picos de frequência satélite nos espectrogramas dos sinais do SXR. Além disso, devido ao fato dos ciclos de relaxação não serem sinusoidais, os harmônicos da frequência de relaxação também aparecem nesses espectrogramas. No entanto, em muitas descargas do TCABR, a intensidade das oscilações medidas nas bobinas de Mirnov aumentam significativamente durante o platô, com efeitos sobre a frequência de todas as instabilidades MHD, até mesmo sobre os dentes de serra localizados na região central da coluna. Em todos os casos, observou-se que durante o platô a frequência das ilhas magnéticas coincide com a frequência das oscilações precursoras do dente de serra, apesar de serem duas instabilidades distintas, localizadas em posições radiais muito diferentes. Essa coincidência de frequências possibilitou descrever a evolução em frequência de todas as oscilações detectadas em diversos diagnósticos com base em apenas duas frequências básicas: a dos ciclos de relaxação dente de serra e a das ilhas magnéticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A televisão nos dias atuais tem sofrido inúmeras inovações tecnológicas nos campos das transmissões multimídia, qualidade audio-visual e diversidade de funcionalidades. Entretanto, esta essencialmente mantêm sua característica de fornecer informações de forma quase que instantânea à população. O ambiente atual da televisão digital é caracterizado pela coexistência de inúmeros dispositivos capazes de oferecerem uma experiência televisa, associando-se computadores pessoais, smartphones, tablets e outros eletrônicos de consumo. Ainda, pode se incluir a este cenário a disponibilidade de inúmeras redes de transporte de dados tais como a radiodifusão, satélite, cabo e redes em banda larga. Este cenário diversificado, em termos de dispositivos e redes, é denominado de cenário de televisão digital híbrida, a qual destaca-se a interação do expectador com os diversos dispositivos. Estes cenários, por sua vez, motivam o desenvolvimento de tecnologias que permitem o aperfeiçoamento da pervasividade e dos meios pelos os quais os aplicativos possam ser suportados em diferentes plataformas. Este trabalho propõe ambientes interoperáveis envolvendo a televisão digital interativa e outros eletrônicos de consumo, aos quais foram realizados estudos e experimentos para se observar diferentes técnicas de sincronização e comunicação entre plataformas de interatividade para a televisão digital híbrida. Os resultados apontam para a possibilidade de cenários interoperáveis envolvendo o uso de marcadores e também recursos de redes e serviços TCP/IP, levando em consideração a eficiência e eficácia nos diferentes métodos. Conclui-se que os resultados odem motivar o desenvolvimento de cenários diferenciados envolvendo a televisão digital interativa e dispositivos de segunda tela, o que incrementa a interatividade e as formas de entretenimento.