230 resultados para Escalador de colinas estocástico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación realizada en este trabajo de tesis se ha centrado en el estudio de la generación, anclaje y desenganche de paredes de dominio magnético en nanohilos de permalloy con defectos controlados. Las últimas tecnologías de nanofabricación han abierto importantes líneas de investigación centradas en el estudio del movimiento de paredes de dominio magnético, gracias a su potencial aplicación en memorias magnéticas del futuro. En el 2004, Stuart Parkin de IBM introdujo un concepto innovador, el dispositivo “Racetrack”, basado en un nanohilo ferromagnético donde los dominios de imanación representan los "bits" de información. La frontera entre dominios, ie pared magnética, se moverían en una situación ideal por medio de transferencia de espín de una corriente polarizada. Se anclan en determinadas posiciones gracias a pequeños defectos o constricciones de tamaño nanométrico fabricados por litografía electrónica. El éxito de esta idea se basa en la generación, anclaje y desenganche de las paredes de dominio de forma controlada y repetitiva, tanto para la lectura como para la escritura de los bits de información. Slonczewski en 1994 muestra que la corriente polarizada de espín puede transferir momento magnético a la imanación local y así mover paredes por transferencia de espín y no por el campo creado por la corriente. Desde entonces muchos grupos de investigación de todo el mundo trabajan en optimizar las condiciones de transferencia de espín para mover paredes de dominio. La fracción de electrones polarizados que viaja en un hilo ferromagnético es considerablemente pequeña, así hoy por hoy la corriente necesaria para mover una pared magnética por transferencia de espín es superior a 1 107 A/cm2. Una densidad de corriente tan elevada no sólo tiene como consecuencia una importante degradación del dispositivo sino también se observan importantes efectos relacionados con el calentamiento por efecto Joule inducido por la corriente. Otro de los problemas científico - tecnológicos a resolver es la diversidad de paredes de dominio magnético ancladas en el defecto. Los diferentes tipos de pared anclados en el defecto, su quiralidad o el campo o corriente necesarios para desenganchar la pared pueden variar dependiendo si el defecto posee dimensiones ligeramente diferentes o si la pared se ancla con un método distinto. Además, existe una componente estocástica presente tanto en la nucleación como en el proceso de anclaje y desenganche que por un lado puede ser debido a la naturaleza de la pared que viaja por el hilo a una determinada temperatura distinta de cero, así como a defectos inevitables en el proceso de fabricación. Esto constituye un gran inconveniente dado que según el tipo de pared es necesario aplicar distintos valores de corriente y/o campo para desenganchar la pared del defecto. Como se menciona anteriormente, para realizar de forma eficaz la lectura y escritura de los bits de información, es necesaria la inyección, anclaje y desenganche forma controlada y repetitiva. Esto implica generar, anclar y desenganchar las paredes de dominio siempre en las mismas condiciones, ie siempre a la misma corriente o campo aplicado. Por ello, en el primer capítulo de resultados de esta tesis estudiamos el anclaje y desenganche de paredes de dominio en defectos de seis formas distintas, cada uno, de dos profundidades diferentes. Hemos realizado un análisis estadístico en diferentes hilos, donde hemos estudiado la probabilidad de anclaje cada tipo de defecto y la dispersión en el valor de campo magnético aplicado necesario para desenganchar la pared. Luego, continuamos con el estudio de la nucleación de las paredes de dominio magnético con pulsos de corriente a través una linea adyacente al nanohilo. Estudiamos defectos de tres formas distintas e identificamos, en función del valor de campo magnético aplicado, los distintos tipos de paredes de dominio anclados en cada uno de ellos. Además, con la ayuda de este método de inyección que es rápido y eficaz, hemos sido capaces de generar y anclar un único tipo de pared minimizando el comportamiento estocástico de la pared mencionado anteriormente. En estas condiciones óptimas, hemos estudiado el desenganche de las paredes de dominio por medio de corriente polarizada en espín, donde hemos conseguido desenganchar la pared de forma controlada y repetitiva siempre para los mismos valores de corriente y campo magnético aplicados. Además, aplicando pulsos de corriente en distintas direcciones, estudiamos en base a su diferencia, la contribución térmica debido al efecto Joule. Los resultados obtenidos representan un importante avance hacia la explotación práctica de este tipo de dispositivos. ABSTRACT The research activity of this thesis was focused on the nucleation, pinning and depinning of magnetic domain walls (DWs) in notched permalloy nanowires. The access to nanofabrication techniques has boosted the number of applications based on magnetic domain walls (DWs) like memory devices. In 2004, Stuart Parkin at IBM, conceived an innovative concept, the “racetrack memory” based on a ferromagnetic nanowire were the magnetic domains constitute the “bits” of information. The frontier between those magnetic domains, ie magnetic domain wall, will move ideally assisted by a spin polarized current. DWs will pin at certain positions due to artificially created pinning sites or “notches” fabricated with ebeam lithography. The success of this idea relies on the careful and predictable control on DW nucleation and a defined pinning-depinning process in order to read and write the bits of information. Sloncsewski in 1994 shows that a spin polarized current can transfer magnetic moment to the local magnetization to move the DWs instead of the magnetic field created by the current. Since then many research groups worldwide have been working on optimizing the conditions for the current induced DW motion due to the spin transfer effect. The fraction of spin polarized electrons traveling through a ferromagnetic nanowire is considerably small, so nowadays the current density required to move a DW by STT exceeds 1 107 A/cm2. A high current density not only can produce a significant degradation of the device but also important effects related to Joule heating were also observed . There are other scientific and technological issues to solve regarding the diversity of DWs states pinned at the notch. The types of DWs pinned, their chirality or their characteristic depinning current or field, may change if the notch has slightly different dimensions, the stripe has different thickness or even if the DW is pinned by a different procedure. Additionally, there is a stochastic component in both the injection of the DW and in its pinning-depinning process, which may be partly intrinsic to the nature of the travelling DW at a non-zero temperature and partly due to the unavoidable defects introduced during the nano-fabrication process. This constitutes an important inconvenient because depending on the DW type different values of current of magnetic field need to be applied in order to depin a DW from the notch. As mentioned earlier, in order to write and read the bits of information accurately, a controlled reproducible and predictable pinning- depinning process is required. This implies to nucleate, pin and depin always at the same applied magnetic field or current. Therefore, in the first chapter of this thesis we studied the pinning and depinning of DW in six different notch shapes and two depths. An statistical analysis was conducted in order to determine which notch type performed best in terms of pinning probability and the dispersion measured in the magnetic field necessary to depin the magnetic DWs. Then, we continued studying the nucleation of DWs with nanosecond current pulses by an adjacent conductive stripe. We studied the conditions for DW injection that allow a selective pinning of the different types of DWs in Permalloy nanostripes with 3 different notch shapes. Furthermore, with this injection method, which has proven to be fast and reliable, we manage to nucleate only one type of DW avoiding its stochastic behavior mentioned earlier. Having achieved this optimized conditions we studied current induced depinning where we also achieved a controlled and reproducible depinning process at always the same applied current and magnetic field. Additionally, changing the pulse polarity we studied the joule heating contribution in a current induced depinning process. The results obtained represent an important step towards the practical exploitation of these devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En entornos hostiles tales como aquellas instalaciones científicas donde la radiación ionizante es el principal peligro, el hecho de reducir las intervenciones humanas mediante el incremento de las operaciones robotizadas está siendo cada vez más de especial interés. CERN, la Organización Europea para la Investigación Nuclear, tiene alrededor de unos 50 km de superficie subterránea donde robots móviles controlador de forma remota podrían ayudar en su funcionamiento, por ejemplo, a la hora de llevar a cabo inspecciones remotas sobre radiación en los diferentes áreas destinados al efecto. No solo es preciso considerar que los robots deben ser capaces de recorrer largas distancias y operar durante largos periodos de tiempo, sino que deben saber desenvolverse en los correspondientes túneles subterráneos, tener en cuenta la presencia de campos electromagnéticos, radiación ionizante, etc. y finalmente, el hecho de que los robots no deben interrumpir el funcionamiento de los aceleradores. El hecho de disponer de un sistema de comunicaciones inalámbrico fiable y robusto es esencial para la correcta ejecución de las misiones que los robots deben afrontar y por supuesto, para evitar tales situaciones en las que es necesario la recuperación manual de los robots al agotarse su energía o al perder el enlace de comunicaciones. El objetivo de esta Tesis es proveer de las directrices y los medios necesarios para reducir el riesgo de fallo en la misión y maximizar las capacidades de los robots móviles inalámbricos los cuales disponen de almacenamiento finito de energía al trabajar en entornos peligrosos donde no se dispone de línea de vista directa. Para ello se proponen y muestran diferentes estrategias y métodos de comunicación inalámbrica. Teniendo esto en cuenta, se presentan a continuación los objetivos de investigación a seguir a lo largo de la Tesis: predecir la cobertura de comunicaciones antes y durante las misiones robotizadas; optimizar la capacidad de red inalámbrica de los robots móviles con respecto a su posición; y mejorar el rango operacional de esta clase de robots. Por su parte, las contribuciones a la Tesis se citan más abajo. El primer conjunto de contribuciones son métodos novedosos para predecir el consumo de energía y la autonomía en la comunicación antes y después de disponer de los robots en el entorno seleccionado. Esto es importante para proporcionar conciencia de la situación del robot y evitar fallos en la misión. El consumo de energía se predice usando una estrategia propuesta la cual usa modelos de consumo provenientes de diferentes componentes en un robot. La predicción para la cobertura de comunicaciones se desarrolla usando un nuevo filtro de RSS (Radio Signal Strength) y técnicas de estimación con la ayuda de Filtros de Kalman. El segundo conjunto de contribuciones son métodos para optimizar el rango de comunicaciones usando novedosas técnicas basadas en muestreo espacial que son robustas frente a ruidos de campos de detección y radio y que proporcionan redundancia. Se emplean métodos de diferencia central finitos para determinar los gradientes 2D RSS y se usa la movilidad del robot para optimizar el rango de comunicaciones y la capacidad de red. Este método también se valida con un caso de estudio centrado en la teleoperación háptica de robots móviles inalámbricos. La tercera contribución es un algoritmo robusto y estocástico descentralizado para la optimización de la posición al considerar múltiples robots autónomos usados principalmente para extender el rango de comunicaciones desde la estación de control al robot que está desarrollando la tarea. Todos los métodos y algoritmos propuestos se verifican y validan usando simulaciones y experimentos de campo con variedad de robots móviles disponibles en CERN. En resumen, esta Tesis ofrece métodos novedosos y demuestra su uso para: predecir RSS; optimizar la posición del robot; extender el rango de las comunicaciones inalámbricas; y mejorar las capacidades de red de los robots móviles inalámbricos para su uso en aplicaciones dentro de entornos peligrosos, que como ya se mencionó anteriormente, se destacan las instalaciones científicas con emisión de radiación ionizante. En otros términos, se ha desarrollado un conjunto de herramientas para mejorar, facilitar y hacer más seguras las misiones de los robots en entornos hostiles. Esta Tesis demuestra tanto en teoría como en práctica que los robots móviles pueden mejorar la calidad de las comunicaciones inalámbricas mediante la profundización en el estudio de su movilidad para optimizar dinámicamente sus posiciones y mantener conectividad incluso cuando no existe línea de vista. Los métodos desarrollados en la Tesis son especialmente adecuados para su fácil integración en robots móviles y pueden ser aplicados directamente en la capa de aplicación de la red inalámbrica. ABSTRACT In hostile environments such as in scientific facilities where ionising radiation is a dominant hazard, reducing human interventions by increasing robotic operations are desirable. CERN, the European Organization for Nuclear Research, has around 50 km of underground scientific facilities, where wireless mobile robots could help in the operation of the accelerator complex, e.g. in conducting remote inspections and radiation surveys in different areas. The main challenges to be considered here are not only that the robots should be able to go over long distances and operate for relatively long periods, but also the underground tunnel environment, the possible presence of electromagnetic fields, radiation effects, and the fact that the robots shall in no way interrupt the operation of the accelerators. Having a reliable and robust wireless communication system is essential for successful execution of such robotic missions and to avoid situations of manual recovery of the robots in the event that the robot runs out of energy or when the robot loses its communication link. The goal of this thesis is to provide means to reduce risk of mission failure and maximise mission capabilities of wireless mobile robots with finite energy storage capacity working in a radiation environment with non-line-of-sight (NLOS) communications by employing enhanced wireless communication methods. Towards this goal, the following research objectives are addressed in this thesis: predict the communication range before and during robotic missions; optimise and enhance wireless communication qualities of mobile robots by using robot mobility and employing multi-robot network. This thesis provides introductory information on the infrastructures where mobile robots will need to operate, the tasks to be carried out by mobile robots and the problems encountered in these environments. The reporting of research work carried out to improve wireless communication comprises an introduction to the relevant radio signal propagation theory and technology followed by explanation of the research in the following stages: An analysis of the wireless communication requirements for mobile robot for different tasks in a selection of CERN facilities; predictions of energy and communication autonomies (in terms of distance and time) to reduce risk of energy and communication related failures during missions; autonomous navigation of a mobile robot to find zone(s) of maximum radio signal strength to improve communication coverage area; and autonomous navigation of one or more mobile robots acting as mobile wireless relay (repeater) points in order to provide a tethered wireless connection to a teleoperated mobile robot carrying out inspection or radiation monitoring activities in a challenging radio environment. The specific contributions of this thesis are outlined below. The first sets of contributions are novel methods for predicting the energy autonomy and communication range(s) before and after deployment of the mobile robots in the intended environments. This is important in order to provide situational awareness and avoid mission failures. The energy consumption is predicted by using power consumption models of different components in a mobile robot. This energy prediction model will pave the way for choosing energy-efficient wireless communication strategies. The communication range prediction is performed using radio signal propagation models and applies radio signal strength (RSS) filtering and estimation techniques with the help of Kalman filters and Gaussian process models. The second set of contributions are methods to optimise the wireless communication qualities by using novel spatial sampling based techniques that are robust to sensing and radio field noises and provide redundancy features. Central finite difference (CFD) methods are employed to determine the 2-D RSS gradients and use robot mobility to optimise the communication quality and the network throughput. This method is also validated with a case study application involving superior haptic teleoperation of wireless mobile robots where an operator from a remote location can smoothly navigate a mobile robot in an environment with low-wireless signals. The third contribution is a robust stochastic position optimisation algorithm for multiple autonomous relay robots which are used for wireless tethering of radio signals and thereby to enhance the wireless communication qualities. All the proposed methods and algorithms are verified and validated using simulations and field experiments with a variety of mobile robots available at CERN. In summary, this thesis offers novel methods and demonstrates their use to predict energy autonomy and wireless communication range, optimise robots position to improve communication quality and enhance communication range and wireless network qualities of mobile robots for use in applications in hostile environmental characteristics such as scientific facilities emitting ionising radiations. In simpler terms, a set of tools are developed in this thesis for improving, easing and making safer robotic missions in hostile environments. This thesis validates both in theory and experiments that mobile robots can improve wireless communication quality by exploiting robots mobility to dynamically optimise their positions and maintain connectivity even when the (radio signal) environment possess non-line-of-sight characteristics. The methods developed in this thesis are well-suited for easier integration in mobile robots and can be applied directly at the application layer of the wireless network. The results of the proposed methods have outperformed other comparable state-of-the-art methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis constituye un avance en el conocimiento de los efectos de la variabilidad climática en los cultivos en la Península Ibérica (PI). Es bien conocido que la temperatura del océano, particularmente de la región tropical, es una de las variables más convenientes para ser utilizado como predictor climático. Los océanos son considerados como la principal fuente de almacenamiento de calor del planeta debido a la alta capacidad calorífica del agua. Cuando se libera esta energía, altera los regímenes globales de circulación atmosférica por mecanismos de teleconexión. Estos cambios en la circulación general de la atmósfera afectan a la temperatura, precipitación, humedad, viento, etc., a escala regional, los cuales afectan al crecimiento, desarrollo y rendimiento de los cultivos. Para el caso de Europa, esto implica que la variabilidad atmosférica en una región específica se asocia con la variabilidad de otras regiones adyacentes y/o remotas, como consecuencia Europa está siendo afectada por los patrones de circulaciones globales, que a su vez, se ven afectados por patrones oceánicos. El objetivo general de esta tesis es analizar la variabilidad del rendimiento de los cultivos y su relación con la variabilidad climática y teleconexiones, así como evaluar su predictibilidad. Además, esta Tesis tiene como objetivo establecer una metodología para estudiar la predictibilidad de las anomalías del rendimiento de los cultivos. El análisis se centra en trigo y maíz como referencia para otros cultivos de la PI, cultivos de invierno en secano y cultivos de verano en regadío respectivamente. Experimentos de simulación de cultivos utilizando una metodología en cadena de modelos (clima + cultivos) son diseñados para evaluar los impactos de los patrones de variabilidad climática en el rendimiento y su predictibilidad. La presente Tesis se estructura en dos partes: La primera se centra en el análisis de la variabilidad del clima y la segunda es una aplicación de predicción cuantitativa de cosechas. La primera parte está dividida en 3 capítulos y la segundo en un capitulo cubriendo los objetivos específicos del presente trabajo de investigación. Parte I. Análisis de variabilidad climática El primer capítulo muestra un análisis de la variabilidad del rendimiento potencial en una localidad como indicador bioclimático de las teleconexiones de El Niño con Europa, mostrando su importancia en la mejora de predictibilidad tanto en clima como en agricultura. Además, se presenta la metodología elegida para relacionar el rendimiento con las variables atmosféricas y oceánicas. El rendimiento de los cultivos es parcialmente determinado por la variabilidad climática atmosférica, que a su vez depende de los cambios en la temperatura de la superficie del mar (TSM). El Niño es el principal modo de variabilidad interanual de la TSM, y sus efectos se extienden en todo el mundo. Sin embargo, la predictibilidad de estos impactos es controversial, especialmente aquellos asociados con la variabilidad climática Europea, que se ha encontrado que es no estacionaria y no lineal. Este estudio mostró cómo el rendimiento potencial de los cultivos obtenidos a partir de datos de reanálisis y modelos de cultivos sirve como un índice alternativo y más eficaz de las teleconexiones de El Niño, ya que integra las no linealidades entre las variables climáticas en una única serie temporal. Las relaciones entre El Niño y las anomalías de rendimiento de los cultivos son más significativas que las contribuciones individuales de cada una de las variables atmosféricas utilizadas como entrada en el modelo de cultivo. Además, la no estacionariedad entre El Niño y la variabilidad climática europea se detectan con mayor claridad cuando se analiza la variabilidad de los rendimiento de los cultivos. La comprensión de esta relación permite una cierta predictibilidad hasta un año antes de la cosecha del cultivo. Esta predictibilidad no es constante, sino que depende tanto la modulación de la alta y baja frecuencia. En el segundo capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de verano en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de maíz en la PI para todo el siglo veinte, usando un modelo de cultivo calibrado en 5 localidades españolas y datos climáticos de reanálisis para obtener series temporales largas de rendimiento potencial. Este estudio evalúa el uso de datos de reanálisis para obtener series de rendimiento de cultivos que dependen solo del clima, y utilizar estos rendimientos para analizar la influencia de los patrones oceánicos y atmosféricos. Los resultados muestran una gran fiabilidad de los datos de reanálisis. La distribución espacial asociada a la primera componente principal de la variabilidad del rendimiento muestra un comportamiento similar en todos los lugares estudiados de la PI. Se observa una alta correlación lineal entre el índice de El Niño y el rendimiento, pero no es estacionaria en el tiempo. Sin embargo, la relación entre la temperatura del aire y el rendimiento se mantiene constante a lo largo del tiempo, siendo los meses de mayor influencia durante el período de llenado del grano. En cuanto a los patrones atmosféricos, el patrón Escandinavia presentó una influencia significativa en el rendimiento en PI. En el tercer capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de invierno en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de trigo en secano del Noreste (NE) de la PI. La variabilidad climática es el principal motor de los cambios en el crecimiento, desarrollo y rendimiento de los cultivos, especialmente en los sistemas de producción en secano. En la PI, los rendimientos de trigo son fuertemente dependientes de la cantidad de precipitación estacional y la distribución temporal de las mismas durante el periodo de crecimiento del cultivo. La principal fuente de variabilidad interanual de la precipitación en la PI es la Oscilación del Atlántico Norte (NAO), que se ha relacionado, en parte, con los cambios en la temperatura de la superficie del mar en el Pacífico Tropical (El Niño) y el Atlántico Tropical (TNA). La existencia de cierta predictibilidad nos ha animado a analizar la posible predicción de los rendimientos de trigo en la PI utilizando anomalías de TSM como predictor. Para ello, se ha utilizado un modelo de cultivo (calibrado en dos localidades del NE de la PI) y datos climáticos de reanálisis para obtener series temporales largas de rendimiento de trigo alcanzable y relacionar su variabilidad con anomalías de la TSM. Los resultados muestran que El Niño y la TNA influyen en el desarrollo y rendimiento del trigo en el NE de la PI, y estos impactos depende del estado concurrente de la NAO. Aunque la relación cultivo-TSM no es igual durante todo el periodo analizado, se puede explicar por un mecanismo eco-fisiológico estacionario. Durante la segunda mitad del siglo veinte, el calentamiento (enfriamiento) en la superficie del Atlántico tropical se asocia a una fase negativa (positiva) de la NAO, que ejerce una influencia positiva (negativa) en la temperatura mínima y precipitación durante el invierno y, por lo tanto, aumenta (disminuye) el rendimiento de trigo en la PI. En relación con El Niño, la correlación más alta se observó en el período 1981 -2001. En estas décadas, los altos (bajos) rendimientos se asocian con una transición El Niño - La Niña (La Niña - El Niño) o con eventos de El Niño (La Niña) que están finalizando. Para estos eventos, el patrón atmosférica asociada se asemeja a la NAO, que también influye directamente en la temperatura máxima y precipitación experimentadas por el cultivo durante la floración y llenado de grano. Los co- efectos de los dos patrones de teleconexión oceánicos ayudan a aumentar (disminuir) la precipitación y a disminuir (aumentar) la temperatura máxima en PI, por lo tanto el rendimiento de trigo aumenta (disminuye). Parte II. Predicción de cultivos. En el último capítulo se analiza los beneficios potenciales del uso de predicciones climáticas estacionales (por ejemplo de precipitación) en las predicciones de rendimientos de trigo y maíz, y explora métodos para aplicar dichos pronósticos climáticos en modelos de cultivo. Las predicciones climáticas estacionales tienen un gran potencial en las predicciones de cultivos, contribuyendo de esta manera a una mayor eficiencia de la gestión agrícola, seguridad alimentaria y de subsistencia. Los pronósticos climáticos se expresan en diferentes formas, sin embargo todos ellos son probabilísticos. Para ello, se evalúan y aplican dos métodos para desagregar las predicciones climáticas estacionales en datos diarios: 1) un generador climático estocástico condicionado (predictWTD) y 2) un simple re-muestreador basado en las probabilidades del pronóstico (FResampler1). Los dos métodos se evaluaron en un caso de estudio en el que se analizaron los impactos de tres escenarios de predicciones de precipitación estacional (predicción seco, medio y lluvioso) en el rendimiento de trigo en secano, sobre las necesidades de riego y rendimiento de maíz en la PI. Además, se estimó el margen bruto y los riesgos de la producción asociada con las predicciones de precipitación estacional extremas (seca y lluviosa). Los métodos predWTD y FResampler1 usados para desagregar los pronósticos de precipitación estacional en datos diarios, que serán usados como inputs en los modelos de cultivos, proporcionan una predicción comparable. Por lo tanto, ambos métodos parecen opciones factibles/viables para la vinculación de los pronósticos estacionales con modelos de simulación de cultivos para establecer predicciones de rendimiento o las necesidades de riego en el caso de maíz. El análisis del impacto en el margen bruto de los precios del grano de los dos cultivos (trigo y maíz) y el coste de riego (maíz) sugieren que la combinación de los precios de mercado previstos y la predicción climática estacional pueden ser una buena herramienta en la toma de decisiones de los agricultores, especialmente en predicciones secas y/o localidades con baja precipitación anual. Estos métodos permiten cuantificar los beneficios y riesgos de los agricultores ante una predicción climática estacional en la PI. Por lo tanto, seríamos capaces de establecer sistemas de alerta temprana y diseñar estrategias de adaptación del manejo del cultivo para aprovechar las condiciones favorables o reducir los efectos de condiciones adversas. La utilidad potencial de esta Tesis es la aplicación de las relaciones encontradas para predicción de cosechas de la próxima campaña agrícola. Una correcta predicción de los rendimientos podría ayudar a los agricultores a planear con antelación sus prácticas agronómicas y todos los demás aspectos relacionados con el manejo de los cultivos. Esta metodología se puede utilizar también para la predicción de las tendencias futuras de la variabilidad del rendimiento en la PI. Tanto los sectores públicos (mejora de la planificación agrícola) como privados (agricultores, compañías de seguros agrarios) pueden beneficiarse de esta mejora en la predicción de cosechas. ABSTRACT The present thesis constitutes a step forward in advancing of knowledge of the effects of climate variability on crops in the Iberian Peninsula (IP). It is well known that ocean temperature, particularly the tropical ocean, is one of the most convenient variables to be used as climate predictor. Oceans are considered as the principal heat storage of the planet due to the high heat capacity of water. When this energy is released, it alters the global atmospheric circulation regimes by teleconnection1 mechanisms. These changes in the general circulation of the atmosphere affect the regional temperature, precipitation, moisture, wind, etc., and those influence crop growth, development and yield. For the case of Europe, this implies that the atmospheric variability in a specific region is associated with the variability of others adjacent and/or remote regions as a consequence of Europe being affected by global circulations patterns which, in turn, are affected by oceanic patterns. The general objective of this Thesis is to analyze the variability of crop yields at climate time scales and its relation to the climate variability and teleconnections, as well as to evaluate their predictability. Moreover, this Thesis aims to establish a methodology to study the predictability of crop yield anomalies. The analysis focuses on wheat and maize as a reference crops for other field crops in the IP, for winter rainfed crops and summer irrigated crops respectively. Crop simulation experiments using a model chain methodology (climate + crop) are designed to evaluate the impacts of climate variability patterns on yield and its predictability. The present Thesis is structured in two parts. The first part is focused on the climate variability analyses, and the second part is an application of the quantitative crop forecasting for years that fulfill specific conditions identified in the first part. This Thesis is divided into 4 chapters, covering the specific objectives of the present research work. Part I. Climate variability analyses The first chapter shows an analysis of potential yield variability in one location, as a bioclimatic indicator of the El Niño teleconnections with Europe, putting forward its importance for improving predictability in both climate and agriculture. It also presents the chosen methodology to relate yield with atmospheric and oceanic variables. Crop yield is partially determined by atmospheric climate variability, which in turn depends on changes in the sea surface temperature (SST). El Niño is the leading mode of SST interannual variability, and its impacts extend worldwide. Nevertheless, the predictability of these impacts is controversial, especially those associated with European climate variability, which have been found to be non-stationary and non-linear. The study showed how potential2 crop yield obtained from reanalysis data and crop models serves as an alternative and more effective index of El Niño teleconnections because it integrates the nonlinearities between the climate variables in a unique time series. The relationships between El Niño and crop yield anomalies are more significant than the individual contributions of each of the atmospheric variables used as input in the crop model. Additionally, the non-stationarities between El Niño and European climate variability are more clearly detected when analyzing crop-yield variability. The understanding of this relationship allows for some predictability up to one year before the crop is harvested. This predictability is not constant, but depends on both high and low frequency modulation. The second chapter identifies the oceanic and atmospheric patterns of climate variability affecting summer cropping systems in the IP. Moreover, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of maize yield variability in IP for the whole twenty century, using a calibrated crop model at five contrasting Spanish locations and reanalyses climate datasets to obtain long time series of potential yield. The study tests the use of reanalysis data for obtaining only climate dependent time series of simulated crop yield for the whole region, and to use these yield to analyze the influences of oceanic and atmospheric patterns. The results show a good reliability of reanalysis data. The spatial distribution of the leading principal component of yield variability shows a similar behaviour over all the studied locations in the IP. The strong linear correlation between El Niño index and yield is remarkable, being this relation non-stationary on time, although the air temperature-yield relationship remains on time, being the highest influences during grain filling period. Regarding atmospheric patterns, the summer Scandinavian pattern has significant influence on yield in IP. The third chapter identifies the oceanic and atmospheric patterns of climate variability affecting winter cropping systems in the IP. Also, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of rainfed wheat yield variability in IP. Climate variability is the main driver of changes in crop growth, development and yield, especially for rainfed production systems. In IP, wheat yields are strongly dependent on seasonal rainfall amount and temporal distribution of rainfall during the growing season. The major source of precipitation interannual variability in IP is the North Atlantic Oscillation (NAO) which has been related in part with changes in the Tropical Pacific (El Niño) and Atlantic (TNA) sea surface temperature (SST). The existence of some predictability has encouraged us to analyze the possible predictability of the wheat yield in the IP using SSTs anomalies as predictor. For this purpose, a crop model with a site specific calibration for the Northeast of IP and reanalysis climate datasets have been used to obtain long time series of attainable wheat yield and relate their variability with SST anomalies. The results show that El Niño and TNA influence rainfed wheat development and yield in IP and these impacts depend on the concurrent state of the NAO. Although crop-SST relationships do not equally hold on during the whole analyzed period, they can be explained by an understood and stationary ecophysiological mechanism. During the second half of the twenty century, the positive (negative) TNA index is associated to a negative (positive) phase of NAO, which exerts a positive (negative) influence on minimum temperatures (Tmin) and precipitation (Prec) during winter and, thus, yield increases (decreases) in IP. In relation to El Niño, the highest correlation takes place in the period 1981-2001. For these decades, high (low) yields are associated with an El Niño to La Niña (La Niña to El Niño) transitions or to El Niño events finishing. For these events, the regional associated atmospheric pattern resembles the NAO, which also influences directly on the maximum temperatures (Tmax) and precipitation experienced by the crop during flowering and grain filling. The co-effects of the two teleconnection patterns help to increase (decrease) the rainfall and decrease (increase) Tmax in IP, thus on increase (decrease) wheat yield. Part II. Crop forecasting The last chapter analyses the potential benefits for wheat and maize yields prediction from using seasonal climate forecasts (precipitation), and explores methods to apply such a climate forecast to crop models. Seasonal climate prediction has significant potential to contribute to the efficiency of agricultural management, and to food and livelihood security. Climate forecasts come in different forms, but probabilistic. For this purpose, two methods were evaluated and applied for disaggregating seasonal climate forecast into daily weather realizations: 1) a conditioned stochastic weather generator (predictWTD) and 2) a simple forecast probability resampler (FResampler1). The two methods were evaluated in a case study where the impacts of three scenarios of seasonal rainfall forecasts on rainfed wheat yield, on irrigation requirements and yields of maize in IP were analyzed. In addition, we estimated the economic margins and production risks associated with extreme scenarios of seasonal rainfall forecasts (dry and wet). The predWTD and FResampler1 methods used for disaggregating seasonal rainfall forecast into daily data needed by the crop simulation models provided comparable predictability. Therefore both methods seem feasible options for linking seasonal forecasts with crop simulation models for establishing yield forecasts or irrigation water requirements. The analysis of the impact on gross margin of grain prices for both crops and maize irrigation costs suggests the combination of market prices expected and the seasonal climate forecast can be a good tool in farmer’s decision-making, especially on dry forecast and/or in locations with low annual precipitation. These methodologies would allow quantifying the benefits and risks of a seasonal weather forecast to farmers in IP. Therefore, we would be able to establish early warning systems and to design crop management adaptation strategies that take advantage of favorable conditions or reduce the effect of adverse conditions. The potential usefulness of this Thesis is to apply the relationships found to crop forecasting on the next cropping season, suggesting opportunity time windows for the prediction. The methodology can be used as well for the prediction of future trends of IP yield variability. Both public (improvement of agricultural planning) and private (decision support to farmers, insurance companies) sectors may benefit from such an improvement of crop forecasting.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la literatura se ha descrito el perfil antropométrico y la respuesta psicofisiológica en escalada deportiva en roca, pero hasta la fecha, no se habían analizado las diferencias existentes entre sus principales modalidades. El objetivo de la presente tesis fue describir las características antropométricas del escalador de competición y comprobar la existencia de diferencias entre los participantes de distintas modalidades, así como analizar la respuesta psico-fisiológica durante la ejecución de un búlder y una vía, además de evaluar las diferencias entre su realización a vista o tras un ensayo. Para ello, efectuamos dos estudios diferentes: en el primero participaron voluntariamente 61 hombres y 18 mujeres, participantes en cuatro pruebas del circuito nacional de competición de escalada durante el año 2009, tres de ellas de la modalidad de dificultad a vista y una de búlder. Se realizaron mediciones antropométricas, prueba de fuerza de prensión manual antes y después de competir, y se cumplimentó un cuestionario donde se evaluaba la percepción del esfuerzo y la experiencia deportiva. En el segundo estudio, 23 escaladores, 15 hombres y 8 mujeres, divididos en tres grupos en función de su nivel de rendimiento, realizaron de manera voluntaria distintas pruebas durante tres días separados entre sí al menos 48 horas. El primer día rellenaron un cuestionario sobre su experiencia deportiva y nivel de rendimiento, fueron pesados, tallados y sometidos a un escáner de cuerpo completo en densitómetro con objeto de medir la composición corporal. El segundo día realizaron previo calentamiento, un búlder a vista y, tras un descanso de 15 minutos, escalaron una vía a vista acorde con su nivel. El tercer día, después de calentar y disponer de 20 minutos para ensayarlo, repitieron la escalada del búlder. Tras un descanso de 15 minutos y 20 minutos de ensayo, realizaron un segundo intento a la vía. Se registraron los valores en la respuesta cardiorrespiratoria, se obtuvieron muestras de lactato en sangre del lóbulo de la oreja y se realizaron pruebas de fuerza de prensión manual antes y después de la escalada. También se pasó un cuestionario para medir la ansiedad y autoconfianza así como el esfuerzo percibido. Los resultados no mostraron diferencias antropométricas significativas entre los participantes en competiciones de búlder y los que participaron en competiciones de escalada de dificultad a vista. Se dieron diferencias en la pérdida de fuerza antes y después de escalar entre dichos participantes. Las mujeres obtuvieron menor fuerza de prensión manual que los hombres pero la misma pérdida de fuerza entre el instante antes de competir y el posterior. La respuesta fisiológica durante la ejecución del búlder fue menor que la obtenida durante la ejecución de la vía. Hubo pérdida de fuerza de prensión manual entre el instante anterior y el posterior a ejecutar la vía, pero no al hacer el búlder. Sin embargo, no se dieron diferencias en la ansiedad y la autoestima provocada por ambas modalidades, por lo que deducimos que la ejecución de un búlder y una vía presentan una respuesta fisiológica distinta. Proponemos que la respuesta está relacionada, sobre todo, con las variables de ejecución, de tal manera que a mayor distancia y/o tiempo recorrido en la escalada, mayor será la contribución anaeróbica al esfuerzo y la fatiga manifestada como pérdida de fuerza que, en el caso del búlder, fue mínima o inexistente. En el segundo intento, tras un ensayo de 20 minutos en el búlder, se consiguió mejorar el rendimiento respecto al primer intento, que se manifestó con un aumento en la distancia recorrida. Sin embargo, en la vía no se dieron diferencias entre ambos intentos, ni en la ejecución, ni en la respuesta fisiológica, ni en la ansiedad, ni siquiera en la fuerza de prensión manual. ABSTRACT It has been described in the literature the anthropometric profile and psychophysiological response in rock climbing, but so far not been analyzed differences between its main modalities. The aim of this thesis was to describe the anthropometric characteristics of the climber competitor and check for differences between participants of different modalities and to analyze the psycho-physiological response during the execution of a boulder and a route also to assess differences between on sight and redpoint attempts. We made two different studies: in the first 61 men and 18 women who attended four competitions of national climbing circuit in 2009, three of them on-sight difficulty competitions and a boulder competition participated voluntarily. Anthropometric measurements, a hand grip strength test before and after competing were registered for each climber, and a questionnaire which assessed perception of effort and the climbing experience was fulfilled. In the second study, various tests were conducted on 23 volunteer climbers, 15 men and 8 women, during three days separated for, at least, 48 hours of resting, divided into three groups according to their performance. The first day, climbers completed a questionnaire on their experience and performance level. It was recorded weight, height and they underwent a full body scan densitometer in order to measure body composition. The second day, after previous warming-up, they climbed a boulder on sight and, after a break of 15 minutes, climbed a route on-sight according to their level. The third day, after warming-up and have 20 minutes to try it, they repeated the bouldering climbing. After a break of 15 minutes and 20 minutes of essaying, they made a second attempt at the route. Values in the cardiorespiratory response were recorded, blood lactate samples were obtained from earlobe, and hand grip strength was tested before and after the climb. They also filled a questionnaire to measure anxiety and self-confidence and perceived exertion. The results showed no significant anthropometric differences between participants in bouldering competitions and participants in competitions on-sight difficulty climbing. There were found differences in strength loss before and after climbing between those participants. Women had less hand grip strength than men but the same loss of strength between the records carried out before and after competing. The physiological response recorded for boulder climbing was lower than the obtained for the route. There was loss of hand grip strength between the time before and after running the route but not for bouldering. However, there were no differences in anxiety and self-esteem caused by both modalities, so we conclude that the implementation of a boulder and a route have different physiological responses. We think that this response is mainly related to performance variables, as a greater distance and/or travel time on the climb, the higher the anaerobic contribution to the effort and fatigue as manifested by loss of strength in the case of the boulder was minimal or nonexistent. In the second attempt after 20 minutes in the boulder better performance was achieved on the first attempt, which was manifested by an increment of climbing distance. However, there were the differences in the route between the two attempts, either in execution or in the physiological response, or anxiety, or even in hand grip strength.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Todas las construcciones que pueblan el jardín de Castle Howard de una forma aparentemente azarosa, colocadas siempre sobre pequeñas colinas, transmiten la sensación de ser objetos permanentemente observados, más que de ser ellos mismos lugares de observación del territorio circundante. Son más receptores de la mirada que origen de ella y esta situación es especialmente relevante en el caso del mausoleo de Hawksmoor, algo más que un pabellón o un hito en el paisaje, ya que es la culminación de un itinerario que recorre todas ellas y el contrapunto a la casa principal. El mausoleo es el edificio más habitado y también el más cualificado desde el punto de vista espacial, el más cerrado y al mismo tiempo el más vacío, el más inaccesible y el más cercano. Esta construcción circular puede ser contemplada con emoción desde la lejanía, pero también invita a aproximarse a sus límites, hasta sentir casi físicamente la vitalidad de quien habita en el interior de esa jaula de piedra, y que habitará allí para siempre recordándonos que, como afirmaba Erwin Panofsky, la muerte es el auténtico sujeto de la existencia en el paisaje arcádico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La energía transportada por el oleaje a través de los océanos (energía undimotriz) se enmarca dentro de las denominadas energías oceánicas. Su aprovechamiento para generar energía eléctrica (o ser aprovechada de alguna otra forma) es una idea reflejada ya hace más de dos siglos en una patente (1799). Desde entonces, y con especial intensidad desde los años 70, ha venido despertando el interés de instituciones ligadas al I+D+i y empresas del sector energético y tecnológico, debido principalmente a la magnitud del recurso disponible. Actualmente se puede considerar al sector en un estado precomercial, con un amplio rango de dispositivos y tecnologías en diferente grado de desarrollo en los que ninguno destaca sobre los otros (ni ha demostrado su viabilidad económica), y sin que se aprecie una tendencia a converger un único dispositivo (o un número reducido de ellos). El recurso energético que se está tratando de aprovechar, pese a compartir la característica de no-controlabilidad con otras fuentes de energía renovable como la eólica o la solar, presenta una variabilidad adicional. De esta manera, diferentes localizaciones, pese a poder presentar recursos de contenido energético similar, presentan oleajes de características muy diferentes en términos de alturas y periodos de oleaje, y en la dispersión estadística de estos valores. Esta variabilidad en el oleaje hace que cobre especial relevancia la adecuación de los dispositivos de aprovechamiento de energía undimotriz (WEC: Wave Energy Converter) a su localización, de cara a mejorar su viabilidad económica. Parece razonable suponer que, en un futuro, el proceso de diseño de un parque de generación undimotriz implique un rediseño (en base a una tecnología conocida) para cada proyecto de implantación en una nueva localización. El objetivo de esta tesis es plantear un procedimiento de dimensionado de una tecnología de aprovechamiento de la energía undimotriz concreta: los absorbedores puntuales. Dicha metodología de diseño se plantea como un problema de optimización matemático, el cual se resuelve utilizando un algoritmo de optimización bioinspirado: evolución diferencial. Este planteamiento permite automatizar la fase previa de dimensionado implementando la metodología en un código de programación. El proceso de diseño de un WEC es un problema de ingería complejo, por lo que no considera factible el planteamiento de un diseño completo mediante un único procedimiento de optimización matemático. En vez de eso, se platea el proceso de diseño en diferentes etapas, de manera que la metodología desarrollada en esta tesis se utilice para obtener las dimensiones básicas de una solución de referencia de WEC, la cual será utilizada como punto de partida para continuar con las etapas posteriores del proceso de diseño. La metodología de dimensionado previo presentada en esta tesis parte de unas condiciones de contorno de diseño definidas previamente, tales como: localización, características del sistema de generación de energía eléctrica (PTO: Power Take-Off), estrategia de extracción de energía eléctrica y concepto concreto de WEC). Utilizando un algoritmo de evolución diferencial multi-objetivo se obtiene un conjunto de soluciones factibles (de acuerdo con una ciertas restricciones técnicas y dimensionales) y óptimas (de acuerdo con una serie de funciones objetivo de pseudo-coste y pseudo-beneficio). Dicho conjunto de soluciones o dimensiones de WEC es utilizado como caso de referencia en las posteriores etapas de diseño. En el documento de la tesis se presentan dos versiones de dicha metodología con dos modelos diferentes de evaluación de las soluciones candidatas. Por un lado, se presenta un modelo en el dominio de la frecuencia que presenta importantes simplificaciones en cuanto al tratamiento del recurso del oleaje. Este procedimiento presenta una menor carga computacional pero una mayor incertidumbre en los resultados, la cual puede traducirse en trabajo adicional en las etapas posteriores del proceso de diseño. Sin embargo, el uso de esta metodología resulta conveniente para realizar análisis paramétricos previos de las condiciones de contorno, tales como la localización seleccionada. Por otro lado, la segunda metodología propuesta utiliza modelos en el domino estocástico, lo que aumenta la carga computacional, pero permite obtener resultados con menos incertidumbre e información estadística muy útil para el proceso de diseño. Por este motivo, esta metodología es más adecuada para su uso en un proceso de dimensionado completo de un WEC. La metodología desarrollada durante la tesis ha sido utilizada en un proyecto industrial de evaluación energética preliminar de una planta de energía undimotriz. En dicho proceso de evaluación, el método de dimensionado previo fue utilizado en una primera etapa, de cara a obtener un conjunto de soluciones factibles de acuerdo con una serie de restricciones técnicas básicas. La selección y refinamiento de la geometría de la solución geométrica de WEC propuesta fue realizada a posteriori (por otros participantes del proyecto) utilizando un modelo detallado en el dominio del tiempo y un modelo de evaluación económica del dispositivo. El uso de esta metodología puede ayudar a reducir las iteraciones manuales y a mejorar los resultados obtenidos en estas últimas etapas del proyecto. ABSTRACT The energy transported by ocean waves (wave energy) is framed within the so-called oceanic energies. Its use to generate electric energy (or desalinate ocean water, etc.) is an idea expressed first time in a patent two centuries ago (1799). Ever since, but specially since the 1970’s, this energy has become interesting for R&D institutions and companies related with the technological and energetic sectors mainly because of the magnitude of available energy. Nowadays the development of this technology can be considered to be in a pre-commercial stage, with a wide range of devices and technologies developed to different degrees but with none standing out nor economically viable. Nor do these technologies seem ready to converge to a single device (or a reduce number of devices). The energy resource to be exploited shares its non-controllability with other renewable energy sources such as wind and solar. However, wave energy presents an additional short-term variability due to its oscillatory nature. Thus, different locations may show waves with similar energy content but different characteristics such as wave height or wave period. This variability in ocean waves makes it very important that the devices for harnessing wave energy (WEC: Wave Energy Converter) fit closely to the characteristics of their location in order to improve their economic viability. It seems reasonable to assume that, in the future, the process of designing a wave power plant will involve a re-design (based on a well-known technology) for each implementation project in any new location. The objective of this PhD thesis is to propose a dimensioning method for a specific wave-energy-harnessing technology: point absorbers. This design methodology is presented as a mathematical optimization problem solved by using an optimization bio-inspired algorithm: differential evolution. This approach allows automating the preliminary dimensioning stage by implementing the methodology in programmed code. The design process of a WEC is a complex engineering problem, so the complete design is not feasible using a single mathematical optimization procedure. Instead, the design process is proposed in different stages, so the methodology developed in this thesis is used for the basic dimensions of a reference solution of the WEC, which would be used as a starting point for the later stages of the design process. The preliminary dimensioning methodology presented in this thesis starts from some previously defined boundary conditions such as: location, power take-off (PTO) characteristic, strategy of energy extraction and specific WEC technology. Using a differential multi-objective evolutionary algorithm produces a set of feasible solutions (according to certain technical and dimensional constraints) and optimal solutions (according to a set of pseudo-cost and pseudo-benefit objective functions). This set of solutions or WEC dimensions are used as a reference case in subsequent stages of design. In the document of this thesis, two versions of this methodology with two different models of evaluation of candidate solutions are presented. On the one hand, a model in the frequency domain that has significant simplifications in the treatment of the wave resource is presented. This method implies a lower computational load but increased uncertainty in the results, which may lead to additional work in the later stages of the design process. However, use of this methodology is useful in order to perform previous parametric analysis of boundary conditions such as the selected location. On the other hand, the second method uses stochastic models, increasing the computational load, but providing results with smaller uncertainty and very useful statistical information for the design process. Therefore, this method is more suitable to be used in a detail design process for full dimensioning of the WEC. The methodology developed throughout the thesis has been used in an industrial project for preliminary energetic assessment of a wave energy power plant. In this assessment process, the method of previous dimensioning was used in the first stage, in order to obtain a set of feasible solutions according to a set of basic technical constraints. The geometry of the WEC was refined and selected subsequently (by other project participants) using a detailed model in the time domain and a model of economic evaluation of the device. Using this methodology can help to reduce the number of design iterations and to improve the results obtained in the last stages of the project.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El autor de este proyecto es miembro reciente de la asociación SoloBoulder, dedicada a la modalidad de escalada boulder, noticias y actualidad, contenido multimedia, promoción de un equipo de escaladores y defensa de valores medioambientales en la montaña. El principal canal de distribución de contenidos es una página web existente previa a este proyecto. La asociación ha detectado una escasez y mala calidad de recursos en internet en cuanto a guías de zonas donde poder practicar el boulder. Tal circunstancia impulsa la iniciativa de este proyecto fin de carrera. El objetivo general es el desarrollo de una nueva aplicación que proporcione a los usuarios a nivel mundial una guía interactiva de boulder y otros puntos de interés, una red social que permita la creación cooperativa y orgánica de contenido, y servicios web para el consumo de la información desde otras plataformas u organizaciones. El nuevo software desarrollado es independiente de la página web de SoloBoulder previa. No obstante, ambas partes se integran bajo el mismo domino web y aspecto. La nueva aplicación ofrece a escaladores y turistas un servicio informativo e interactivo de calidad, con el que se espera aumentar el número de visitas en todo el sitio web y poder ampliar la difusión de valores medioambientales, diversificar las zonas de boulder y regular las masificadas, favorecer el deporte y brindar al escalador una oportunidad de autopromoción personal. Una gran motivación para el autor también es el proceso de investigación y formación en tecnologías, patrones arquitecturales de diseño y metodologías de trabajo adaptadas a las tendencias actuales en la ingeniería de software, con especial curiosidad hacia el mundo web. A este respecto podemos destacar: metodología de trabajo en proyectos, análisis de proyectos, arquitecturas de software, diseño de software, bases de datos, programación y buenas prácticas, seguridad, interfaz gráfica web, diseño gráfico, Web Performance Optimization, Search Engine Optimization, etc. En resumen, este proyecto constituye un aprendizaje y puesta en práctica de diversos conocimientos adquiridos durante la ejecución del mismo, así como afianzamiento de materias estudiadas en la carrera. Además, el producto desarrollado ofrece un servicio de calidad a los usuarios y favorece el deporte y la autopromoción del escalador. ABSTRACT. The author of this Project is recent member of the association SoloBoulder, dedicated to a rock climbing discipline called bouldering, news, multimedia content, promotion of a team of climbers and defense of environmental values in the mountain. The main content distribution channel is a web page existing previous to this project. The association has detected scarcity and bad quality of resources on the internet about guides of bouldering areas. This circumstance motivates the initiative of this project. The general objective is the development of a new application which provides a worldwide, interactive bouldering guide, including other points of interest, a social network which allows the cooperative and organic creation of content, and web services for consumption of information from other platforms or organizations. The new software developed is independent of the previous SoloBoulder web page. However, both parts are integrated under the same domain and appearance. The new application offers to climbers and tourists a quality informative and interactive service, with which we hope to increase the number of visits in the whole web site and be able to expand the dissemination of environmental values, diversify boulder areas and regulate the overcrowded ones, encourage sport and offer to the climber an opportunity of self-promotion. A strong motivation for the author is also the process of investigation and education in technologies, architectural design patterns and working methodologies adapted to the actual trends in software engineering, with special curiosity about the web world. In this regard we could highlight: project working methodologies, project analysis, software architectures, software design, data bases, programming and good practices, security, graphic web interface, graphic design, Web Performance Optimization, Search Engine Optimization, etc. To sum up, this project constitutes learning and practice of diverse knowledge acquired during its execution, as well as consolidation of subjects studied in the degree. In addition, the product developed offers a quality service to the users and favors the sport and the selfpromotion of the climber.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hasta hace poco tiempo, la escalada estaba muy vinculada al montañismo y no se concebía la posibilidad de desarrollar métodos y formas de entrenamiento más allá de la propia actividad. Es la aparición de la escalada deportiva lo que permite una visión más relacionada con el deporte, visión que se afianza con la aparición de las competiciones a finales de los años ochenta. A partir de entonces se puede hablar de entrenamiento para escalada. Este entrenamiento se basa en el desarrollo de las capacidades físicas a nivel específico para la mejora del rendimiento. Un escalador debe entrenar en gran porcentaje la fuerza, la resistencia y la flexibilidad sobre el rocódromo para que la ganancia en estas capacidades sea de la forma más específica posible y transferible al gesto competitivo. Otras formas de entrenar, como el aeróbico general o la musculación se ven como trabajo complementario. Según el tipo de escalada deberán desarrollarse distintos tipos de fuerza y de resistencia, aunque todos los tipos deben trabajarse en el proceso de entrenamiento. En la competición de dificultad, las vías energéticas predominantes son las anaeróbica láctica (tolerancia al lactato) y la aeróbica (potencia). El proceso de entrenamiento debe tender al desarrollo de estas, como al desarrollo de la fuerza específica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um sistema neural modular, que processa separadamente informações de contexto espacial e temporal, para a tarefa de reprodução de sequências temporais. Para o desenvolvimento do sistema neural foram considerados redes neurais recorrentes, modelos estocásticos, sistemas neurais modulares e processamento de informações de contexto. Em seguida, foram estudados três modelos com abordagens distintas para aprendizagem de seqüências temporais: uma rede neural parcialmente recorrente, um exemplo de sistema neural modular e um modelo estocástico utilizando a teoria de modelos markovianos escondidos. Com base nos estudos e modelos apresentados, esta pesquisa propõe um sistema formado por dois módulos sucessivos distintos. Uma rede de propagação direta (módulo estimador de contexto espacial) realiza o processamento de contexto espacial identificando a seqüência a ser reproduzida e fornecendo um protótipo do contexto para o segundo módulo. Este é formado por uma rede parcialmente recorrente (módulo de reprodução de sequências temporais) para aprender as informações de contexto temporal e reproduzir em suas saídas a seqüência identificada pelo módulo anterior. Para a finalidade mencionada, este mestrado utiliza a distribuição de Gibbs na saída do módulo para contexto espacial de forma que este forneça probabilidades de contexto espacial, indicando o grau de certeza do módulo e possibilitando a utilização de procedimentos especiais para os casos de dúvida. O sistema neural foi testado em conjuntos contendo trajetórias abertas, fechadas, e com diferentes situações de ambigüidade e complexidade. Duas situações distintas foram avaliadas: (a) capacidade do sistema em reproduzir trajetórias a partir de pontos iniciais treinados; e (b) capacidade de generalização do sistema reproduzindo trajetórias considerando pontos iniciais ou finais em situações não treinadas. A situação (b) é um problema de difícil ) solução em redes neurais devido à falta de contexto temporal, essencial na reprodução de seqüências. Foram realizados experimentos comparando o desempenho do sistema modular proposto com o de uma rede parcialmente recorrente operando sozinha e um sistema modular neural (TOTEM). Os resultados sugerem que o sistema proposto apresentou uma capacidade de generalização significamente melhor, sem que houvesse uma deterioração na capacidade de reproduzir seqüências treinadas. Esses resultados foram obtidos em sistema mais simples que o TOTEM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta as propriedades morfológicas, físicas e químicas do diamante da região do Alto Araguaia, situada na borda norte da Bacia do Paraná. Os cristais estudados provém dos garimpos dos rios Garças, Araguaia, Caiapó e seus tributários menores. As dimensões dos cristais embora variáveis concentram-se no intervalo 2-15 mm. Ao contrário do que se observa no Alto Paranaíba, são raros os achados de grande porte. Os fragmentos de clivagem são abundantes, indicando transporte prolongado. Cerca de metade dos indivíduos cristalinos são incolores, sendo os demais castanhos, amarelos, verdes e cinzas. Outras cores como rosa e violeta ocorrem excepcionalmente. A morfologia dos cristais é complexa e variada, caracterizando-se pelo acentuado predomínio do hábito rombododecaédrico, grande número de geminados de contato e ausência de formas cúbicas. As faces exibem grau variável de curvatura e diversos padrões de microestruturas resultantes da dissolução provocada por agentes oxidantes. O ataque parece ocorrer durante a colocação do kimberlito, quando o alívio de pressão eleva a temperatura favorecendo a corrosão. As microestruturas mais freqüentes são degraus, colinas e micro-discos em (110), depressões triangulares eqüiláteras em (111), e depressões quadráticas em (100). Alguns diamantes contém inclusões cristalinas, sendo as mais comuns olivina (forsterita), granada (piropo) e o próprio diamante. Esses minerais apresentam-se geralmente idiomorfos e circundados por anomalias ópticas (birrefringência anômala), evidenciando o caráter epigenético dessas inclusões. Anàlogamente ao que ocorre nos kimberlitos africanos e siberianos, essas inclusões são minerais característicos de altas pressões e temperaturas, sendo a olivina a variedade mais freqüente, seguida pelo diamante e granada. Essa é uma evidência de que o diamante do Alto Araguaia provém de matrizes ultrabásicas (kimberlíticas). As inclusões negras (carvões) são extremamente comuns e parecem constituir defeitos do retículo cristalino (clivagens internas, deslocamentos estruturais), resultando talvez de impactos sofridos pelos cristais durante as diversas fases de transporte. O comportamento ao infravermelho indica que a maior parte dos cristais (85%) contém impurezas de nitrogênio (tipo I), sob forma de placas submicroscópicas paralelas a (100) (tipo Ia), ou átomos dispersos no retículo cristalino (tipo Ib). Os espécimes desprovidos de nitrogênio (tipo II) são relativamente raros (6%), sendo os demais intermediários (9%) entre I e II. Além do nitrogênio, os espectros infravermelhos revelaram que alguns diamantes contém hidrogênio. A presença deste elemento juntamente com o carbono e nitrogênio, sugere uma derivação a partir de sedimentos ricos em matéria orgânica, os quais teriam sido incorporados ao magma kimberlítico por correntes de convecção subcrostais. Outras impurezas menores (elementos traços) são: Al, Ca, Si, Mg, Fe, Cu, Cr e Co. Estes elementos são os mesmos encontrados nos diamantes dos kimberlitos africanos. Observado sob luz ultravioleta, 36% dos cristais exibem cores de fluorescência, sendo as mais comuns o azul e verde, e mais raramente amarelo e castanho. Entre as variedades fluorescentes, 27% são também fosforescentes, sendo a cor mais comum o azul. Não foi observada nenhuma relação entre o comportamento luminescente e as demais propriedades estudadas. O peso específico varia entre 3,500 a 3,530. As principais causas dessa variação são as impurezas de nitrogênio, as inclusões minerais e alguns defeitos cristalinos. Os resultados desta pesquisa indicam claramente que as propriedades do diamante do Alto araguaia são semelhantes às dos diamantes africanos e siberianos, originários de matrizes kimberlíticas. Nenhum dado foi obtido que sugerisse uma origem \"sui generis\" para o material estudado. Em relação à localização das possíveis chaminés dispersoras dos cristais, duas alternativas se apresentam: 1) poderiam estar relacionadas ao magmatismo Neocretáceo, responsável por numerosos focos vulcânicos próximos à área; ou 2) ligadas a episódios mais antigos ocorridos no Pré-Cambriano. Em qualquer das alternativas, poderiam estar recobertas por sedimentos mais recentes ou alteradas superficialmente, sendo que, no caso de uma idade pré-cambriana, há ainda a possibilidade destas matrizes terem sido totalmente destruídas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A condutividade hidráulica (K) é um dos parâmetros controladores da magnitude da velocidade da água subterrânea, e consequentemente, é um dos mais importantes parâmetros que afetam o fluxo subterrâneo e o transporte de solutos, sendo de suma importância o conhecimento da distribuição de K. Esse trabalho visa estimar valores de condutividade hidráulica em duas áreas distintas, uma no Sistema Aquífero Guarani (SAG) e outra no Sistema Aquífero Bauru (SAB) por meio de três técnicas geoestatísticas: krigagem ordinária, cokrigagem e simulação condicional por bandas rotativas. Para aumentar a base de dados de valores de K, há um tratamento estatístico dos dados conhecidos. O método de interpolação matemática (krigagem ordinária) e o estocástico (simulação condicional por bandas rotativas) são aplicados para estimar os valores de K diretamente, enquanto que os métodos de krigagem ordinária combinada com regressão linear e cokrigagem permitem incorporar valores de capacidade específica (Q/s) como variável secundária. Adicionalmente, a cada método geoestatístico foi aplicada a técnica de desagrupamento por célula para comparar a sua capacidade de melhorar a performance dos métodos, o que pode ser avaliado por meio da validação cruzada. Os resultados dessas abordagens geoestatísticas indicam que os métodos de simulação condicional por bandas rotativas com a técnica de desagrupamento e de krigagem ordinária combinada com regressão linear sem a técnica de desagrupamento são os mais adequados para as áreas do SAG (rho=0.55) e do SAB (rho=0.44), respectivamente. O tratamento estatístico e a técnica de desagrupamento usados nesse trabalho revelaram-se úteis ferramentas auxiliares para os métodos geoestatísticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, deriva-se uma política de escolha ótima baseada na análise de média-variância para o Erro de Rastreamento no cenário Multi-período - ERM -. Referindo-se ao ERM como a diferença entre o capital acumulado pela carteira escolhida e o acumulado pela carteira de um benchmark. Assim, foi aplicada a metodologia abordada por Li-Ng em [24] para a solução analítica, obtendo-se dessa maneira uma generalização do caso uniperíodo introduzido por Roll em [38]. Em seguida, selecionou-se um portfólio do mercado de ações brasileiro baseado no fator de orrelação, e adotou-se como benchmark o índice da bolsa de valores do estado de São Paulo IBOVESPA, além da taxa básica de juros SELIC como ativo de renda fixa. Dois casos foram abordados: carteira composta somente de ativos de risco, caso I, e carteira com um ativo sem risco indexado à SELIC - e ativos do caso I (caso II).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho propomos o uso de um método Bayesiano para estimar o parâmetro de memória de um processo estocástico com memória longa quando sua função de verossimilhança é intratável ou não está disponível. Esta abordagem fornece uma aproximação para a distribuição a posteriori sobre a memória e outros parâmetros e é baseada numa aplicação simples do método conhecido como computação Bayesiana aproximada (ABC). Alguns estimadores populares para o parâmetro de memória serão revisados e comparados com esta abordagem. O emprego de nossa proposta viabiliza a solução de problemas complexos sob o ponto de vista Bayesiano e, embora aproximativa, possui um desempenho muito satisfatório quando comparada com métodos clássicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Reatores tubulares de polimerização podem apresentar um perfil de velocidade bastante distorcido. Partindo desta observação, um modelo estocástico baseado no modelo de dispersão axial foi proposto para a representação matemática da fluidodinâmica de um reator tubular para produção de poliestireno. A equação diferencial foi obtida inserindo a aleatoriedade no parâmetro de dispersão, resultando na adição de um termo estocástico ao modelo capaz de simular as oscilações observadas experimentalmente. A equação diferencial estocástica foi discretizada e resolvida pelo método Euler-Maruyama de forma satisfatória. Uma função estimadora foi desenvolvida para a obtenção do parâmetro do termo estocástico e o parâmetro do termo determinístico foi calculado pelo método dos mínimos quadrados. Uma análise de convergência foi conduzida para determinar o número de elementos da discretização e o modelo foi validado através da comparação de trajetórias e de intervalos de confiança computacionais com dados experimentais. O resultado obtido foi satisfatório, o que auxilia na compreensão do comportamento fluidodinâmico complexo do reator estudado.