951 resultados para error-location number


Relevância:

30.00% 30.00%

Publicador:

Resumo:

tWatercore distribution inside apple fruit (block or radial), and its incidence (% of tissue) were relatedto the effect of solar radiation inside the canopy as measured by a set of low-cost irradiation sensors.221 samples were harvested in two seasons from the top and the bottom of the canopy and submittedto the non-invasive and non-destructive technique of magnetic resonance imaging (MRI) in order toobtain 20 inner tomography slices from each fruit and analyze the damaged areas using an interactive3D segmentation method. The number of fruit corresponding to each type of damage and the relevantpercentage were calculated and it was found that apples from the top of the tree were mainly of the radialtype (84%) and had more watercore (approx. 5% more) than apples from the bottom (65% radial). From theimage segmentation, the Euler number, a morphometric parameter, was extracted from the segmentedimages and related to the type of watercore symptoms. Apples with block watercore were grouped inEuler numbers between −400 and 400 with a small evolution. For apples with radial development, theEuler number was highly negative: up to −1439. Significant differences were also found regarding sugarcomposition, with higher fructose and total sugar contents in apples from the upper canopy, compared tothose in the lower canopy location. In the seasons studied (2011 and 2012), significantly higher sorbitoland lower sucrose and fructose contents were found in watercore-affected tissue compared to the healthytissue of affected apples and also compared to healthy apples.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo presenta un estudio sobre el funcionamiento y aplicaciones de las células de combustible de membrana tipo PEM, o de intercambio de protones, alimentadas con hidrógeno puro y oxigeno obtenido de aire comprimido. Una vez evaluado el proceso de dichas células y las variables que intervienen en el mismo, como presión, humedad y temperatura, se presenta una variedad de métodos para la instrumentación de tales variables así como métodos y sistemas para la estabilidad y control de las mismas, en torno a los valores óptimos para una mayor eficacia en el proceso. Tomando como variable principal a controlar la temperatura del proceso, y exponiendo los valores concretos en torno a 80 grados centígrados entre los que debe situarse, es realizado un modelo del proceso de calentamiento y evolución de la temperatura en función de la potencia del calentador resistivo en el dominio de la frecuencia compleja, y a su vez implementado un sistema de medición mediante sensores termopar de tipo K de respuesta casi lineal. La señal medida por los sensores es amplificada de manera diferencial mediante amplificadores de instrumentación INA2126, y es desarrollado un algoritmo de corrección de error de unión fría (error producido por la inclusión de nuevos metales del conector en el efecto termopar). Son incluidos los datos de test referentes al sistema de medición de temperatura , incluyendo las desviaciones o error respecto a los valores ideales de medida. Para la adquisición de datos y implementación de algoritmos de control, es utilizado un PC con el software Labview de National Instruments, que permite una programación intuitiva, versátil y visual, y poder realizar interfaces de usuario gráficas simples. La conexión entre el hardware de instrumentación y control de la célula y el PC se realiza mediante un interface de adquisición de datos USB NI 6800 que cuenta con un amplio número de salidas y entradas analógicas. Una vez digitalizadas las muestras de la señal medida, y corregido el error de unión fría anteriormente apuntado, es implementado en dicho software un controlador de tipo PID ( proporcional-integral-derivativo) , que se presenta como uno de los métodos más adecuados por su simplicidad de programación y su eficacia para el control de este tipo de variables. Para la evaluación del comportamiento del sistema son expuestas simulaciones mediante el software Matlab y Simulink determinando por tanto las mejores estrategias para desarrollar el control PID, así como los posibles resultados del proceso. En cuanto al sistema de calentamiento de los fluidos, es empleado un elemento resistor calentador, cuya potencia es controlada mediante un circuito electrónico compuesto por un detector de cruce por cero de la onda AC de alimentación y un sistema formado por un elemento TRIAC y su circuito de accionamiento. De manera análoga se expone el sistema de instrumentación para la presión de los gases en el circuito, variable que oscila en valores próximos a 3 atmosferas, para ello es empleado un sensor de presión con salida en corriente mediante bucle 4-20 mA, y un convertidor simple corriente a tensión para la entrada al sistema de adquisición de datos. Consecuentemente se presenta el esquema y componentes necesarios para la canalización, calentamiento y humidificación de los gases empleados en el proceso así como la situación de los sensores y actuadores. Por último el trabajo expone la relación de algoritmos desarrollados y un apéndice con información relativa al software Labview. ABTRACT This document presents a study about the operation and applications of PEM fuel cells (Proton exchange membrane fuel cells), fed with pure hydrogen and oxygen obtained from compressed air. Having evaluated the process of these cells and the variables involved on it, such as pressure, humidity and temperature, there is a variety of methods for implementing their control and to set up them around optimal values for greater efficiency in the process. Taking as primary process variable the temperature, and exposing its correct values around 80 degrees centigrade, between which must be placed, is carried out a model of the heating process and the temperature evolution related with the resistive heater power on the complex frequency domain, and is implemented a measuring system with thermocouple sensor type K performing a almost linear response. The differential signal measured by the sensor is amplified through INA2126 instrumentation amplifiers, and is developed a cold junction error correction algorithm (error produced by the inclusion of additional metals of connectors on the thermocouple effect). Data from the test concerning the temperature measurement system are included , including deviations or error regarding the ideal values of measurement. For data acquisition and implementation of control algorithms, is used a PC with LabVIEW software from National Instruments, which makes programming intuitive, versatile, visual, and useful to perform simple user interfaces. The connection between the instrumentation and control hardware of the cell and the PC interface is via a USB data acquisition NI 6800 that has a large number of analog inputs and outputs. Once stored the samples of the measured signal, and correct the error noted above junction, is implemented a software controller PID (proportional-integral-derivative), which is presented as one of the best methods for their programming simplicity and effectiveness for the control of such variables. To evaluate the performance of the system are presented simulations using Matlab and Simulink software thereby determining the best strategies to develop PID control, and possible outcomes of the process. As fluid heating system, is employed a heater resistor element whose power is controlled by an electronic circuit comprising a zero crossing detector of the AC power wave and a system consisting of a Triac and its drive circuit. As made with temperature variable it is developed an instrumentation system for gas pressure in the circuit, variable ranging in values around 3 atmospheres, it is employed a pressure sensor with a current output via 4-20 mA loop, and a single current to voltage converter to adequate the input to the data acquisition system. Consequently is developed the scheme and components needed for circulation, heating and humidification of the gases used in the process as well as the location of sensors and actuators. Finally the document presents the list of algorithms and an appendix with information about Labview software.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El propósito de este proyecto de fin de Grado es el estudio y desarrollo de una aplicación basada en Android que proporcionará soporte y atención a los servicios de transporte público existentes en Cracovia, Polonia. La principal funcionalidad del sistema será consultar la posición de un determinado autobús o tranvía y mostrar su ubicación con exactitud. Para lograr esto, necesitaremos tres fases de desarrollo. En primer lugar, deberemos implementar un sistema que obtenga las coordenadas geográficas de los vehículos de transporte público en cada instante. A continuación, tendremos que registrar todos estos datos y almacenarlos en una base de datos en un servidor web. Por último, desarrollaremos un sistema cliente que realice consultas a tiempo real sobre estos datos almacenados, obteniendo la posición para una línea determinada y mostrando su ubicación con un marcador en el mapa. Para hacer el seguimiento de los vehículos, sería necesario tener acceso a una API pública que nos proporcionase la posición registrada por los GPS que integran cada uno de ellos. Como esta API no existe actualmente para los servicios de autobús, y para los tranvías es de uso meramente privado, desarrollaremos una segunda aplicación en Android que hará las funciones del lado servidor. En ella podremos elegir mediante una simple interfaz el número de línea y un código específico que identificará a cada vehículo en particular (e.g. podemos tener 6 tranvías recorriendo la red al mismo tiempo para la línea 24). Esta aplicación obtendrá las coordenadas geográficas del teléfono móvil, lo cual incluye latitud, longitud y orientación a través del proveedor GPS. De este modo, podremos realizar una simulación de como el sistema funcionará a tiempo real utilizando la aplicación servidora desde dentro de un tranvía o autobús y, al mismo tiempo, utilizando la aplicación cliente haciendo peticiones para mostrar la información de dicho tranvía. El cliente, además, podrá consultar la ruta de cualquier línea sin necesidad de tener acceso a Internet. Almacenaremos las rutas y paradas de cada línea en la memoria del teléfono móvil utilizando ficheros XML debido al poco espacio que ocupan y a lo útil que resulta poder consultar un trayecto en cualquier momento, independientemente del acceso a la red. El usuario también podrá consultar las tablas de horarios oficiales para cada línea. Aunque en este caso si será necesaria una conexión a Internet debido a que se realizará a través de la web oficial de MPK. Para almacenar todas las coordenadas de cada vehículo en cada instante necesitaremos crear una base de datos en un servidor. Esto se resolverá mediante el uso de MYSQL y PHP. Se enviarán peticiones de tipo GET y POST a los servicios PHP que se encargarán de traducir y realizar la consulta correspondiente a la base de datos MYSQL. Por último, gracias a todos los datos recogidos relativos a la posición de los vehículos de transporte público, podremos realizar algunas tareas de análisis. Comparando la hora exacta a la que los vehículos pasaron por cada parada y la hora a la que deberían haber pasado según los horarios oficiales, podremos descubrir fallos en estos. Seremos capaces de determinar si es un error puntual debido a factores externos (atascos, averías,…) o si por el contrario, es algo que ocurre muy a menudo y se debería corregir el horario oficial. ABSTRACT The aim of this final Project (for University) is to develop an Android application thatwill provide support and feedback to the public transport services in Krakow. The main functionality of the system will be to track the position of a desired bus or tram line, and display its position on the map. To achieve this, we will need 3 stages: the first one will be to implement a system that sends the geographical position of the public transport vehicles, the second one will be to collect this data in a web server, and the last one will be to get the last location registered for the desired line and display it on the map. For tracking the vehicles, we would need to have access to a public API that should be connected with each bus/tram GPS. As this doesn’t exist in Krakow or at least is not available for public use, we will develop a second android application that will do the server side job. We will be able to choose in a simple interface the line number and a code letter to identify each vehicle (e.g. we can have 6 trams that belong to the line number 24 working at the same time). It will take the current mobile geolocation; this includes getting latitude, longitude and bearing from the GPS provider. Thus, we will be able to make a simulation of how the system works in real time by using the server app inside a tram and at the same time, using the client app and making requests to display the information of that tram. The client will also be able to check the path of the desired line without internet access. We will store the path and stops for each line locally in the phone memory using xml files due to the few requirements of available space it needs and the usefulness of checking a path when needed. This app will also offer the functionality of checking the timetable for the line, but in this case, it will link to the official Mpk website, so Internet access will be required. For storing all the coordinates for each vehicle at every moment we will need to create a database on a server. We have decided that the easiest way is to use Mysql and PHP for the deployment of the service. We will send GET and POST requests to the php files and those files will make the according queries to our database. Finally, based on all the collected data, we will be able to get some information about errors in the system of public transport timetables. We will check at what time a line was in each specific stop and compare it with the official timetable to find mistakes of time. We will determine if it is something that happens occasionally and related to external factors (e.g. traffic jams, breakdowns…) or if on the other hand, it is something that happens very often and the public transport timetables should be looked over and corrected.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Locating stator-winding ground faults accurately is a very difficult task. In this paper the grounding circuit measurements are evaluated in order to obtain information about the stator ground-fault location in synchronous generators. In power generators grounded through a high impedance, the relation between the neutral voltage and the phase voltage provide a first estimation of the fault location. The location error by using this ratio depends on the fault resistance and the value of the capacitance to ground of the stator winding. However, the error added by ignoring the value of the fault resistance is the most relevant term. This location estimation and the location error have been evaluated through the data of a real synchronous machine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, multiple regression analysis is used to model the top of descent (TOD) location of user-preferred descent trajectories computed by the flight management system (FMS) on over 1000 commercial flights into Melbourne, Australia. In addition to recording TOD, the cruise altitude, final altitude, cruise Mach, descent speed, wind, and engine type were also identified for use as the independent variables in the regression analysis. Both first-order and second-order models are considered, where cross-validation, hypothesis testing, and additional analysis are used to compare models. This identifies the models that should give the smallest errors if used to predict TOD location for new data in the future. A model that is linear in TOD altitude, final altitude, descent speed, and wind gives an estimated standard deviation of 3.9 nmi for TOD location given the trajectory parame- ters, which means about 80% of predictions would have error less than 5 nmi in absolute value. This accuracy is better than demonstrated by other ground automation predictions using kinetic models. Furthermore, this approach would enable online learning of the model. Additional data or further knowledge of algorithms is necessary to conclude definitively that no second-order terms are appropriate. Possible applications of the linear model are described, including enabling arriving aircraft to fly optimized descents computed by the FMS even in congested airspace.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Determinar con buena precisión la posición en la que se encuentra un terminal móvil, cuando éste se halla inmerso en un entorno de interior (centros comerciales, edificios de oficinas, aeropuertos, estaciones, túneles, etc), es el pilar básico sobre el que se sustentan un gran número de aplicaciones y servicios. Muchos de esos servicios se encuentran ya disponibles en entornos de exterior, aunque los entornos de interior se prestan a otros servicios específicos para ellos. Ese número, sin embargo, podría ser significativamente mayor de lo que actualmente es, si no fuera necesaria una costosa infraestructura para llevar a cabo el posicionamiento con la precisión adecuada a cada uno de los hipotéticos servicios. O, igualmente, si la citada infraestructura pudiera tener otros usos distintos, además del relacionado con el posicionamiento. La usabilidad de la misma infraestructura para otros fines distintos ofrecería la oportunidad de que la misma estuviera ya presente en las diferentes localizaciones, porque ha sido previamente desplegada para esos otros usos; o bien facilitaría su despliegue, porque el coste de esa operación ofreciera un mayor retorno de usabilidad para quien lo realiza. Las tecnologías inalámbricas de comunicaciones basadas en radiofrecuencia, ya en uso para las comunicaciones de voz y datos (móviles, WLAN, etc), cumplen el requisito anteriormente indicado y, por tanto, facilitarían el crecimiento de las aplicaciones y servicios basados en el posicionamiento, en el caso de poderse emplear para ello. Sin embargo, determinar la posición con el nivel de precisión adecuado mediante el uso de estas tecnologías, es un importante reto hoy en día. El presente trabajo pretende aportar avances significativos en este campo. A lo largo del mismo se llevará a cabo, en primer lugar, un estudio de los principales algoritmos y técnicas auxiliares de posicionamiento aplicables en entornos de interior. La revisión se centrará en aquellos que sean aptos tanto para tecnologías móviles de última generación como para entornos WLAN. Con ello, se pretende poner de relieve las ventajas e inconvenientes de cada uno de estos algoritmos, teniendo como motivación final su aplicabilidad tanto al mundo de las redes móviles 3G y 4G (en especial a las femtoceldas y small-cells LTE) como al indicado entorno WLAN; y teniendo siempre presente que el objetivo último es que vayan a ser usados en interiores. La principal conclusión de esa revisión es que las técnicas de triangulación, comúnmente empleadas para realizar la localización en entornos de exterior, se muestran inútiles en los entornos de interior, debido a efectos adversos propios de este tipo de entornos como la pérdida de visión directa o los caminos múltiples en el recorrido de la señal. Los métodos de huella radioeléctrica, más conocidos bajo el término inglés “fingerprinting”, que se basan en la comparación de los valores de potencia de señal que se están recibiendo en el momento de llevar a cabo el posicionamiento por un terminal móvil, frente a los valores registrados en un mapa radio de potencias, elaborado durante una fase inicial de calibración, aparecen como los mejores de entre los posibles para los escenarios de interior. Sin embargo, estos sistemas se ven también afectados por otros problemas, como por ejemplo los importantes trabajos a realizar para ponerlos en marcha, y la variabilidad del canal. Frente a ellos, en el presente trabajo se presentan dos contribuciones originales para mejorar los sistemas basados en los métodos fingerprinting. La primera de esas contribuciones describe un método para determinar, de manera sencilla, las características básicas del sistema a nivel del número de muestras necesarias para crear el mapa radio de la huella radioeléctrica de referencia, junto al número mínimo de emisores de radiofrecuencia que habrá que desplegar; todo ello, a partir de unos requerimientos iniciales relacionados con el error y la precisión buscados en el posicionamiento a realizar, a los que uniremos los datos correspondientes a las dimensiones y realidad física del entorno. De esa forma, se establecen unas pautas iniciales a la hora de dimensionar el sistema, y se combaten los efectos negativos que, sobre el coste o el rendimiento del sistema en su conjunto, son debidos a un despliegue ineficiente de los emisores de radiofrecuencia y de los puntos de captura de su huella. La segunda contribución incrementa la precisión resultante del sistema en tiempo real, gracias a una técnica de recalibración automática del mapa radio de potencias. Esta técnica tiene en cuenta las medidas reportadas continuamente por unos pocos puntos de referencia estáticos, estratégicamente distribuidos en el entorno, para recalcular y actualizar las potencias registradas en el mapa radio. Un beneficio adicional a nivel operativo de la citada técnica, es la prolongación del tiempo de usabilidad fiable del sistema, bajando la frecuencia en la que se requiere volver a capturar el mapa radio de potencias completo. Las mejoras anteriormente citadas serán de aplicación directa en la mejora de los mecanismos de posicionamiento en interiores basados en la infraestructura inalámbrica de comunicaciones de voz y datos. A partir de ahí, esa mejora será extensible y de aplicabilidad sobre los servicios de localización (conocimiento personal del lugar donde uno mismo se encuentra), monitorización (conocimiento por terceros del citado lugar) y seguimiento (monitorización prolongada en el tiempo), ya que todos ellas toman como base un correcto posicionamiento para un adecuado desempeño. ABSTRACT To find the position where a mobile is located with good accuracy, when it is immersed in an indoor environment (shopping centers, office buildings, airports, stations, tunnels, etc.), is the cornerstone on which a large number of applications and services are supported. Many of these services are already available in outdoor environments, although the indoor environments are suitable for other services that are specific for it. That number, however, could be significantly higher than now, if an expensive infrastructure were not required to perform the positioning service with adequate precision, for each one of the hypothetical services. Or, equally, whether that infrastructure may have other different uses beyond the ones associated with positioning. The usability of the same infrastructure for purposes other than positioning could give the opportunity of having it already available in the different locations, because it was previously deployed for these other uses; or facilitate its deployment, because the cost of that operation would offer a higher return on usability for the deployer. Wireless technologies based on radio communications, already in use for voice and data communications (mobile, WLAN, etc), meet the requirement of additional usability and, therefore, could facilitate the growth of applications and services based on positioning, in the case of being able to use it. However, determining the position with the appropriate degree of accuracy using these technologies is a major challenge today. This paper provides significant advances in this field. Along this work, a study about the main algorithms and auxiliar techniques related with indoor positioning will be initially carried out. The review will be focused in those that are suitable to be used with both last generation mobile technologies and WLAN environments. By doing this, it is tried to highlight the advantages and disadvantages of each one of these algorithms, having as final motivation their applicability both in the world of 3G and 4G mobile networks (especially in femtocells and small-cells of LTE) and in the WLAN world; and having always in mind that the final aim is to use it in indoor environments. The main conclusion of that review is that triangulation techniques, commonly used for localization in outdoor environments, are useless in indoor environments due to adverse effects of such environments as loss of sight or multipaths. Triangulation techniques used for external locations are useless due to adverse effects like the lack of line of sight or multipath. Fingerprinting methods, based on the comparison of Received Signal Strength values measured by the mobile phone with a radio map of RSSI Recorded during the calibration phase, arise as the best methods for indoor scenarios. However, these systems are also affected by other problems, for example the important load of tasks to be done to have the system ready to work, and the variability of the channel. In front of them, in this paper we present two original contributions to improve the fingerprinting methods based systems. The first one of these contributions describes a method for find, in a simple way, the basic characteristics of the system at the level of the number of samples needed to create the radio map inside the referenced fingerprint, and also by the minimum number of radio frequency emitters that are needed to be deployed; and both of them coming from some initial requirements for the system related to the error and accuracy in positioning wanted to have, which it will be joined the data corresponding to the dimensions and physical reality of the environment. Thus, some initial guidelines when dimensioning the system will be in place, and the negative effects into the cost or into the performance of the whole system, due to an inefficient deployment of the radio frequency emitters and of the radio map capture points, will be minimized. The second contribution increases the resulting accuracy of the system when working in real time, thanks to a technique of automatic recalibration of the power measurements stored in the radio map. This technique takes into account the continuous measures reported by a few static reference points, strategically distributed in the environment, to recalculate and update the measurements stored into the map radio. An additional benefit at operational level of such technique, is the extension of the reliable time of the system, decreasing the periodicity required to recapture the radio map within full measurements. The above mentioned improvements are directly applicable to improve indoor positioning mechanisms based on voice and data wireless communications infrastructure. From there, that improvement will be also extensible and applicable to location services (personal knowledge of the location where oneself is), monitoring (knowledge by other people of your location) and monitoring (prolonged monitoring over time) as all of them are based in a correct positioning for proper performance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La investigación de esta tesis se centra en el estudio de técnicas geoestadísticas y su contribución a una mayor caracterización del binomio factores climáticos-rendimiento de un cultivo agrícola. El inexorable vínculo entre la variabilidad climática y la producción agrícola cobra especial relevancia en estudios sobre el cambio climático o en la modelización de cultivos para dar respuesta a escenarios futuros de producción mundial. Es información especialmente valiosa en sistemas operacionales de monitoreo y predicción de rendimientos de cultivos Los cuales son actualmente uno de los pilares operacionales en los que se sustenta la agricultura y seguridad alimentaria mundial; ya que su objetivo final es el de proporcionar información imparcial y fiable para la regularización de mercados. Es en este contexto, donde se quiso dar un enfoque alternativo a estudios, que con distintos planteamientos, analizan la relación inter-anual clima vs producción. Así, se sustituyó la dimensión tiempo por la espacio, re-orientando el análisis estadístico de correlación interanual entre rendimiento y factores climáticos, por el estudio de la correlación inter-regional entre ambas variables. Se utilizó para ello una técnica estadística relativamente nueva y no muy aplicada en investigaciones similares, llamada regresión ponderada geográficamente (GWR, siglas en inglés de “Geographically weighted regression”). Se obtuvieron superficies continuas de las variables climáticas acumuladas en determinados periodos fenológicos, que fueron seleccionados por ser factores clave en el desarrollo vegetativo de un cultivo. Por ello, la primera parte de la tesis, consistió en un análisis exploratorio sobre comparación de Métodos de Interpolación Espacial (MIE). Partiendo de la hipótesis de que existe la variabilidad espacial de la relación entre factores climáticos y rendimiento, el objetivo principal de esta tesis, fue el de establecer en qué medida los MIE y otros métodos geoestadísticos de regresión local, pueden ayudar por un lado, a alcanzar un mayor entendimiento del binomio clima-rendimiento del trigo blando (Triticum aestivum L.) al incorporar en dicha relación el componente espacial; y por otro, a caracterizar la variación de los principales factores climáticos limitantes en el crecimiento del trigo blando, acumulados éstos en cuatro periodos fenológicos. Para lleva a cabo esto, una gran carga operacional en la investigación de la tesis consistió en homogeneizar y hacer los datos fenológicos, climáticos y estadísticas agrícolas comparables tanto a escala espacial como a escala temporal. Para España y los Bálticos se recolectaron y calcularon datos diarios de precipitación, temperatura máxima y mínima, evapotranspiración y radiación solar en las estaciones meteorológicas disponibles. Se dispuso de una serie temporal que coincidía con los mismos años recolectados en las estadísticas agrícolas, es decir, 14 años contados desde 2000 a 2013 (hasta 2011 en los Bálticos). Se superpuso la malla de información fenológica de cuadrícula 25 km con la ubicación de las estaciones meteorológicas con el fin de conocer los valores fenológicos en cada una de las estaciones disponibles. Hecho esto, para cada año de la serie temporal disponible se calcularon los valores climáticos diarios acumulados en cada uno de los cuatro periodos fenológicos seleccionados P1 (ciclo completo), P2 (emergencia-madurez), P3 (floración) y P4 (floraciónmadurez). Se calculó la superficie interpolada por el conjunto de métodos seleccionados en la comparación: técnicas deterministas convencionales, kriging ordinario y cokriging ordinario ponderado por la altitud. Seleccionados los métodos más eficaces, se calculó a nivel de provincias las variables climatológicas interpoladas. Y se realizaron las regresiones locales GWR para cuantificar, explorar y modelar las relaciones espaciales entre el rendimiento del trigo y las variables climáticas acumuladas en los cuatro periodos fenológicos. Al comparar la eficiencia de los MIE no destaca una técnica por encima del resto como la que proporcione el menor error en su predicción. Ahora bien, considerando los tres indicadores de calidad de los MIE estudiados se han identificado los métodos más efectivos. En el caso de la precipitación, es la técnica geoestadística cokriging la más idónea en la mayoría de los casos. De manera unánime, la interpolación determinista en función radial (spline regularizado) fue la técnica que mejor describía la superficie de precipitación acumulada en los cuatro periodos fenológicos. Los resultados son más heterogéneos para la evapotranspiración y radiación. Los métodos idóneos para estas se reparten entre el Inverse Distance Weighting (IDW), IDW ponderado por la altitud y el Ordinary Kriging (OK). También, se identificó que para la mayoría de los casos en que el error del Ordinary CoKriging (COK) era mayor que el del OK su eficacia es comparable a la del OK en términos de error y el requerimiento computacional de este último es mucho menor. Se pudo confirmar que existe la variabilidad espacial inter-regional entre factores climáticos y el rendimiento del trigo blando tanto en España como en los Bálticos. La herramienta estadística GWR fue capaz de reproducir esta variabilidad con un rendimiento lo suficientemente significativo como para considerarla una herramienta válida en futuros estudios. No obstante, se identificaron ciertas limitaciones en la misma respecto a la información que devuelve el programa a nivel local y que no permite desgranar todo el detalle sobre la ejecución del mismo. Los indicadores y periodos fenológicos que mejor pudieron reproducir la variabilidad espacial del rendimiento en España y Bálticos, arrojaron aún, una mayor credibilidad a los resultados obtenidos y a la eficacia del GWR, ya que estaban en línea con el conocimiento agronómico sobre el cultivo del trigo blando en sistemas agrícolas mediterráneos y norteuropeos. Así, en España, el indicador más robusto fue el balance climático hídrico Climatic Water Balance) acumulado éste, durante el periodo de crecimiento (entre la emergencia y madurez). Aunque se identificó la etapa clave de la floración como el periodo en el que las variables climáticas acumuladas proporcionaban un mayor poder explicativo del modelo GWR. Sin embargo, en los Bálticos, países donde el principal factor limitante en su agricultura es el bajo número de días de crecimiento efectivo, el indicador más efectivo fue la radiación acumulada a lo largo de todo el ciclo de crecimiento (entre la emergencia y madurez). Para el trigo en regadío no existe ninguna combinación que pueda explicar más allá del 30% de la variación del rendimiento en España. Poder demostrar que existe un comportamiento heterogéneo en la relación inter-regional entre el rendimiento y principales variables climáticas, podría contribuir a uno de los mayores desafíos a los que se enfrentan, a día de hoy, los sistemas operacionales de monitoreo y predicción de rendimientos de cultivos, y éste es el de poder reducir la escala espacial de predicción, de un nivel nacional a otro regional. ABSTRACT This thesis explores geostatistical techniques and their contribution to a better characterization of the relationship between climate factors and agricultural crop yields. The crucial link between climate variability and crop production plays a key role in climate change research as well as in crops modelling towards the future global production scenarios. This information is particularly important for monitoring and forecasting operational crop systems. These geostatistical techniques are currently one of the most fundamental operational systems on which global agriculture and food security rely on; with the final aim of providing neutral and reliable information for food market controls, thus avoiding financial speculation of nourishments of primary necessity. Within this context the present thesis aims to provide an alternative approach to the existing body of research examining the relationship between inter-annual climate and production. Therefore, the temporal dimension was replaced for the spatial dimension, re-orienting the statistical analysis of the inter-annual relationship between crops yields and climate factors to an inter-regional correlation between these two variables. Geographically weighted regression, which is a relatively new statistical technique and which has rarely been used in previous research on this topic was used in the current study. Continuous surface values of the climate accumulated variables in specific phenological periods were obtained. These specific periods were selected because they are key factors in the development of vegetative crop. Therefore, the first part of this thesis presents an exploratory analysis regarding the comparability of spatial interpolation methods (SIM) among diverse SIMs and alternative geostatistical methodologies. Given the premise that spatial variability of the relationship between climate factors and crop production exists, the primary aim of this thesis was to examine the extent to which the SIM and other geostatistical methods of local regression (which are integrated tools of the GIS software) are useful in relating crop production and climate variables. The usefulness of these methods was examined in two ways; on one hand the way this information could help to achieve higher production of the white wheat binomial (Triticum aestivum L.) by incorporating the spatial component in the examination of the above-mentioned relationship. On the other hand, the way it helps with the characterization of the key limiting climate factors of soft wheat growth which were analysed in four phenological periods. To achieve this aim, an important operational workload of this thesis consisted in the homogenization and obtention of comparable phenological and climate data, as well as agricultural statistics, which made heavy operational demands. For Spain and the Baltic countries, data on precipitation, maximum and minimum temperature, evapotranspiration and solar radiation from the available meteorological stations were gathered and calculated. A temporal serial approach was taken. These temporal series aligned with the years that agriculture statistics had previously gathered, these being 14 years from 2000 to 2013 (until 2011 for the Baltic countries). This temporal series was mapped with a phenological 25 km grid that had the location of the meteorological stations with the objective of obtaining the phenological values in each of the available stations. Following this procedure, the daily accumulated climate values for each of the four selected phenological periods were calculated; namely P1 (complete cycle), P2 (emergency-maturity), P3 (flowering) and P4 (flowering- maturity). The interpolated surface was then calculated using the set of selected methodologies for the comparison: deterministic conventional techniques, ordinary kriging and ordinary cokriging weighted by height. Once the most effective methods had been selected, the level of the interpolated climate variables was calculated. Local GWR regressions were calculated to quantify, examine and model the spatial relationships between soft wheat production and the accumulated variables in each of the four selected phenological periods. Results from the comparison among the SIMs revealed that no particular technique seems more favourable in terms of accuracy of prediction. However, when the three quality indicators of the compared SIMs are considered, some methodologies appeared to be more efficient than others. Regarding precipitation results, cokriging was the most accurate geostatistical technique for the majority of the cases. Deterministic interpolation in its radial function (controlled spline) was the most accurate technique for describing the accumulated precipitation surface in all phenological periods. However, results are more heterogeneous for the evapotranspiration and radiation methodologies. The most appropriate technique for these forecasts are the Inverse Distance Weighting (IDW), weighted IDW by height and the Ordinary Kriging (OK). Furthermore, it was found that for the majority of the cases where the Ordinary CoKriging (COK) error was larger than that of the OK, its efficacy was comparable to that of the OK in terms of error while the computational demands of the latter was much lower. The existing spatial inter-regional variability between climate factors and soft wheat production was confirmed for both Spain and the Baltic countries. The GWR statistic tool reproduced this variability with an outcome significative enough as to be considered a valid tool for future studies. Nevertheless, this tool also had some limitations with regards to the information delivered by the programme because it did not allow for a detailed break-down of its procedure. The indicators and phenological periods that best reproduced the spatial variability of yields in Spain and the Baltic countries made the results and the efficiency of the GWR statistical tool even more reliable, despite the fact that these were already aligned with the agricultural knowledge about soft wheat crop under mediterranean and northeuropean agricultural systems. Thus, for Spain, the most robust indicator was the Climatic Water Balance outcome accumulated throughout the growing period (between emergency and maturity). Although the flowering period was the phase that best explained the accumulated climate variables in the GWR model. For the Baltic countries where the main limiting agricultural factor is the number of days of effective growth, the most effective indicator was the accumulated radiation throughout the entire growing cycle (between emergency and maturity). For the irrigated soft wheat there was no combination capable of explaining above the 30% of variation of the production in Spain. The fact that the pattern of the inter-regional relationship between the crop production and key climate variables is heterogeneous within a country could contribute to one is one of the greatest challenges that the monitoring and forecasting operational systems for crop production face nowadays. The present findings suggest that the solution may lay in downscaling the spatial target scale from a national to a regional level.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo de investigación trata de aportar luz al estudio del tiempo de reacción (TR) en velocistas con y sin discapacidad auditiva desde las Ciencias del Deporte. El planteamiento del presente estudio surgió al cuestionarnos la existencia de las diferencias en cuanto al TR visual y auditivo aplicado a velocistas con y sin discapacidad auditiva, pensando en el desarrollo futuro de competiciones inclusivas entre ambos colectivos. Por ello, este estudio trata de resolver las dificultades que los velocistas con discapacidad se encuentran habitualmente en las competiciones. A priori, los atletas con discapacidad auditiva compiten en inferioridad de condiciones como consecuencia de una salida que no parece la más adecuada para ellos (desde los tacos, han de mirar hacia la pistola del juez o el movimiento de un rival). El documento se divide en tres partes. En la primera parte se realiza la pertinente revisión del marco teórico y justificación del estudio. La segunda parte se centra en los objetivos de la investigación, el material y el método, donde se muestran los resultados, discusión y conclusiones del estudio realizado, así como las limitaciones del presente trabajo y sus futuras líneas de investigación. La tercera parte corresponde a la bibliografía y la cuarta parte a los anexos. En la primera parte, presentamos el marco teórico compuesto por cinco capítulos organizan la fundamentación que hemos realizado como revisión sobre los aspectos más destacados del TR, determinado por las características de la tarea y otros factores que influyen en el TR como objeto de nuestro estudio. Después exponemos los principales aspectos estructurales y funcionales del sistema nervioso (SN) relacionados con el TR visual y auditivo. Tras ello se expone la realidad del deporte para personas con discapacidad auditiva, indagando en sus peculiaridades y criterios de elegibilidad que tiene ese colectivo dentro del ámbito deportivo. A continuación abordamos el estudio de la salida de velocidad en el atletismo, como aspecto clave que va a guiar nuestra investigación, especialmente los parámetros determinantes en la colocación de los tacos de salida para atletas con y sin discapacidad auditiva, la posición de salida y la propia colocación de los estímulos en dicha situación. Es la segunda parte se desarrolla el trabajo de investigación que tiene como objetivos estudiar los valores de TR visual simple manual, TR en salida de tacos y los tiempos de desplazamiento a los 10m y 20m de velocistas con y sin discapacidad auditiva, así como analizar las posibles diferencias en TR según posición y tipo de estímulo luminoso, respecto a ambos grupos de atletas. Como tercer objetivo de estudio se evalúa cualitativamente, por parte de los propios atletas, el dispositivo luminoso utilizado. La toma de datos de este estudio se llevó a cabo entre los meses de febrero y mayo del 2014, en el módulo de atletismo del Centro de Alto Rendimiento Joaquín Blume (Madrid), con dos grupos de estudio, uno de 9 velocistas con discapacidad auditiva (VDA), conformando éstos el 60% de toda la población en España, según el número de las licencias de la FEDS en la modalidad de atletismo (velocistas, pruebas de 100 y 200 m.l.), en el momento del estudio, y otro de 13 velocistas sin discapacidad (VsDA) que se presentaron de manera voluntaria con unos mismos criterios de inclusión para ambos grupos. Para la medición y el registro de los datos se utilizaron materiales como hoja de registro, Medidor de Tiempo de Reacción (MTR), tacos de salida, ReacTime®, dispositivo luminoso conectado a los tacos de salida, células fotoeléctricas, ordenador y software del ReacTime, y cámara de video. La metodología utilizada en este estudio fue de tipo correlacional, analizando los resultados del TR simple manual según vía sensitiva (visual y auditiva) entre los dos grupos de VDA y VsDA. También se estudiaron los TR desde la salida de tacos en función de la colocación del dispositivo luminoso (en el suelo y a 5 metros, vía visual) y pistola de salida atlética (vía auditiva) así como el tiempo de desplazamiento a los 10m (t10m) y 20m (t20m) de ambos grupos de velocistas. Finalmente, se desarrolló y llevó a cabo un cuestionario de evaluación por parte de los atletas VDA con el objetivo de conocer el grado de satisfacción después de haber realizado la serie de experimentos con el dispositivo luminoso y adaptado para sistemas de salida en la velocidad atlética. Con el objetivo de comprobar la viabilidad de la metodología descrita y probar en el contexto de análisis real el protocolo experimental, se realizó un estudio piloto con el fin de conocer las posibles diferencias del TR visual desde los tacos de salida en velocistas con discapacidad auditiva, usando para dicha salida un estímulo visual mediante un dispositivo luminoso coordinado con la señal sonora de salida (Soto-Rey, Pérez-Tejero, Rojo-González y Álvarez-Ortiz, 2015). En cuanto a los procedimientos estadísticos utilizados, con el fin de analizar la distribución de los datos y su normalidad, se aplicó la prueba de Kolmogorov-Smirnof, dicha prueba arrojó resultados de normalidad para todas las variables analizadas de las situaciones experimentales EA, EVsuelo y EV5m. Es por ello que en el presente trabajo de investigación se utilizó estadística paramétrica. Como medidas descriptivas, se calcularon el máximo, mínimo, media y la desviación estándar. En relación a las situaciones experimentales, para estudiar las posibles diferencias en las variables estudiadas dentro de cada grupo de velocistas (intragrupo) en la situación experimental 1 (MTR), se empleó una prueba T de Student para muestras independientes. En las situaciones experimentales 2, 3 y 4, para conocer las diferencias entre ambos grupos de velocistas en cada situación, se utilizó igualmente la prueba T para muestras independientes, mientras que un ANOVA simple (con post hoc Bonferroni) se utilizó para analizar las diferencias para cada grupo (VDA y VsDA) por situación experimental. Así mismo, se utilizó un ANOVA de medidas repetidas, donde el tipo de estímulo (situación experimental) fue la variable intra-grupo y el grupo de velocistas participantes (VDA y VsDA) la entre-grupo, realizándose esta prueba para evaluar en cada situación el TR, t1m0 y t20m y las interacciones entre las variables. Para el tratamiento estadístico fue utilizado el paquete estadístico SPSS 18.0 (Chicago, IL, EEUU). Los niveles de significación fueron establecidos para un ≤0.05, indicando el valor de p en cada caso. Uno de los aspectos más relevantes de este trabajo es la medición en diferentes situaciones, con instrumentación distinta y con situaciones experimentales distintas, del TR en velocistas con y sin discapacidad auditiva. Ello supuso el desarrollo de un diseño de investigación que respondió a las necesidades planteadas por los objetivos del estudio, así como el desarrollo de instrumentación específica (Rojo-Lacal, Soto-Rey, Pérez-Tejero y Rojo-González, 2014; Soto-Rey et al., 2015) y distintas situaciones experimentales que reprodujeran las condiciones de práctica y competición real de VsDA y VDA en las pruebas atléticas de velocidad, y más concretamente, en las salidas. El análisis estadístico mostró diferencias significativas entre los estímulos visuales y sonoros medidos con el MTR, siendo menor el TR ante el estímulo visual que ante el sonoro, tanto para los atletas con discapacidad auditiva como para los que no la presentaron (TR visual, 0.195 s ± 0.018 vs 0.197 s ± 0.022, p≤0.05; TR sonoro 0.230 s ± 0.016 vs 0.237 s ± 0.045, p≤0.05). Teniendo en cuenta los resultados según población objeto de estudio y situación experimental, se registraron diferencias significativas entre ambas poblaciones, VDA y VsDA, siendo más rápidos los VDA que VsDA en la situación experimental con el estímulo visual en el suelo (EVsuelo, 0.191 ±0.025 vs 0.210 ±0.025, p≤0.05, respectivamente) y los VsDA en la situación experimental con el estímulo auditivo (EA, 0.396 ±0.045 vs 0.174 ±0.021, p≤0.05), aunque sin diferencias entre ambos grupos en la situación experimental con el estímulo visual a 5m de los tacos de salida. Es de destacar que en el TR no hubo diferencias significativas entre EA para VsDA y EVsuelo para VDA. El ANOVA simple registró diferencias significativas en todas las situaciones experimentales dentro de cada grupo y para todas las variables, por lo que estadísticamente, las situaciones experimentales fueron diferentes entre sí. En relación al de ANOVA medidas repetidas, la prueba de esfericidad se mostró adecuada, existiendo diferencias significativas en las varianzas de los pares de medias: el valor de F indicó que existieron diferencias entre las diferentes situaciones experimentales en cuanto a TR, incluso cuando éstas se relacionaban con el factor discapacidad (factor interacción, p≤0,05). Por ello, queda patente que las situaciones son distintas entre sí, también teniendo en cuenta la discapacidad. El η2 (eta al cuadrado, tamaño del efecto, para la interacción) indica que el 91.7% de la variación se deben a las condiciones del estudio, y no al error (indicador de la generalización de los resultados del estudio). Por otro lado, la evaluación del dispositivo luminoso fue positiva en relación a la iluminación, comodidad de uso, ubicación, color, tamaño, adecuación del dispositivo y del equipamiento necesario para adaptar al sistema de salida. La totalidad de los atletas afirman rotundamente que el dispositivo luminoso favorecería la adaptación al sistema de salida atlética para permitir una competición inclusiva. Asimismo concluyen que el dispositivo luminoso favorecería el rendimiento o mejora de marca en la competición. La discusión de este estudio presenta justificación de las diferencias demostradas que el tipo de estímulo y su colocación son clave en el TR de esta prueba, por lo que podríamos argumentar la necesidad de contar con dispositivos luminosos para VDA a la hora de competir con VsDA en una misma prueba, inclusiva. El presente trabajo de investigación ha demostrado, aplicando el método científico, que el uso de estos dispositivos, en las condiciones técnicas y experimentales indicadas, permite el uso por parte del VDA, usando su mejor TR visual posible, que se muestra similar (ns) al TR auditivo de VsDA, lo que indica que, para competiciones inclusivas, la salida usando el semáforo (para VDA) y la salida habitual (estímulo sonoro) para VsDA, puede ser una solución equitativa en base a la evidencia demostrada en este estudio. De esta manera, y como referencia, indicar que la media de los TR de los velocistas en la final de los 100 m.l. en los Juegos Olímpicos de Londres 2012 fue de 0.162 ±0.015. De esta manera, creemos que estos parámetros sirven de referencia a técnicos deportivos, atletas y futuros trabajos de investigación. Las aplicaciones de este trabajo permitirán modificaciones y reflexiones en forma de apoyo al entrenamiento y la competición para el entrenador, o juez de salida en la competición que, creemos, es necesaria para proporcionar a este colectivo una atención adecuada en las salidas, especialmente en situaciones inclusivas de práctica. ABSTRACT This research aims to study of reaction time (RT) in sprinters with and without hearing impairment from the Sports Science perspective. The approach of this study came asking whether there were differences in the visual and auditory RT applied to sprinters with and without hearing impairment, thinking about the future development of inclusive competition between the two groups. Therefore, this study attempts to resolve the difficulties commonly founded by sprinters with hearing impairments during competitions. A priori, sprinters with hearing impairment would compete in a disadvantage situation as a result of the use of a staring signal not suitable for them (from the blocks, they have to look to the judge´s pistol or the movement of an opponent). The document is divided into three parts. In the first part of the review of relevant theoretical framework and justification of the study is presented. The second part focuses on the research objectives, material and method, where results, discussion and conclusions of the study, as well as the limitations of this study and future research are presented. The third part contains references and the fourth, annexes. In the first part, we present the theoretical framework consisting of five chapters, organizing the state of the art of RT, determined by the characteristics of the task and other factors that influence the RT as object of our study. Then we present the main structural and functional aspects of the nervous system associated with visual and auditory RT. After that, sport for people with hearing disabilities is presented, investigating its peculiarities and eligibility criteria is that group within the deaf sport. Finally, we discuss the theoretical foundation of the study of start speed in athletics as a key aspect that will guide our research, especially the determining parameters in placing the starting blocks for athletes with and without hearing impairment, the starting position and the actual placement of stimuli in such a situation. The second part of the research aims to study the values of simple manual visual RT, RT start from blocks and travel times up to 10m and 20m of sprinters with and without hearing impairment, and to analyze possible differences in RT as position and type of light stimulus with respect to both groups of athletes. The third objective of the study is to assess the pertinence of the lighting device developed and used in the study, in a qualitatively way by athletes themselves. Data collection for this study was carried out between February and May 2014, in the Athletics module at the High Performance Centre Joaquin Blume (Madrid) with the two study groups: 9 sprinters with hearing impairments(VDA, reaching 60% of the population in Spain, according to the number of licenses for athletics at FEDS: sprint, 100 and 200 m.l., at the time of the study), and another 13 sprinters without disability (VsDA) who voluntarily presented themselves, with same inclusion criteria for both groups. For measuring and data collection materials such as recording sheet, gauge reaction time (MTR), starting blocks, ReacTime®, luminous device connected to the starting blocks, photocells, computer and software ReacTime, and video camera were used. The methodology used in this study was correlational, analyzing the results of simple manual RT according sensory pathway (visual and auditory) between the two groups (VsDA and VDA). Also auditory and visual RT was studied depending the placement of the start light signal (on the ground and 5 meters, visual pathway) and athletic start gun signal (auditory pathway, conventional situation) and travel time up to 10m (t10m) and 20m (t20m) for both groups of sprinters. Finally, we developed and carried out an evaluation questionnaire for VDA athletes in order to determine the degree of satisfaction after completing the series of experiments with lighting device and adapted to start systems in athletic speed. In order to test the feasibility of the methodology described and tested in the context of real analysis of the experimental protocol, a pilot study in order to know the possible differences visual RT from the starting blocks in sprinters with hearing impairments was performed, to said output using a visual stimulus coordinated by a lighting device with sound output signal (Soto-Rey Perez-Tejero, Rojo-González y Álvarez-Ortiz, 2015). For the statistical procedures, in order to analyze the distribution of the data and their normality, Kolmogorov-Smirnov test was applied, this test yielded normal results for all variables analyzed during EA, EVsuelo and EV5m experimental situations. Parametric statistics were used in this research. As descriptive measures, the maximum, minimum, mean and standard deviation were calculated. In relation to experimental situations, to study possible differences in the variables studied in each group sprinters (intragroup) in the experimental situation 1 (MTR), a Student t test was used for independent samples. Under the experimental situations 2, 3 and 4, to know the differences between the two groups of sprinters in every situation, the T test for independent samples was used, while a simple ANOVA (with post hoc Bonferroni) was used to analyze differences for each group (VDA and VsDA) by experimental situation. Likewise, a repeated measures ANOVA, where the type of stimulus (experimental situation) was variable intra-group and participants sprinters group (VDA and VsDA) the variable between-group, was performed to assess each situation for RT, t10m and t20m, and also interactions between variables. For the statistical treatment SPSS 18.0 (Chicago, IL, USA) was used. Significance levels were set for  ≤0.05, indicating the value of p in each case. One of the most important aspects of this work is the measurement of RT in sprinters with and without hearing impairment in different situations, with different instrumentation and different experimental situations. This involved the development of a research design that responded to the needs raised by the study aims and the development of specific instrumentation (Rojo-Lacal, Soto-Rey Perez-Tejero and Rojo-Gonzalez, 2014; Soto-Rey et al., 2015) and different experimental situations to reproduce the conditions of practical and real competition VsDA and VDA in athletic sprints, and more specifically, at the start. Statistical analysis showed significant differences between the visual and sound stimuli measured by the MTR, with lower RT to the visual stimulus that for sound, both for athletes with hearing disabilities and for those without (visual RT, 0.195 s ± 0.018 s vs 0.197 ± 0.022, p≤0.05; sound RT 0.230 s ± 0.016 vs 0.237 s ± 0.045, p≤0.05). Considering the results according to study population and experimental situation, significant differences between the two populations, VDA and VsDA were found, being faster the VDA than VsDA in the experimental situation with the visual stimulus on the floor (EVsuelo, recorded 0.191 s ± 0.025 vs 0.210 s ± 0.025, p≤0.05, respectively) and VsDA in the experimental situation with the auditory stimulus (EA, 0.396 s ± 0.045 vs 0.174 s ± 0.021, p≤0.05), but no difference between groups in the experimental situation with the 5m visual stimulus to the starting blocks. It is noteworthy that no significant differences in EA and EVsuelo between VsDA to VDA, respectively, for RT. Simple ANOVA showed significant differences in all experimental situations within each group and for all variables, so statistically, the experimental situations were different. Regarding the repeated measures ANOVA, the sphericity test showed adequate, and there were significant differences in the variances of the pairs of means: the value of F indicated that there were differences between the different experimental situations regarding RT, even when they were related to the disability factor (factor interaction, p≤0.05). Therefore, it is clear that the situations were different from each other, also taking into account impairment. The η2 (eta squared, effect size, for interaction) indicates that 91.7% of the variation is due to the conditions of the study, not by error (as indicator of the generalization potential of the study results). On the other hand, evaluation of the light signal was positively related to lighting, ease of use, location, color, size, alignment device and equipment necessary to adapt the start system. All the athletes claim strongly in favor of the lighting device adaptation system to enable athletic competition inclusive. Also they concluded that light device would enhance performance or would decrease their RT during the competition. The discussion of this study justify the type of stimulus and the start light positioning as key to the RT performance, so that we could argue the need for lighting devices for VDA when competing against VsDA the same competition, inclusive. This research has demonstrated, applying the scientific method, that the use of these devices, techniques and given experimental conditions, allows the use of the VDA, using his best visual RT, shown similar (ns) auditory RT of VsDA, indicating that for inclusive competitions, the start signal using the light (for VDA) and the usual start (sound stimulus) to VsDA can be an equitable solution based on the evidence shown in this study. Thus, and as a reference, indicate that the average of the RT sprinters in the 100 m. final at the 2012 Summer Olympic Games was 0.162 s ± 0.015. Thus, we believe that these parameters become a reference to sports coaches, athletes and future research. Applications of this work will allow modifications and reflections in the form of support for training and competition for the coach, or judge, as we believe is necessary to provide adequate attention to VDA in speed starts, especially in inclusive practice situations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Escherichia coli dnaQ gene encodes the proofreading 3' exonuclease (epsilon subunit) of DNA polymerase III holoenzyme and is a critical determinant of chromosomal replication fidelity. We constructed by site-specific mutagenesis a mutant, dnaQ926, by changing two conserved amino acid residues (Asp-12-->Ala and Glu-14-->Ala) in the Exo I motif, which, by analogy to other proofreading exonucleases, is essential for the catalytic activity. When residing on a plasmid, dnaQ926 confers a strong, dominant mutator phenotype, suggesting that the protein, although deficient in exonuclease activity, still binds to the polymerase subunit (alpha subunit or dnaE gene product). When dnaQ926 was transferred to the chromosome, replacing the wild-type gene, the cells became inviable. However, viable dnaQ926 strains could be obtained if they contained one of the dnaE alleles previously characterized in our laboratory as antimutator alleles or if it carried a multicopy plasmid containing the E. coli mutL+ gene. These results suggest that loss of proofreading exonuclease activity in dnaQ926 is lethal due to excessive error rates (error catastrophe). Error catastrophe results from both the loss of proofreading and the subsequent saturation of DNA mismatch repair. The probability of lethality by excessive mutation is supported by calculations estimating the number of inactivating mutations in essential genes per chromosome replication.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the Monte Carlo simulation of both lattice field theories and of models of statistical mechanics, identities verified by exact mean values, such as Schwinger-Dyson equations, Guerra relations, Callen identities, etc., provide well-known and sensitive tests of thermalization bias as well as checks of pseudo-random-number generators. We point out that they can be further exploited as control variates to reduce statistical errors. The strategy is general, very simple, and almost costless in CPU time. The method is demonstrated in the twodimensional Ising model at criticality, where the CPU gain factor lies between 2 and 4.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We examined distribution and breeding success of semi-colonial Montagu’s Harriers (Circus pygargus) in relation to habitat in Castellón province (eastern Spain). Breeding areas used by harriers at a 1-km2 scale were characterised by having intermediate percentages of scrub cover, their nesting habitat, and also had intermediate coverage of herbaceous crops and non-irrigated orchards. Out of all habitat variables considered, only the percentage of herbaceous crops within 500 m from individual nests had a positive and significant effect on breeding output of the species, suggesting that this habitat may be efficiently used by harriers to forage. Breeding output was also related to laying date and number of breeding neighbours within 500 m around nests, with pairs laying later and having a higher number of breeding neighbours showing lower fledged brood sizes. Number of neighbours (but not laying date) was positively related to scrub cover within 500 m and to cover of herbaceous crops within 2,000 m. Conservation actions for Montagu’s Harrier in the study area should be aimed at preserving areas of scrub with nearby presence of herbaceous crops or natural grasslands. However, habitat improvement for semi-colonial species such as Montagu’s Harrier may not result in a change of species distribution area, and good habitat areas may remain unoccupied, as social factors like presence of conspecifics play an important role in breeding area selection for these species.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Commercial off-the-shelf microprocessors are the core of low-cost embedded systems due to their programmability and cost-effectiveness. Recent advances in electronic technologies have allowed remarkable improvements in their performance. However, they have also made microprocessors more susceptible to transient faults induced by radiation. These non-destructive events (soft errors), may cause a microprocessor to produce a wrong computation result or lose control of a system with catastrophic consequences. Therefore, soft error mitigation has become a compulsory requirement for an increasing number of applications, which operate from the space to the ground level. In this context, this paper uses the concept of selective hardening, which is aimed to design reduced-overhead and flexible mitigation techniques. Following this concept, a novel flexible version of the software-based fault recovery technique known as SWIFT-R is proposed. Our approach makes possible to select different registers subsets from the microprocessor register file to be protected on software. Thus, design space is enriched with a wide spectrum of new partially protected versions, which offer more flexibility to designers. This permits to find the best trade-offs between performance, code size, and fault coverage. Three case studies have been developed to show the applicability and flexibility of the proposal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This layer is a georeferenced raster image of the historic paper map entitled: Map of Cape Town (Central). It was published by Cape Peninsula Publicity Association in 1911. Scale [ca. 1:4,700]. Covers a portion of Cape Town, South Africa. The image inside the map neatline is georeferenced to the surface of the earth and fit to the Universal Transverse Mercator (UTM Zone 34S, meters, WGS 1984) projected coordinate system. All map collar and inset information is also available as part of the raster image, including any inset maps, profiles, statistical tables, directories, text, illustrations, index maps, legends, or other information associated with the principal map. This map shows features such as roads, railroads and stations, street-railroads, drainage, selected buildings and tourist attractions, parks, and more. Includes inset location map and an index to points of interest.This layer is part of a selection of digitally scanned and georeferenced historic maps from the Harvard Map Collection. These maps typically portray both natural and manmade features. The selection represents a range of originators, ground condition dates, scales, and map purposes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This layer is a georeferenced raster image of the untitled historic paper manuscript map: [Map of Poolesville, Maryland and vicinity showing the position of Union brigades]. It was sketched by Union General George Stoneman, Oct. 24th, 1862. Scale not given. Covers a portion of Montgomery County, Maryland from Poolesville to the Potomac River. The image inside the map neatline is georeferenced to the surface of the earth and fit to the Maryland State Plane Coordinate System (in Meters) (Fipszone 1900). All map collar and inset information is also available as part of the raster image, including any inset maps, profiles, statistical tables, directories, text, illustrations, or other information associated with the principal map. This map shows features such as roads, towns and villages, drainage, troop location, and more. This layer is part of a selection of digitally scanned and georeferenced historic maps of the Civil War from the Harvard Map Collection. Many items from this selection are from a collection of maps deposited by the Military Order of the Loyal Legion of the United States Commandery of the State of Massachusetts (MOLLUS) in the Harvard Map Collection in 1938. These maps typically portray both natural and manmade features, in particular showing places of military importance. The selection represents a range of regions, originators, ground condition dates, scales, and purposes.