540 resultados para supervisión
Resumo:
Una red inalámbrica de sensores (Wireless Sensor Network, WSN) constituye un sistema de comunicación de datos flexible utilizado como alternativa a las redes cableadas o como extensión de éstas. Una de las aplicaciones de estas redes es para su uso en sistemas de predicción y prevención de incendios en áreas naturales. Su implementación se basa en el despliegue de sensores inalámbricos, realizado en una zona de riesgo de incendio que puedan recolectar información tal como temperatura, humedad y presión. Desde una estación base (o nodo "sumidero"), se suministra la información de los sensores a un centro de monitorización y control de forma estructurada. En estos centros la información recibida puede ser analizada, procesada y visualizada en tiempo real. Desde este centro de control se puede controlar también la red WSN modificando el comportamiento de los sensores según el nivel de riesgo de incendio detectado. Este proyecto se basa en el diseño, desarrollo e implementación de un Sistema de Control y Visualización de Información sobre Riesgo de Incendio (SCVIRI), que implementa las funciones de los centros de monitorización y control. La implementación de este sistema, junto con el desarrollado, en paralelo, de otro proyecto denominado Sistema de Estimación de Riesgo de Incendio Utilizando una WSN (SERIUW) que implementa la emulación de la red WSN, conforman un sistema general de anticipación y seguimiento de Fuegos. Se han realizado pruebas de funcionalidad y eficacia, incluidas en la presente memoria del sistema general (ambos proyectos), en un entorno controlado simulado. Este sistema es una solución para la lucha contra los incendios forestales ya que predice y previene, de forma temprana, posibles incendios en las áreas naturales bajo supervisión. Ante un evento de incendio declarado este sistema es un poderoso instrumento de apoyo permitiendo, por un lado, generar alertas automáticas (con localización y gravedad de fuegos detectados) y por el otro, hacer un seguimiento del incendio con mapas en tiempo real (con su consecuente apoyo para la protección e información con las brigadas de bomberos en las zonas activas). ABSTRACT. A wireless sensor network (WSN) is a flexible data communication system used as an alternative to wired networks or as an extension of them. One possible application of these networks is related to fire prediction and prevention in natural areas. Its implementation is based on a deployment of wireless sensors, in an area with high or moderate fire risk, to collect information such as temperature, humidity, luminance and pressure. A base station (or "sink") sends the collected information to a monitoring and control center according to an agreed structured format. At this center, the information received can be analyzed, processed and displayed in real time by using monitoring systems. From this control center the WSN can also be controlled by changing the sensors behavior in consistence with the detected level of fire risk. The work carried out in this project consists on the design, development and implementation of a system named SCVIRI, which implements the functions of the aforementioned monitoring and control center. This system works in connection with other one, called SERIUW, which has been developed in a different project and implements the WSN in an emulated environment. These two systems working together make up a general system of anticipation and monitoring of fires. This document also includes the functionality and performance tests performed on the overall system in a controlled and simulated environment. The global system is a solution that makes it easier to predict and prevent possible fires in natural areas under supervision. This system can be a powerful tool since, before a fire event is declared, it generates automatic alerts (including location and severity information) and allows the real-time motorization of fire evolution and its graphical visualization on maps. This could be also very useful for providing fire brigades with support, protection and information in zones in which a fire is already active.
Resumo:
I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.
Resumo:
En la presente memoria se describe el trabajo de diseño de una herramienta de interacción persona-ordenador (HMI) para la operación y supervisión de vehículos aéreos no tripulados (UAV). En primer lugar se hace una introducción a los tipos de UAVs y aplicaciones más comunes, describiendo sus características técnicas y los componentes que integra en el sistema. Mediante la revisión y análisis de los diferentes niveles de autonomía y las diferentes soluciones de presentación existentes en el mercado, se identifican los modos de operación y componentes principales de la interfaz. A continuación se describe el diseño final del software de la interfaz y el proceso de desarrollo de la misma, para ello se hace un análisis previo del software robótico sobre el que opera el sistema abordo del UAV y se establecen los enlaces de comunicación entre cada uno de los componentes y los requisitos de integración con el sistema. Finalmente, se muestran las pruebas que se han realizado para validar la construcción de la herramienta. This report outlines the design and construction of a human-machine interface (HMI), designed to facilitate the supervision and operation with unmanned aerial vehicles (UAV). First, it is described an introduction to UAVs classification and application fields, reviewing the hardware features and software integration components. In order to define the basic components and operation modes in the general design, a brief review of the different presentation solutions and autonomous levels is described. As a result, it is presented the final software design, the components details and the system integration requirements. Finally, it is also concluded with some of the tests that have been conducted to validate the design and construction of the human-machine interface
Resumo:
La catedral de León, debido al estado de ruina que presentaba a mediados del siglo XIX, se vio sometida a partir de entonces a una serie de intervenciones de conservación, restauración y reconstrucción que la transforma-ron significativamente. A pesar de encontrarnos con gran cantidad de documentación escrita sobre este monumento y de existir varios estudios sobre los arquitectos restauradores que intervinieron en este a finales del siglo XIX, resulta sorprendente que todavía existan períodos de este lapso de tiempo en el que su análisis y profundización haya sido menor. Este es el caso del período de Juan Bautista Lázaro como arquitecto director de las obras de la catedral leonesa, existiendo únicamente sobre toda su obra un estudio general que fue realizado por el director de este trabajo de investigación, por lo que nos llevó a considerar que era oportuno profundizar sobre la figura y obra de uno de los arquitectos más importante de la restauración en España de este período, no solo por su obra en sí, sino también por sus pos-turas significativas respecto a la intervención en el patrimonio arquitectónico: su respeto por los añadidos históricos, su preferencia por no aislar los monumentos, sus interés por los sistemas constructivos y su deseo de recuperar los oficios tradicionales que estaban completamente perdidos en la España decimonónica. El objetivo principal de la tesis es, por tanto, el análisis descriptivo y arquitectónico de los proyectos e intervenciones que Lázaro desarrolló y ejecutó para la catedral de Santa María de Regla de León, para deducir los principios e ideas que guiaron su quehacer en este templo, y poder, tras estudiar sus diversas publicaciones escritas y los proyectos e intervenciones de restauración acometidas en otros edificios de carácter monumental, llegar a establecer sus criterios de intervención en el patrimonio histórico y artístico. De acuerdo con esto, la tesis se estructura en tres partes: una primera parte en la que se contempla el pensamiento arquitectónico de Lázaro en su intervención en el patrimonio histórico; una segunda, en la que se abordan directamente los proyectos e intervenciones de Lázaro en la pulchra leonina, previa aproximación del citado arquitecto al proceso de restauración que se acometía en dicho templo; y una tercera, en la que se realiza el estudio de las principales intervenciones de restauración que ejecutó en otros edificios del patrimonio arquitectónico español. El presente trabajo de investigación se ha servido de la documentación escrita, gráfica, planimétrica y fotográfica que sobre los temas tratados existe desperdigada en diversos archivos dependientes de distintos organismos oficiales civiles y eclesiásticos. Además, el hecho de haber podido acceder a los trabajos de conservación y restauración que en estos momentos se están llevando a cabo en las zonas en las que intervino Lázaro (vidrieras, rejas, puertas, fábricas, cubiertas, etc.), y el poder intercambiar opiniones y criterios con la persona que actualmente es responsable de las obras de la catedral de León, ha facilitado y complementado el desarrollo de la presente tesis al haber podido contrastar y tomar datos directamente en el monumento objeto de estudio. También se ha llevado a cabo la consulta de las distintas revistas de arquitectura publicadas en aquellos años y de los múltiples libros que versaban sobre los edificios objeto de este trabajo o que guardaban relación con ellos. Asimismo hemos logrado conocer el testimonio de algunos de los herederos de Lázaro y de varios de los descendientes de los operarios que trabajaron bajo sus órdenes. Como conclusiones generales, la tesis define por primera vez los criterios generales que guiaron su quehacer profesional en el patrimonio. Además, en este trabajo se analizan pormenorizadamente los proyectos y actuaciones de Lázaro en la catedral de León, abordándose también en profundidad el trabajo del mencionado arquitecto en el ámbito de la restauración arquitectónica. Para lograr este objetivo, esta tesis no se ha limitado únicamente a analizar la información existente en los proyectos y en los in-formes de supervisión de los mismos, como tradicionalmente se había hecho, sino que también se ha tratado de verificar si los datos contenidos en los diferentes documentos de un mismo proyecto y en los borradores de los mismos tenían relación y coherencia entre sí. Además, se ha procurado realizar el análisis comparativo de la realidad construida con el contenido de los proyectos, liquidaciones y documentos de la fase de ejecución de las obras. Este análisis comparativo no había sido realizado hasta la fecha, siendo este, por tanto, una de las aportaciones del trabajo. Por último, la tesis abre tres vías de investigación futuras (que ya se han tratado y avanzado en parte, pero que escapan a los límites de este trabajo). Estas se refieren al estudio de la evolución de la representación gráfica de los planos de la catedral leonesa catalogados en este trabajo, de la actividad pública de Lázaro y su preocupación por la defensa del patrimonio como diputado en las Cortes, arquitecto municipal de Ávila y arquitecto diocesano de Ávila y Toledo, y de cómo sus actuaciones de restauración en el patrimonio arquitectónico influyeron en los proyectos de obra nueva que construyó. ABSTRACT Due to the state of ruin in mid-nineteenth century, the Cathedral of Santa Maria de Regla of León was subjected to a series of interventions on conservation, restoration and reconstruction that transformed it significantly. There have been several studies on the architects who took part in the restoration during the mentioned century and despite abundant documentation and research on this monument, it is surprising to note the lack of deep analysis in some of the periods. In particular, the interventions accomplished by Juan Bautista Lázaro, as chief architect of the works of the Cathedral of León, have not been documented and analysed in adequate depth, despite the outstanding recognition of his work nationally and internationally. Furthermore, up to date, only the director of this research had conducted a general research of all his architectural work. For these reasons, we felt it was appropriate to elaborate on the life and work of one of the most important architects of the restoration in Spain during that period, not only for his work itself, but also for his significant contribution to the debate on architectural interventions on heritage. He is notable for his respect to historical additions, his preference for not isolating the monuments, his interest in building systems and his continuous desire to re-cover the traditional crafts that were completely lost in the nineteenth century in Spain. The main aim of this thesis is therefore the descriptive and architectural analysis of Lázaro’s projects and interventions developed and executed for the Cathedral of León. The thesis identifies the principles and ideas that guided his work in this temple and establish the criteria for intervention in the historical and artistic heritage architecture he applied after studying its various print publications, projects and restoration works undertaken in other buildings. Accordingly, the thesis is structured in three parts: the first part where it deals Lázaro’s architectural thinking in his interventions on heritage constructions; the second one, in which analyses the projects and interventions carried out by Lazaro in the “pulchra leonina”, but this analysis is preceded by the description of Lázaro’s relationship with the Cathedral of León before taking charge of its restoration in 1892; and the third and final section, in which the study of major restoration interventions implemented by Lázaro in other buildings of Spanish architectural heritage is made. This research has used available documentation (in written or graphic form, plans or photographs) scattered in a diverse range of archives de-pendent on various civil and ecclesiastical institutions. Moreover, we could access the conservation and restoration works, currently being carried out in areas where Lázaro intervened (stained glass windows, forged iron en-closures, gates, doors, masonry, covers, etc.). It has been possible to ex-change views and opinions with the person currently in charge of the referred restoration works which has facilitated and complemented the development of this thesis. It further, it has allowed contrasting and obtaining data directly from the monument under study. Consultation of various architectural journals published in those years has also been taken into account, as well as a diversity of books and articles which concerned the buildings assessed in this work, or related to them. Also, although not with the results expected, it has been obtained the testimony of some of Lázaro’s descendants as well as descendants of the workers who operated under him. As a general conclusion, the thesis defines the general criteria that guided his professional work in the heritage for the first time. Furthermore, Juan Bautista Lázaro’s projects and interventions in the Cathedral of León are analysed in detail. Also, it has been studying in detail the Lazaro’s work in the architectural heritage. To achieve this goal, the thesis has studied not only the information from the official projects and technical reports of them, but also it has been tried to verify if the information contained in the different documents of the same project and in the drafts were related and consistent with each other. In addition, it has been attempted to per-form a comparative analysis of the execution of Lázaro’s projects and the entire projected content. This comparative study had not been done to date and this will be, therefore, one of the main contributions of this re-search. Finally, this thesis opens up three lines of investigation (that have already been discussed and partially advanced, but which fall beyond the scope of this research). These refer to the study of the evolution of the graphical representation of the plans of Leon Cathedral catalogued in this thesis, public activity of Lazaro and his concern for the defence of heritage as deputy in Parliament, municipal architect of Avila, and as diocesan architect Ávila and Toledo, and even more how its restoration actions in architectural heritage influenced his projects of new construction.
Resumo:
El objetivo principal de este Proyecto Fin de Carrera (PFC), consiste en diseñar una plataforma Smart Services dentro de una compañía, para proporcionar a sus clientes servicios de Smart Cities. Se diseñará una plataforma que en fase de implantación llegue a prestar servicios extremo a extremo a las AAPP (Ayuntamientos y concesionarios de servicios municipales). Es decir, desde la petición del servicio, hasta que el mismo se provisiona y se pone en marcha. El diseño de la solución para el Sistema de Gestión deberá cumplir con las siguientes características: 1. Gestión end-to-end de la Plataforma Smart Services. 2. Cobertura a los diferentes módulos funcionales del propio Sistema de Gestión: 3. Gestión del inventario. 4. Gestión de la provisión. 5. Monitorización y supervisión de la Plataforma Smart Services. 6. Gestión del servicio. 7. Escalabilidad: La solución propuesta debe garantizar la escalabilidad necesaria para poder atender a las necesidades de volumetría. 8. Sistema de Gestión implementado bajo herramientas Open Source.
Resumo:
A partir de la segunda mitad del siglo XX, Nueva York experimenta una apertura al público de espacios nuevos, transformados u olvidados mediante la adaptación de mecanismos, ya sean formales o informales, de caracter permanente o temporal, para la incorporación de uso público en un contexto urbano limitado y congestionado. Estos recursos espaciales son mediadores entre el espacio público y el privado, y son el resultado físico de la negociación entre la legislación urbana, los interes privados de los promotores y las demandas de los ciudadanos. La tesis estudia una selección de obras, entre los años 1950 y 2015, que incorporan notables oportunidades para el uso colectivo, pero que han propiciado la creación de dos tipos de espacios: los “espaciosoasis”, aquellos que potencian una verdadera interacción social entre los usuarios; y los “espacios-vitrina”, para ver y no tocar, en los que el usuario participa indirectamente y, sin promover interacción alguna, atraen al público foráneo y rechazan al local. La diversidad de usos, la sensibilidad social, la supervisión cercana y la facilidad de mantenimiento de la pequeña escala posibilitan que los “espacios-oasis” sean claves a la hora de mantener el fragil y vulnerable equilibrio de la vida urbana. La tesis profundiza en la contextualización de las obras en relación con el apoyo de las políticas públicas y contexto cíclico de los constantes altibajos económicos. El papel del alcalde neoyorkino es clave a la hora decidir el mayor o mejor respaldo de la administración local a las obras que tienen una incidencia en el ámbito de lo público, por lo que la tesis estructura las obras en relación a las transiciones entre las alcaldías más importantes. La presión del mercado inmobiliario, los intereses privados y políticos, la excesiva comercialización y programación de estos espacios dificultan el lento y opaco proceso de la incorporación de uso público en la ciudad y compremeten el verdadero carácter cívico del espacio abierto urbano. La investigación estudia estos factores a través de una reflexión sobre el verdadero sentido de la revitalización de lo público, entendida en relación con las interacciones que fomenta y que se producen más allá de las intenciones del proyecto arquitectónico. El objetivo y el alcance de esta investigación permite reflexionar, discutir y explorar el uso y la participación cívica en el entorno construido, para de esta forma poder entender la evolución de las condiciones sociales, económicas, arquitectónicas y urbanas del espacio público. ABSTRACT During the second half of the twentieth century, New York experienced a launch of new spaces, changed or forgotten through the adoption of mechanisms, whether formal or informal, permanent or temporary, for the incorporation of spaces for public use in a limited and congested urban context. These assets are mediators between the public and private space, and are the physical result of negotiations between the urban legislation, the private interests of the developer and the demands of citizens. The dissertation examines a selection of projects, between 1950 and 2015, that incorporate remarkable spatial opportunities for collective use, which led to the creation of two types of spaces: “oasis-space”, those that enhance social interaction between patrons; and “vitrinespace”, space to be seen but not touched, where the user participates indirectly and does not promote any interaction, attracting an outside public and rejecting the local. Diversity of uses, social sensitivity, close supervision and ease of maintenance that enable small-scale “oasis spaces” are key when it comes to keeping the fragile and vulnerable balance of urban life. The investigation explains the contextualization of the projects in relation with the support of public politics and the cyclical context of constantly changing economics. The role of the New York mayor is key at the time of deciding the level of administrative support for the projects that occur at a point of overlap between the public and the private, which is why the thesis analyzes the projects in relationship to the transitions between the cities most influential mayors. Pressure from the housing market, private and political interests, excessive commercialization and programming of these spaces impede the slow and opaque process of incorporating them for public use in the city and compromise the true civic character open urban space. The research explores these factors by reflecting on the true meaning of the revitalization of the public, understood in relation to interactions it encourages and that occur outside of the intentions of the architectural project. The objective and scope of this study allows for reflecting on, discussing and exploring civic participation and use of the built environment, as a way to understand the evolution of social, economic, architectural and urban conditions of public space.
Resumo:
Esta tesina pretende ser un libro de baloncesto dedicado a los fundamentos de ataque. Su diferencia de las demás obras que se encuentran corrientemente en venta, estriba en el público al que va dirigido. Normalmente son los técnicos de dicho deporte los que beben de sus fuentes. Este, aunque sin duda alguna encontrará a esos mismos lectores, busca las miras de un público más abundante en número: " El jugador de baloncesto". Pretende ser un libro con unas miras futuras. El baloncesto en España ha sido el deporte que más ha avanzado de unos años a ésta parte; aun estando todavía lejos de su "techo", ha superado unos límites insospechados y poco menos que quiméricos en un país donde "el deporte rey" ha sido el único ídolo. Explicaremos la palabra "futuro" citada en la frase anterior; la técnica del baloncesto es de una gran complejidad y extensión. Actualmente el jugador de baloncesto en nuestro país aprende una ínfima parte de los movimientos que engloba la técnica, desarrolla dos o tres de éstos con bastante perfección y, los demás, son un recuerdo vago para él. Sólo con estos dos movimientos es capaz de valerse y defenderse dentro de su categoría, e incluso, puede destacar. ¿Cuáles son los motivos de estas facilidades para los atacantes? Principalmente hay una, las flojas defensas que predominan aún en nuestro país, debido al desinterés que los entrenadores ponen en su enseñanza. Actualmente ya estamos viendo algunos equipos que han empezado a defender. Sus oponentes han encontrado muchas dificultades para conseguir puntos; sus movimientos ofensivos no son suficientes para romper la defensa y los jugadores desconocen el "porqué" de sus pocos movimientos, punto éste que creo absolutamente indispensable su conocimiento por parte del jugador. Es por estas razones anteriormente dichas, por lo que creo que este libro, en los próximos años, puede ser de una gran utilidad para jugadores y entrenadores que piensen en baloncesto ya que, en el momento actual, no existe una preparación para que el jugador pueda entender con absoluta claridad los movimientos aquí explicados, así como su ejecución, puesto que son un punto de partida para una posterior supervisión por parte del entrenador.
Resumo:
No romance O Idiota, Dostoiévski cria, por meio do príncipe Míchkin, uma personagem com as características do Cristo. Sabe-se que a Bíblia, principalmente o Novo Testamento, acompanhou o escritor desde sua infância até o momento de sua morte. O primeiro capítulo, dedicado ao referencial teórico da pesquisa, lida com o universo da linguagem. Tanto o texto literário quanto a literatura bíblica procedem do mito. Neste sen-tido, religião e literatura se tocam e se aproximam. O segundo capítulo foi escrito na intenção de mostrar como o Cristo e os Evangelhos são temas, motivos e imagens recorrentes na obra de Dostoiévski. A literatura bíblica está presente, com mais ou menos intensidade, em diversas das principais obras do escritor russo e não somente em O Idiota. A hipótese de que Dostoiévski cria um Cristo e um Evangelho por meio de O Idiota é demonstrada na análise do romance, no terceiro capítulo. A tese proposta é: Dostoiévski desenvolve um evangelho literário, por meio de Míchkin, misto de um Cristo russo, ao mesmo tempo divino e humano, mas também idiota e quixotesco. Na dinâmica intertextual entre os Evangelhos bíblicos e O Idiota, entre Cristo e Míchkin, a literatura e o sagrado se revelam, como uma presença divina. Nas cenas e na estruturação do enredo que compõe o romance, Cristo se manifesta nas ações de Míchkin, na luz, na beleza, mas também na tragicidade de uma trajetória deslocada e antinômica. O amor e a compaixão ganham forma e vida na presen-ça do príncipe, vazio de si, servo de todos.
Resumo:
La Inteligencia Emocional, la Formación Emocional, el Desempeño Laboral y las hipotéticas relaciones entre ellas, son el objeto de este estudio. En los últimos años, son numerosas las investigaciones que están tratando de definir y encontrar posibles relaciones entre estos conceptos. El título de esta tesis: “Impacto del programa formativo PIEI en los niveles de Inteligencia Emocional de supervisores de equipos de trabajo y en el Desempeño Laboral de su equipo en un Centro de Llamadas”, apunta también en esta dirección y pretende aportar alguna luz a estas cuestiones. Para ello, y situándose en uno de los tipos de organizaciones empresariales actuales más dinámicas, como son los Centros de Llamadas (CC)1, en este estudio se pretende entender de manera concreta, la relación entre la Inteligencia Emocional de los supervisores de equipos de trabajo y el Desempeño Laboral de los equipos de operadores bajo su responsabilidad. Los objetivos a alcanzar varios: • Observar si hay diferencias en los niveles de Inteligencia Emocional y de Desempeño Laboral entre los distintos colectivos socio-demográficos (Género, Edad, Formación y Experiencia laboral) de los participantes. • Evaluar si la participación en un programa intensivo de formación emocional, puede influir en la mejora de la Inteligencia Emocional de los mismos. • Evaluar si los resultados pudieran redundar en una mejora de las variables de Desempeño Laboral de los equipos bajo su supervisión. • Comprobar la idoneidad de la aplicación del programa formativo en el entorno empresarial, en concreto en los CC...
Resumo:
Comunicación presentada en el XI Symposium Internacional sobre el practicum y las prácticas en empresas en la formación universitaria "Evaluación y supervisión del practicum: el compromiso con la calidad de las practicas", Poio (Pontevedra), 27-29 junio 2011.
Resumo:
A la luz del debate en torno a la relación entre la vida laboral y familiar, este artículo propone un modelo compuesto por las variables: sexo, edad, estudios, parentesco y dos índices nombrados por vsp y vsf. El primero (vsp) trata de situar a la población ocupada en una escala que refleje la situación en términos de modalidad de contrato, jornadas, ingresos y supervisión. El segundo refleja las cargas familiares. Se plantean dos versiones distintas del modelo: vsp como dependiente o vsf. El objetivo de este ejercicio es doble: 1) observar hasta qué punto las cargas domésticas influyen en la posición dentro del puesto de trabajo remunerado, y 2) averiguar qué variable sociodemográfica tiene mayor influencia sobre ellas. Los datos han sido extraídos de la Encuesta de Calidad de Vida en el Trabajo (ECVT 2001, 2002 y 2003). A la luz de los resultados, la distribución por sexo en «vsp» y «vsf» es significativamente distinta: los hombres asalariados ocupan las mejores posiciones. Además, el modelo sólo actúa para las mujeres asalariadas principales de familia (cabezas de familia y cónyuges). Esta última observación es completamente coherente con una organización de trabajo construida desde la institución del género.
Resumo:
Comunicación y póster presentados en las XI Jornadas de Redes de Investigación en Docencia Universitaria 2013. Retos de futuro en la enseñanza superior: Docencia e investigación para alcanzar la excelencia académica, Alicante, 4-5 julio 2013.
Resumo:
Los métodos para Extracción de Información basados en la Supervisión a Distancia se basan en usar tuplas correctas para adquirir menciones de esas tuplas, y así entrenar un sistema tradicional de extracción de información supervisado. En este artículo analizamos las fuentes de ruido en las menciones, y exploramos métodos sencillos para filtrar menciones ruidosas. Los resultados demuestran que combinando el filtrado de tuplas por frecuencia, la información mutua y la eliminación de menciones lejos de los centroides de sus respectivas etiquetas mejora los resultados de dos modelos de extracción de información significativamente.
Resumo:
A partir de 2011 se ha reforzado el gobierno económico de la UE a través de seis instrumentos legislativos, el llamado Six Pack, que supone fundamentalmente una reforma de la supervisión de la política presupuestaria de los Estados miembros. Más recientemente el Tratado de estabilidad, coordinación y gobernanza de UE de marzo de 2012 (TECGUE) establece un conjunto de normas destinadas a promover la disciplina presupuestaria a través de un pacto presupuestario; a reforzar la coordinación de sus políticas económicas; y a mejorar la gobernanza de la zona del euro. En el presente trabajo se analiza si este modelo basado en una estricta disciplina presupuestaria es compatible con los postulados del Estado social, y más concretamente con los principios de justicia del gasto público. En efecto, a partir de la reforma del art. 135 de la Constitución Española, el principio de estabilidad presupuestaria debe ser interpretado coordinadamente con otros principios constitucionales que en el momento presente están plenamente vigentes y pueden adquirir una nueva función: la de actuar como límite y medida del objetivo de estabilidad presupuestaria. Del mismo modo se analizan los principios de coordinación entre las políticas presupuestarias y de endeudamiento de los Estados miembros en un Estado con una pluralidad de Haciendas, como es el caso español.
Resumo:
En el presente documento se ofrecen las conclusiones de la mesa de comunicaciones número 10, presentadas a las XII Jornadas de Redes de Investigación en Docencia Universitaria, y defendidas el Jueves, día 3 de julio de 2014, de 17.30 h. a 20.00 h. en el aula A2/D04 de la Universidad de Alicante. Se presentaron las comunicaciones que a continuación se indican, que fueron defendidas por alguno o todos sus autores, según los casos. - 390836 La supervisión educativa en Trabajo Social: un estudio comparado entre distintas universidades. - 390872 Estratos de comprensión y conciencia de error en la traducción de textos especializados en el aula. - 391588 La simulación de juicios en la asignatura de Derecho Procesal III: algunas propuestas metodológicas. - 391970 Innovar con criterios de calidad sobre metodologías docentes: Una aplicación a asignaturas de Economía. - 392107 Docencia universitaria a través de la investigación en el aula: proceso de formación ambiental. - 392121 Voice and movement in circle with body percussion. Facilitation in learning observed in voice BAPNE® method and in circlesongs teaching. - 392827 “Crecemos en democracia”: un proyecto de aprendizaje y difusión con los archivos.