921 resultados para Calcul quantique expérimental
Resumo:
I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.
Resumo:
El bosque tropical de montaña, es considerado zona de mega diversidad y de alto grado de endemismo, por las diferentes zonas ecológicas que presenta. Durante las últimas décadas estos bosques han recibido mayor atención por parte de investigadores, sin embargo, aún existe poca investigación en determinar cuáles son las respuestas de los bosques a los cambios ambientales a los que son sometidos. Estos bosques están sufriendo serias amenazas como pérdida de cobertura vegetal y cambios en los ciclos de nutrientes. El trabajo se dividió en cuatro objetivos específicos. i) Caracterización y análisis de patrones altitudinales de la riqueza de especies en el bosque tropical de montaña en el sur del Ecuador; con el fin de conocer cómo varía la diversidad de especies riqueza lo largo de un gradiente altitudinal. ii) Conocer los patrones espaciales del crecimiento en tres remanentes boscosos de un bosque tropical de montaña para determinar cómo la vecindad y la semejanza funcional de ésta influyen en el crecimiento forestal. iii) Conocer los efectos de la fertilización en el crecimiento diamétrico de especies arbóreas, en el bosque tropical de montaña; se analizó cómo reaccionan los árboles a la adición de nutrientes N y P en tres tipos de bosque. iv) Saber la respuesta de la comunidad de árboles a la adición de nutrientes en el bosque montano andino; este objetivo se basó con el supuesto de la deficiencia de tres tipos de nutrientes N, P y Ca, en esta formación boscosa y cómo reaccionan los árboles a la adición de nutrientes. El presente trabajo se llevó a cabo, en el bosque tropical de montaña que se encuentra localizada en la parte adyacente del Parque Nacional Podocarpus (PNP) en la cordillera del Consuelo, forma parte de la cadena oriental de los Andes del sur del Ecuador El trabajo de desarrollo entre los años 2008 y 2014. Para abordar el primer objetivo se establecieron 54 parcelas ubicadas aleatoriamente a lo largo de un gradiente altitudinal (3 niveles de altitud) y se e midieron e identificaron todos los individuos mayores a 5cm de DAP. Se construyó una filogenia con Phylocom y se calcularon diferentes componentes de diversidad para cada parcela ( riqueza taxonómica, diversidad filogenética y edad media de las especies). Ajustando modelos lineares se contrastó el efecto de la altitud sobre dichos componentes y se vio que la riqueza taxonómica y la edad media de las especies aumentaron con la altitud, en sentido contrario a las predicciones de la "hipótesis del conservadurismo tropical" (Tropical Conservatism Hypothesis). Para abordar el segundo objetivo se realizó una remedición de todos los árboles cartografiados en tres parcelas permanentes de alrededor de 5000 m2 cada una, representativas de tres estados diferentes de la sucesión del bosque montano. A partir de las coordenadas y de los datos de registrados, y empleando diferentes funciones de correlación de marca se analizó la distribución espacial del tamaño y del crecimiento relativo y del tamaño. Se constató que mientras que el tamaño de los árboles presentó una correlación espacial negativa, el crecimiento presentó correlación espacial positiva, en ambos casos a distancias cortas. El rango y la magnitud de ambas correlaciones aumentaron al avanzar la sucesión. La distribución espacial del crecimiento mostró una correlación negativa con la distribución espacial de tamaños. Por otro lado, la distribución espacial del crecimiento mostró una correlación negativa para árboles semejantes funcionalmente y positiva cuando se calculó entre árboles con diferente estrategia funcional. En conjunto, los resultados obtenidos señalan un aumento de la importancia de procesos competitivos y una mayor estructuración espacial del crecimiento y de la distribución de tamaños al avanzar la sucesión. Para el tercer y cuarto objetivo se instalaron 52 parcelas distribuidas en bloques donde se fertilizaron dos veces al año durante 6,4 años, se identificaron todos los individuos mayores a 10 cm de DAP, y se midió el crecimiento diamétrico durante estos años Con la adición de nutrientes realizada a los diferentes tipos de bosque en la gradiente altitudinal, encontramos que el efecto sobre el crecimiento diamétrico en la comunidad varia con el rango altitudinal, y el tipo de nutriente, analizando a nivel de las especies, en la mayoría de los casos las especies comunes no tuvieron cambios significativos a la adición de nutrientes. Los resultados de este estudio aportan nuevas evidencias para el entendimiento de la diversidad, estructura y dinámica de los bosques tropicales de montaña. ABSTRACT The montane tropical forest is considered a megadiverse habitat that harbor an enormous degree of endemism. This is mainly due to the high degree of environmental heterogeneity found and the presence of different well defined ecological areas. These forests have received more attention during the last decades, however, the information regarding the responses of these forests to environmental change, is still scarce. These forests are seriously endangered and are suffering serious threats, such as loss of vegetative cover, changes in the nutrient cycles. The work was divided in four specific objectives: i) Characterization and analysis of the species richness altitudinal patterns in the montane tropical forest of south Ecuador. Specifically, how species diversity changes along altitudinal gradients. ii) Exploring the spatial patterns of tree growth in three remnants of a montane tropical forest, and analyze how tree neighborhood and functional similarity among trees influence tree growth. Tropical Conservatism Hypothesis iii) Understanding the effects of fertilization in arboreal species growth (increase in diameter) of the montane tropical forest. Specifically we studied the effects of P and N addition on three different forests across an altitudinal gradient. iv) Know the response of the community of trees to the addition of nutrients in the Andean montane forest; this objective was based on the supposition of deficiency of three types of nutrients: P, N and Ca in this forest all formation and how the trees react to the addition of these nutrients. The present work was carried out in the montane tropical forest located in Bombuscaro, San Francisco and Cajanuma close to Podocarpus National Park (PNP) on Consuelo mountain range (Andean oriental range) at South of Ecuador. Field work was carried out during 2008 and 2014. To address the first objective, we randomly placed 54 plots along an altitudinal gradient. In these plots, every individual larger than 5 cm of DBH was measured and identified. A phylogeny was build with Phylocom and different diversity components (taxonomic richness, phylogenetic diversity and average species age) were computed for each plot. Linear models were used to test the effects of altitude on the diversity components. Our results showed that, contrary to the Tropical Conservatism Hypothesis, both taxonomic richness and average species age increased with altitude. To address our second objective, all mapped trees in three successional permanent plots (around ~5000 m2 each) were re-measured. Using different mark correlation functions, we analyzed the spatial distribution of tree-size and tree relative growth rate. Whereas tree size showed negative spatial correlation at fine spatial scales, relative growth rate showed positive correlation at the same scales. The range and magnitude of those correlations increased along successional stage. The spatial distribution of the relative growth rate was negatively correlated with the spatial distribution of tree sizes. Additionally, we found that the spatial correlation of the relative growth rate was negative for functionally similar trees and positive when computed for functionally different trees. In synthesis, our results point to an increase of competitive processes and strong spatial structure of relative growth rate and tree size along succession. For the third and fourth objectives, 52 plots were placed in a block design and were fertilized twice a year for 6,4 years. In these plots all the individuals with DBH > 10 cm were identified, and the diametrical growth was measured during these years. The nutrient addition at the three different altitude forests, revealed that the effect on the diametrical growth in the community varied with the altitudinal range. When analyzed at species level, the addition of nutrients was no significant in most cases. These results represent new evidences that will improved our understanding of diversity patterns and structure, and the dynamics of tropical montane forests.
Resumo:
Electromagnetic coupling phenomena between overhead power transmission lines and other nearby structures are inevitable, especially in densely populated areas. The undesired effects resulting from this proximity are manifold and range from the establishment of hazardous potentials to the outbreak of alternate current corrosion phenomena. The study of this class of problems is necessary for ensuring security in the vicinities of the interaction zone and also to preserve the integrity of the equipment and of the devices there present. However, the complete modeling of this type of application requires the three- -dimensional representation of the region of interest and needs specific numerical methods for field computation. In this work, the modeling of problems arising from the flow of electrical currents in the ground (the so-called conductive coupling) will be addressed with the finite element method. Those resulting from the time variation of the electromagnetic fields (the so-called inductive coupling) will be considered as well, and they will be treated with the generalized PEEC (Partial Element Equivalent Circuit) method. More specifically, a special boundary condition on the electric potential is proposed for truncating the computational domain in the finite element analysis of conductive coupling problems, and a complete PEEC formulation for modeling inductive coupling problems is presented. Test configurations of increasing complexities are considered for validating the foregoing approaches. These works aim to provide a contribution to the modeling of this class of problems, which tend to become common with the expansion of power grids.
Resumo:
A reciclagem de misturas asfálticas usando técnicas de misturas mornas atende às exigências da sustentabilidade, limitando o consumo de energia e de novos materiais. A reciclagem de revestimentos asfálticos fresados (RAP) é praticada há mais de 40 anos, por meio de usinagem a quente do RAP adicionado a agregados e ligante novos. Todavia, o uso de elevadas taxas de RAP (acima de 25% no total), é um grande desafio até o presente, pois limita a perda de durabilidade da mistura asfáltica final. O RAP contém ligante asfáltico envelhecido aderido aos agregados, porém uma parte desse ligante pode ser remobilizada durante a reciclagem pelo aumento da temperatura no processo de usinagem. Esta tese busca compreender o processo de remobilização do ligante envelhecido durante a reciclagem do RAP e as consequências da magnitude de temperatura empregada no processo de reaquecimento deste material envelhecido. Atualmente, tem-se buscado o uso da tecnologia de usinagem morna, permitindo a redução de temperatura total no processo de fabricação. Um dos problemas possíveis da combinação das técnicas reciclagem morna é a ocorrência do fenômeno de recobrimento duplo, que pode impactar na reologia do novo material: o ligante do RAP e o ligante novo não se misturariam totalmente, devido à redução das temperaturas de fabricação, formando camadas superpostas. Este fenômeno seria a causa de disfuncionamentos mecânicos da mistura asfáltica final. Questiona-se então a qualidade do recobrimento dos agregados do RAP, já recobertos, e a falta de um meio de caracterização para a observação da interface. Neste estudo, a qualidade do recobrimento do RAP foi avaliada em escala microscópica e macroscópica. No nível microscópico, foi proposto o uso de uma ferramenta de micro-espectroscopia infravermelha para avaliar a interface entre o RAP e o ligante novo, e seguir a distribuição espacial desses dois componentes na mistura asfáltica. Para tanto, foi realizado um desenvolvimento experimental detalhado que permitisse o uso de um acessório de imagem infravermelha em misturas asfálticas recicladas. Graças à indentificação prévia de marcadores internos, foi possível acompanhar a mobilização parcial do ligante envelhecido do RAP. Em paralelo, no nível macroscópico, foi desenvolvido um protocolo de ensaio com o objetivo de avaliar a durabilidade das misturas asfálticas recicladas com taxas elevadas de RAP (50%), com o objetivo princial de compreender se há benefícios nas propriedades mecânicas de misturas mornas recicladas. O ensaio de fadiga é um dos ensaios que permitem melhor avaliar e comparar diferentes misturas asfálticas para comporem uma camada de pavimento. Porém, este ensaio não pode ser diretamente transposto à previsibilidade de campo por ter restrições, tais como o ligante das amostras ensaiadas não teve tempo de envelhecer; e as misturas asfálticas, dependendo da quantidade de RAP e da temperatura de usinagem, podem envelhecer em velocidades diferentes em campo. No presente trabalho, foi proposta a adição de uma etapa de envelhecimento previamente aos ensaios mecânicos. Foi suposto que o comportamento real do material estaria situado entre o do material não envelhecido e do envelhecido. Os principais resultados mostram que uma mistura reciclada morna apresenta resultados satisfatórios de comportamento mecânico que atestam seu uso como camada de revestimento asfáltico, exceto que ela tem a tendência de ser mais sensível à fadiga que uma mistura com a mesma composição de agregados e de teor de ligante, fabricada a quente ou morna, mas sem a adição de RAP.
Resumo:
El arrecife artificial de Tabarca se diseñó e instaló principalmente con el objetivo de impedir la pesca de arrastre ilegal sobre las praderas de Posidonia oceanica. Además se diseñó un arrecife alveolar experimental para estudiar sus efectos sobre la ictiofauna litoral y sus posibilidades como lugar de pesca alternativo a la flota artesanal de Tabarca. La ictiofauna asociada al arrecife artificial de Tabarca se estudió mediante censos visuales durante tres años consecutivos entre 1990 y 1992, con una frecuencia estacional. Los resultados muestran una estructura de la comunidad condicionada por el diseño y emplazamiento de los módulos. La dinámica temporal manifiesta una clara diferencia según consideremos el poblamiento total o sólo el residente: el primero refleja una pauta muy fluctuante, poco predecible; el poblamiento residente muestra una tendencia hacia la estructuración, con un aumento progresivo de especies sedentarias predadoras, y un incremento significativo de la biomasa. Estos resultados refuerzan las interpretaciones que dan un papel condicionante al tamaño del arrecife artificial y a su localización.
Resumo:
Fundamentos: Geocodificar es asignar coordenadas geográficas a puntos del espacio, frecuentemente direcciones postales. El error cometido al aplicar este proceso puede introducir un sesgo en las estimaciones de modelos espacio-temporales en estudios epidemiológicos. No se han encontrado estudios que midan este error en ciudades españolas. El objetivo es evaluar los errores en magnitud y direccionalidad de dos recursos gratuitos (Google y Yahoo) respecto a GPS en dos ciudades de España. Método: Se geocodificaron 30 direcciones aleatorias con los dos recursos citados y con GPS en Santa Pola (Alicante) y en Alicante. Se calculó la mediana y su IC95% del error en metros entre los recursos y GPS, para el total y por el status reportado. Se evaluó la direccionalidad del error calculando el cuadrante de localización y aplicando un test Chi-Cuadrado. Se evaluó el error del GPS midiendo 11 direcciones dos veces en un intervalo de 4 días. Resultados: La mediana del error total desde Google-GPS fue de 23,2 metros (16,0-32,2) para Santa Pola y 21,4 metros (14,9-31,1) en Alicante. Para Yahoo fue de 136,0 (19,2-318,5) para Santa Pola y 23,8 (13,6-29,2) para Alicante. Por status, se geocodificó entre un 73% y 90% como ‘exactas o interpoladas’ (menor error), tanto Google como Yahoo tuvieron una mediana del error de entre 19 y 22 metros en las dos ciudades. El error del GPS fue de 13,8 (6,7-17,8) metros. No se detectó direccionalidad. Conclusiones: El error de Google es asumible y estable en las dos ciudades, siendo un recurso fiable para geocodificar direcciones postales en España en estudios epidemiológicos.
Resumo:
Antecedentes/Objetivos: El consumo de alimentos es un indicador que mide calidad de la dieta y estado nutricional. El consumo está influido directamente por la estructura de precios relativos a los alimentos. El objetivo es determinar y comparar la calidad de la dieta de la población española entre los años 2006 y 2011, y su relación con las variables socioeconómicas. Métodos: Estudio trasversal utilizando los datos de la Encuesta Nacional de Salud (ENS) 2006 y 2011. La muestra de la ENS-06 está compuesta por 29.478 personas, mujeres 15.019; hombres 14.459, y la del 2011 por 20.884 personas, mujeres 10.696; hombres 10.188. Variables: sexo, edad, grupos de alimentos, frecuencia de consumo, clase social (clase I, II y III hacen referencia a trabajos no manuales, clase IV y V trabajos manuales) y nivel de estudios. Se calculó el Índice de Alimentación Saludable (IASE) a partir de los grupos de alimentos, frecuencia de consumo y recomendaciones dietéticas (SENC, 2004). El IASE clasifica la alimentación en: saludable, necesita cambios y poco saludable. Se calculó la tasa de variación entre los dos años y se realizó un contraste de proporciones. Se utilizó el programa Excel y el paquete estadístico SPSS 20.0. Resultados: La prevalencia de hombres con alimentación saludable ha aumentado 7,6% respecto al 2006 (p-valor = 0,001), mientras que las mujeres con alimentación poco saludable ha aumentado 3,7%. Las personas de 45-64 años con una alimentación poco saludable han aumentado un 42,9% respecto al 2006 (p-valor = 0,001). Sin embargo los jóvenes de 16-24 años con alimentación poco saludable han disminuido un 29,5% (p-valor < 0,001). La población sin estudios con una alimentación poco saludable ha aumentado un 76,5% (p-valor < 0,001). La población con trabajos no manuales (clase I), como directivos de empresas que se alimentan saludablemente ha aumentado 14,3% respecto al 2006 (p-valor = 0,001), y la población con trabajos manuales (clase IV) que se alimenta saludablemente ha disminuido un 9,9%. Conclusiones: Las personas con mejores trabajos no-manuales han mejorado su alimentación, mientras que la población con trabajos manuales con alimentación poco saludable también han aumentado. La crisis económica actual puede estar influyendo en los cambios observados en la calidad de la dieta de la población española.
Resumo:
Antecedentes/Objetivos: La etapa universitaria se caracteriza por cambios en estilos de vida y, la alimentación es uno de los de mayor variación, especialmente en los primeros cursos. El objetivo de este estudio es describir la frecuencia de consumo de alimentos y la calidad de la dieta de los universitarios españoles. Métodos: Estudio observacional, descriptivo, transversal, multicéntrico de estudiantes universitarios de primer año participantes en el proyecto uniHcos. Población de 1363 estudiantes, 72,6% mujeres y 27,4% hombres de 6 universidades españolas. Los participantes respondieron un cuestionario online de frecuencia de consumo de alimentos: A diario; 3-4 veces/semana pero no diario; 1-2 veces/semana; < 1 vez/semana; Nunca/casi-nunca. Para interpretar los resultados los alimentos se categorizaron según guías-dietéticas SENC-2004 en consumo: diario (pasta, pan-cereales, fruta, verduras, lácteos); semanal (carnes, huevos, pescado, legumbres) y ocasional (embutidos, dulces, refrescos con azúcar. A partir de estos datos se calculó el Índice de Alimentación Saludable (IASE) para determinar la calidad de la dieta. Se clasificó en saludable, necesita cambios y poco saludable. Se realizaron estadísticos descriptivos mediante el software estadístico SPSS 20.0. Resultados: El 38,1% de los universitarios consumen frutas a diario, 21,4% verduras, 74,5% lácteos, 60% pan-cereales y 15% pasta. Semanalmente, el 55,3% consumen carne 3-4 veces/semana, 20,7% huevos, 22,2% pescado y 25,5% legumbres. Además, el 13,3%, 22,2% y 10,2% de los universitarios declaran consumir a diario embutido, dulces y refrescos con azúcar respectivamente. Estos resultados van en concomitancia con los del IASE estadísticamente significativos (p-valor < 0,001), donde se muestra que 6,5% de los universitarios se alimentan saludablemente (mujer: 6,9%; hombre: 5,3%), frente a 78% que necesitan cambios (mujer: 76,7%; hombre: 81,3%) y 15,6% que presentan una alimentación poco saludable, siendo mayor en mujeres (16,4%) que en hombres (13,4%). Conclusiones: La alimentación de los universitarios españoles sigue siendo poco saludable y necesitando cambios, como muestran otros estudios en población universitaria. Los patrones alimentarios de consumo semanal de embutidos, dulces, como el de frutas, verduras y pasta, muestra una inversión de la alimentación saludable y, por tanto un problema de salud pública que requiere de atención por ser población que inicia su camino universitario.
Resumo:
La détermination directe des caractéristiques de cisaillement des bétons par des essais universels est un problème qui reste encore une préoccupation majeure des chercheurs. La plupart des études disponibles consistent à appliquer un couple de torsion à un cylindre creux ayant un rapport épaisseur/rayon le plus faible possible. Ceci pour pouvoir élaborer un critère lié au comportement du matériau et non de la structure (Fourd et al. 1982). Cependant, ces essais peuvent présenter des dispersions liées aux problèmes de fragilité à la rupture ou de non homogénéité du matériau au sein de la paroi (Gotuwka et al. 1999). Pour cela, un dispositif expérimental original a été utilisé et qui consiste en la création de deux zones de contrainte nulle par l’emplacement de corps déformables au moment du coulage de l’éprouvette. De nouvelles conditions aux frontières sont créées permettant de transformer la sollicitation de compression en cisaillement plan sur une zone bien déterminée. L’utilisation de cette technique permet la détermination de l’influence de l’inclinaison du plan de rupture sur le comportement du béton en cisaillement. Le dispositif permet d’assurer la perpendicularité NOvEMBRE 2012 5 des génératrices du cylindre ainsi que la répartition et l’homogénéité des contraintes.
Resumo:
Los estudios epidemiológicos realizados hasta la fecha en neonatos hospitalizados son escasos. En España en las unidades neonatales las cifras de prevalencia se mueven entre un 50% en unidades de cuidados intensivos (UCIN) y un 12,5% en unidades de hospitalización. Desde todas las organizaciones de salud, nacionales (GNEAUPP) e internacionales (EPUAP, EWMA, NPUAP) relacionadas con las heridas, se promociona y potencia la seguridad del paciente mediante la prevención de los efectos adversos hospitalarios. Para conseguirlo es necesario dotar a los profesionales sanitarios de herramientas validadas y adaptadas a la edad neonatal que permitan valorar el riesgo de la población hospitalizada. De esta forma los profesionales sanitarios podrán gestionar de forma eficiente los recursos preventivos y trazar planes de cuidados centrados en el neonato. En la actualidad, en España no existe ninguna escala validada específicamente para neonatos. Por tanto, el objetivo principal de nuestro equipo de investigación fue adaptar transculturalmente al contexto español la escala NSRAS original y evaluar la validez y la fiabilidad de la versión en español. En esta ponencia se presentarán los resultados preliminares de la tesis. Método. El estudio se subdividió en tres fases. En la primera fase se realizó la adaptación transcultural de la escala NSRAS original mediante el método de traducción con retrotraducción. Posteriormente entre un grupo de expertos se calculó la validez de contenido mediante el IVC. La versión de la escala adaptada fue evaluada mediante dos fases de estudio multicéntrico observacional analítico en las unidades neonatales de 10 hospitales públicos del Sistema Nacional de Salud. Se evaluó la fiabilidad interobservadores e intraobservadores, la validez de constructo en la segunda fase y en una tercera fase se evaluó la capacidad predictiva y el punto de corte de la versión en español de la escala NSRAS. Resultados. En la primera fase la validez de contenido evaluada obtuvo un IVC de 0,926 [IC95%0,777-0,978]. En la segunda fase, la muestra evaluada fue de 336 neonatos. La consistencia interna mostró un Alfa de Cronbach de 0,794. Y la fiabilidad intraobservadores fue de 0,932 y la fiabilidad interobservadores fue de 0,969. En la tercera fase la muestra evaluada fue de 268 neonatos. El análisis multivariante de la relación entre los factores de riesgo, las medidas preventivas y la presencia de UPP mostró que 3 variables eran significativas: la puntuación NSRAS, la duración del ingreso y el uso de VMNI. Siendo de esta forma la puntuación NSRAS (debido a que activa las medidas preventivas) un factor protector frente a UPP. Es decir, a mayor puntuación de NSRAS, menor riesgo de UPP. La valoración clinicométrica de la puntuación 17 mostró una sensibilidad del 91,18%, una especificidad de 76,5%, un VPN de 36,05% y un VPP de 98,35%. El área bajo la curva ROC fue de 0,8384 en la puntuación 17. Conclusiones. La versión en español de la escala NSRAS es una herramienta válida y fiable para medir el riesgo de UPP en la población neonatal hospitalizada en el contexto español. Los neonatos hospitalizados con una puntuación igual o menor a 17 están en riesgo desarrollar UPP.
Resumo:
Introducción: El baloncesto presenta una gran heterogeneidad antropométrica entre jugadores en relación a la posición de juego. El base suele ser el más bajo del equipo pero también el más rápido. El escolta suele ser similar al base, más bajo, rápido y ágil que el resto. El alero es de una altura intermedia entre los jugadores interiores y exteriores, combina la altura con la velocidad, y el pívot tiene un rol más físico, es el más alto y con mayor masa muscular. El objetivo del estudio es describir el perfil cineantropométrico del equipo cadete masculino del Valencia Basket Club. Material y Métodos: Se han evaluado 20 jugadores de baloncesto cadete masculino (15,35±0,59años). Un antropometrista nivel I tomó las medidas según la metodología de la Society for the Advancement of Kinanthropometry (ISAK). Se calculó la composición corporal según el consenso de cineantropometría del Grupo Español de Cineantropometría (GREC), el somatotipo según Heath-Carter, e índices adiposo-musculares. Resultados: Se observaron diferencias en los valores de peso, talla, pliegues cutáneos y composición corporal, de las variables estudiadas de la muestra total y por posición de juego, siendo los valores menores los de la posición base y mayores en los pívots. Se estableció una tendencia creciente de estos parámetros en el siguiente orden: base, escolta, alero y pívot. Conclusiones: El somatotipo global del jugador de baloncesto cadete del Valencia Basket Club es ectomorfo balanceado. Conocer el perfil cineantropométrico puede beneficiar la elaboración de planes de entrenamiento y nutrición, así como reflejar la evolución y dirigirla hacia las características ligadas al rendimiento óptimo.
Resumo:
Natural anthocyanin pigments/dyes and phenolic copigments/co-dyes form noncovalent complexes, which stabilize and modulate (in particular blue, violet, and red) colors in flowers, berries, and food products derived from them (including wines, jams, purees, and syrups). This noncovalent association and their electronic and optical implications constitute the copigmentation phenomenon. Over the past decade, experimental and theoretical studies have enabled a molecular understanding of copigmentation. This review revisits this phenomenon to provide a comprehensive description of the nature of binding (the dispersion and electrostatic components of π–π stacking, the hydrophobic effect, and possible hydrogen-bonding between pigment and copigment) and of spectral modifications occurring in copigmentation complexes, in which charge transfer plays an important role. Particular attention is paid to applications of copigmentation in food chemistry.
Resumo:
Purpose: There are few studies demonstrating the link between neural oscillations in magnetoencephalography (MEG) at rest and cognitive performance. Working memory is one of the most studied cognitive processes and is the ability to manipulate information on items kept in short-term memory. Heister & al. (2013) showed correlation patterns between brain oscillations at rest in MEG and performance in a working memory task (n-back). These authors showed that delta/theta activity in fronto-parietal areas is related to working memory performance. In this study, we use resting state MEG oscillations to validate these correlations with both of verbal (VWM) and spatial (SWM) working memory, and test their specificity in comparison with other cognitive abilities. Methods: We recorded resting state MEG and used clinical neuropsychological tests to assess working memory performance in 18 volunteers (6 males and 12 females). The other neuropsychological tests of the WAIS-IV were used as control tests to assess the specificity of the correlation patterns with working memory. We calculated means of Power Spectrum Density for different frequency bands (delta, 1-4Hz; theta, 4-8Hz; alpha, 8-13Hz; beta, 13-30Hz; gamma1, 30-59Hz; gamma2, 61-90Hz; gamma3, 90-120Hz; large gamma, 30-120Hz) and correlated MEG power normalised for the maximum in each frequency band at the sensor level with working memory performance. We then grouped the sensors showing a significant correlation by using a cluster algorithm. Results: We found positive correlations between both types of working memory performance and clusters in the bilateral posterior and right fronto-temporal regions for the delta band (r2 =0.73), in the fronto-middle line and right temporal regions for the theta band (r2 =0.63) as well as in the parietal regions for the alpha band (r2 =0.78). Verbal working memory and spatial working memory share a common fronto-parietal cluster of sensors but also show specific clusters. These clusters are specific to working memory, as compared to those obtained for other cognitive abilities and right posterior parietal areas, specially in slow frequencies, appear to be specific to working memory process. Conclusions: Slow frequencies (1-13Hz) but more precisely in delta/theta bands (1-8Hz), recorded at rest with magnetoencephalography, predict working memory performance and support the role of a fronto-parietal network in working memory.
Resumo:
Le cannabis produit de nombreux effets psychologiques et physiologiques sur le corps humain. Les molécules contenues dans cette plante, désignées comme « phytocannabinoïdes », activent un système endogène qu’on appelle le système endocannabinoïde (eCB). Les effets de la consommation de cannabis sur la vision ont déjà été décrits sans cependant de formulation sur les mécanismes sous-jacents. Ces résultats comportementaux suggèrent, malgré tout, la présence de ce système eCB dans le système visuel, et particulièrement dans la rétine. Cette thèse vise donc à caractériser l’expression, la localisation et le rôle du système eCB dans la rétine du singe vervet, une espèce animale ayant un système visuel semblable à celui de l’humain. Nous avons mis au point un protocole expérimental d’immunohistochimie décrit dans l’article apparaissant dans l’Annexe I que nous avons utilisé pour répondre à notre objectif principal. Dans une première série de quatre articles, nous avons ainsi caractérisé l’expression et la localisation de deux récepteurs eCBs reconnus, les récepteurs cannabinoïdes de type 1 (CB1R) et de type 2 (CB2R), et d’un 3e présumé récepteur aux cannabinoïdes, le récepteur GPR55. Dans l’article 1, nous avons démontré que CB1R et une enzyme clé de ce système, la fatty acid amide hydrolase (FAAH), sont exprimés dans les parties centrale et périphérique de la rétine, et abondamment présents dans la fovéa, une région où l’acuité visuelle est maximale. Dans l’article 2, nous avons localisé le CB2R dans des cellules gliales de la rétine : les cellules de Müller et nous avons proposé un modèle sur l’action de cette protéine dans la fonction rétinienne faisant appel à une cascade chimique impliquant les canaux potassiques. Dans l’article 3, nous avons observé le GPR55 exclusivement dans les bâtonnets qui sont responsables de la vision scotopique et nous avons soumis un deuxième modèle de fonctionnement de ce récepteur par le biais d'une modulation des canaux calciques et sodiques des bâtonnets. Vu que ces 3 récepteurs se retrouvent dans des cellules distinctes, nous avons suggéré leur rôle primordial dans l’analyse de l’information visuelle au niveau rétinien. Dans l’article 4, nous avons effectué une analyse comparative de l’expression du système eCB dans la rétine de souris, de toupayes (petits mammifères insectivores qui sont sont considérés comme l’étape intermédiaire entre les rongeurs et les primates) et de deux espèces de singe (le vervet et le rhésus). Ces résultats nous ont menés à présenter une hypothèse évolutionniste quant à l’apparition et à la fonction précise de ces récepteurs. Dans les articles subséquents, nous avons confirmé notre hypothèse sur le rôle spécifique de ces trois récepteurs par l’utilisation de l’électrorétinographie (ERG) après injection intravitréenne d’agonistes et d’antagonistes de ces récepteurs. Nous avons conclu sur leur influence indéniable dans le processus visuel rétinien chez le primate. Dans l’article 5, nous avons établi le protocole d’enregistrement ERG normalisé sur le singe vervet, et nous avons produit un atlas d’ondes ERG spécifique à cette espèce, selon les règles de l’International Society for Clinical Electrophysiology of Vision (ISCEV). Les patrons électrorétinographiques se sont avérés semblables à ceux de l’humain et ont confirmé la similarité entre ces deux espèces. Dans l’article 6, nous avons démontré que le blocage de CB1R ou CB2R entraine une modification de l’électrorétinogramme, tant au niveau photopique que scotopique, ce qui supporte l’implication de ces récepteurs dans la modulation des ondes de l’ERG. Finalement, dans l’article 7, nous avons confirmé le modèle neurochimique proposé dans l’article 3 pour expliquer le rôle fonctionnel de GPR55, en montrant que l’activation ou le blocage de ce récepteur, respectivement par un agoniste (lysophosphatidylglucoside, LPG) ou un antagoniste (CID16020046), entraine soit une augmentation ou une baisse significative de l’ERG scotopique seulement. Ces données, prises ensemble, démontrent que les récepteurs CB1R, CB2R et GPR55 sont exprimés dans des types cellulaires bien distincts de la rétine du singe et ont chacun un rôle spécifique. L’importance de notre travail se manifeste aussi par des applications cliniques en permettant le développement de cibles pharmacologiques potentielles dans le traitement des maladies de la rétine.
Resumo:
Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.