973 resultados para Teoria dos Valores Extremos


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La mayoría de las estructuras de hormigón pretensadas construidas en los últimos 50 años han demostrado una excelente durabilidad cuando su construcción se realiza atendiendo las recomendaciones de un buen diseño así como una buena ejecución y puesta en obra de la estructura. Este hecho se debe en gran parte al temor que despierta el fenómeno de la corrosión bajo tensión típico de las armaduras de acero de alta resistencia. Menos atención se ha prestado a la susceptibilidad a la corrosión bajo tensión de los anclajes de postensado, posiblemente debido a que se han reportado pocos casos de fallos catastróficos. El concepto de Tolerancia al Daño y la Mecánica de la Fractura en estructuras de Ingeniería Civil ha empezado a incorporarse recientemente en algunas normas de diseño y cálculo de estructuras metálicas, sin embargo, aún está lejos de ser asimilado y empleado habitualmente por los ingenieros en sus cálculos cuando la ocasión lo requiere. Este desconocimiento de los aspectos relacionados con la Tolerancia al Daño genera importantes gastos de mantenimiento y reparación. En este trabajo se ha estudiado la aplicabilidad de los conceptos de la Mecánica de la Fractura a los componentes de los sistemas de postensado empleados en ingeniería civil, empleándolo para analizar la susceptibilidad de las armaduras activas frente a la corrosión bajo tensiones y a la pérdida de capacidad portante de las cabezas de anclajes de postensado debido a la presencia de defectos. Con este objeto se han combinado tanto técnicas experimentales como numéricas. Los defectos superficiales en los alambres de pretensado no se presentan de manera aislada si no que existe una cierta continuidad en la dirección axial así como un elevado número de defectos. Por este motivo se ha optado por un enfoque estadístico, que es más apropiado que el determinístico. El empleo de modelos estadísticos basados en la teoría de valores extremos ha permitido caracterizar el estado superficial en alambres de 5,2 mm de diámetro. Por otro lado la susceptibilidad del alambre frente a la corrosión bajo tensión ha sido evaluada mediante la realización de una campaña de ensayos de acuerdo con la actual normativa que ha permitido caracterizar estadísticamente su comportamiento. A la vista de los resultados ha sido posible evaluar como los parámetros que definen el estado superficial del alambre pueden determinar la durabilidad de la armadura atendiendo a su resistencia frente a la corrosión bajo tensión, evaluada mediante los ensayos que especifica la normativa. En el caso de las cabezas de anclaje de tendones de pretensado, los defectos se presentan de manera aislada y tienen su origen en marcas, arañazos o picaduras de corrosión que pueden producirse durante el proceso de fabricación, transporte, manipulación o puesta en obra. Dada la naturaleza de los defectos, el enfoque determinístico es más apropiado que el estadístico. La evaluación de la importancia de un defecto en un elemento estructural requiere la estimación de la solicitación local que genera el defecto, que permite conocer si el defecto es crítico o si puede llegar a serlo, si es que progresa con el tiempo (por fatiga, corrosión, una combinación de ambas, etc.). En este trabajo los defectos han sido idealizados como grietas, de manera que el análisis quedara del lado de la seguridad. La evaluación de la solicitación local del defecto ha sido calculada mediante el empleo de modelos de elementos finitos de la cabeza de anclaje que simulan las condiciones de trabajo reales de la cabeza de anclaje durante su vida útil. A partir de estos modelos numéricos se ha analizado la influencia en la carga de rotura del anclaje de diversos factores como la geometría del anclaje, las condiciones del apoyo, el material del anclaje, el tamaño del defecto su forma y su posición. Los resultados del análisis numérico han sido contrastados satisfactoriamente mediante la realización de una campaña experimental de modelos a escala de cabezas de anclaje de Polimetil-metacrilato en los que artificialmente se han introducido defectos de diversos tamaños y en distintas posiciones. ABSTRACT Most of the prestressed concrete structures built in the last 50 years have demonstrated an excellent durability when they are constructed in accordance with the rules of good design, detailing and execution. This is particularly true with respect to the feared stress corrosion cracking, which is typical of high strength prestressing steel wires. Less attention, however, has been paid to the stress corrosion cracking susceptibility of anchorages for steel tendons for prestressing concrete, probably due to the low number of reported failure cases. Damage tolerance and fracture mechanics concepts in civil engineering structures have recently started to be incorporated in some design and calculation rules for metallic structures, however it is still far from being assimilated and used by civil engineers in their calculations on a regular basis. This limited knowledge of the damage tolerance basis could lead to significant repair and maintenance costs. This work deals with the applicability of fracture mechanics and damage tolerance concepts to the components of prestressed systems, which are used in civil engineering. Such concepts have been applied to assess the susceptibility of the prestressing steel wires to stress corrosion cracking and the reduction of load bearing capability of anchorage devices due to the presence of defects. For this purpose a combination of experimental work and numerical techniques have been performed. Surface defects in prestressing steel wires are not shown alone, though a certain degree of continuity in the axial direction exist. A significant number of such defects is also observed. Hence a statistical approach was used, which is assumed to be more appropriate than the deterministic approach. The use of statistical methods based in extreme value theories has allowed the characterising of the surface condition of 5.2 mm-diameter wires. On the other hand the stress corrosion cracking susceptibility of the wire has been assessed by means of an experimental testing program in line with the current regulations, which has allowed statistical characterisasion of their performances against stress corrosion cracking. In the light of the test results, it has been possible to evaluate how the surface condition parameters could determine the durability of the active metal armour regarding to its resistance against stress corrosion cracking assessed by means of the current testing regulations. In the case of anchorage devices for steel tendons for prestressing concrete, the damage is presented as point defects originating from dents, scratches or corrosion pits that could be produced during the manufacturing proccess, transport, handling, assembly or use. Due to the nature of these defects, in this case the deterministic approach is more appropriate than the statistical approach. The assessment of the relevancy of defect in a structural component requires the computation of the stress intensity factors, which in turn allow the evaluation of whether the size defect is critical or could become critical with the progress of time (due to fatigue, corrosion or a combination of both effects). In this work the damage is idealised as tiny cracks, a conservative hypothesis. The stress intensity factors have been calculated by means of finite element models of the anchorage representing the real working conditions during its service life. These numeric models were used to assess the impact of some factors on the rupture load of the anchorage, such the anchorage geometry, material, support conditions, defect size, shape and its location. The results from the numerical analysis have been succesfully correlated against the results of the experimental testing program of scaled models of the anchorages in poly-methil methacrylate in which artificial damage in several sizes and locations were introduced.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La estimación de caudales resulta fundamental en el diseño de infraestructuras, obras hidráulicas y en la planificación de usos de suelo. Con frecuencia no se encuentran disponibles estaciones de aforo en la zona de estudio, y los modelos hidrometeorológicos se convierten en una herramienta imprescindible para la estimación de caudales. Estos modelos requieren a su vez el dato de inten- sidad máxima anual para una duración y período de retorno o una ley IDF. Las curvas IDF actualmente utilizadas en España fueron propuestas en los años setenta por lo que parece adecuado plantear una actualización tanto de los registros y de las nuevas estaciones disponibles como de la metodología, incorporando nuevas técnicas al estudio de esta variable. En este trabajo se presentan los resultados de esta actualización, en el que se ha utilizado el méto- do de regionalización del tipo índice de avenida para el análisis de frecuencias de intensidades máximas. Este método proporciona estimas más robustas que los métodos tradicionales, siendo esta propiedad especialmente importante en el caso de valores extremos, en los que las series son cortas, y cuando se requieran estimaciones de bajas frecuencias (altos períodos de retorno).Para el ajuste se ha utilizado la función SQRT-ET máx frente a la función de distribución Gumbel actualmente utilizada – pues presentando esta última un coeficiente de asimetría fijo de 1,14, subestima los cuantiles de manera sistemática al menos en el área de influencia mediterránea. Los autores desarrollan una nueva metodología para extender los resultados obtenidos en el análisis regional al resto del territorio español, proponiendo dos funciones, una que relaciona la intensidad con el período de retorno y otra que relaciona esta variable con la duración, de manera que, finalmente, se puede obtener la intensidad máxima para una duración y período de retorno en cualquier punto de la España peninsular. Dado el carácter práctico de la investigación, los resultados se presentan en soporte informático, y se ha diseñado una aplicación gis, MAXIN, de libre difusión, que está disponible en: http://www.for estales.upm.es/hidraulica/paginas/programas/programas.htm

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente Tesis plantea una metodología de análisis estadístico de roturas de tubería en redes de distribución de agua, que analiza la relación entre las roturas y la presión de agua y que propone la implantación de una gestión de presiones que reduzca el número de roturas que se producen en dichas redes. Las redes de distribución de agua se deterioran y una de sus graves consecuencias es la aparición de roturas frecuentes en sus tuberías. Las roturas llevan asociados elevados costes sociales, económicos y medioambientales y es por ello por lo que las compañías gestoras del agua tratan de reducirlas en la medida de lo posible. Las redes de distribución de agua se pueden dividir en zonas o sectores que facilitan su control y que pueden ser independientes o aislarse mediante válvulas, como ocurre en las redes de países más desarrollados, o pueden estar intercomunicados hidráulicamente. La implantación de una gestión de presiones suele llevarse a cabo a través de las válvulas reductoras de presión (VPR), que se instalan en las cabeceras de estos sectores y que controlan la presión aguas abajo de la misma, aunque varíe su caudal de entrada. Los métodos más conocidos de la gestión de presiones son la reducción de presiones, que es el control más habitual, el mantenimiento de la presión, la prevención y/o alivio de los aumentos repentinos de presión y el establecimiento de un control por alturas. A partir del año 2005 se empezó a reconocer el efecto de la gestión de presiones sobre la disminución de las roturas. En esta Tesis, se sugiere una gestión de presiones que controle los rangos de los indicadores de la presión de cabecera que más influyan en la probabilidad de roturas de tubería. Así, la presión del agua se caracteriza a través de indicadores obtenidos de la presión registrada en la cabecera de los sectores, debido a que se asume que esta presión es representativa de la presión de operación de todas las tuberías porque las pérdidas de carga son relativamente bajas y las diferencias topográficas se tienen en cuenta en el diseño de los sectores. Y los indicadores de presión, que se pueden definir como el estadístico calculado a partir de las series de la presión de cabecera sobre una ventana de tiempo, pueden proveer la información necesaria para ayudar a la toma de decisiones a los gestores del agua con el fin de reducir las roturas de tubería en las redes de distribución de agua. La primera parte de la metodología que se propone en esta Tesis trata de encontrar los indicadores de presión que influyen más en la probabilidad de roturas de tuberías. Para conocer si un indicador es influyente en la probabilidad de las roturas se comparan las estimaciones de las funciones de distribución acumulada (FDAs) de los indicadores de presiones, considerando dos situaciones: cuando se condicionan a la ocurrencia de una rotura (suceso raro) y cuando se calculan en la situación normal de operación (normal operación). Por lo general, las compañías gestoras cuentan con registros de roturas de los años más recientes y al encontrarse las tuberías enterradas se complica el acceso a la información. Por ello, se propone el uso de funciones de probabilidad que permiten reducir la incertidumbre asociada a los datos registrados. De esta forma, se determinan las funciones de distribución acumuladas (FDAs) de los valores del indicador de la serie de presión (situación normal de operación) y las FDAs de los valores del indicador en el momento de ocurrencia de las roturas (condicionado a las roturas). Si las funciones de distribución provienen de la misma población, no se puede deducir que el indicador claramente influya en la probabilidad de roturas. Sin embargo, si se prueba estadísticamente que las funciones proceden de la misma población, se puede concluir que existe una relación entre el indicador analizado y la ocurrencia de las roturas. Debido a que el número de valores del indicador de la FDA condicionada a las roturas es mucho menor que el número de valores del indicador de la FDA incondicional a las roturas, se generan series aleatorias a partir de los valores de los indicadores con el mismo número de valores que roturas registradas hay. De esta forma, se comparan las FDAs de series aleatorias del indicador con la FDA condicionada a las roturas del mismo indicador y se deduce si el indicador es influyente en la probabilidad de las roturas. Los indicadores de presión pueden depender de unos parámetros. A través de un análisis de sensibilidad y aplicando un test estadístico robusto se determina la situación en la que estos parámetros dan lugar a que el indicador sea más influyente en la probabilidad de las roturas. Al mismo tiempo, los indicadores se pueden calcular en función de dos parámetros de cálculo que se denominan el tiempo de anticipación y el ancho de ventana. El tiempo de anticipación es el tiempo (en horas) entre el final del periodo de computación del indicador de presión y la rotura, y el ancho de ventana es el número de valores de presión que se requieren para calcular el indicador de presión y que es múltiplo de 24 horas debido al comportamiento cíclico diario de la presión. Un análisis de sensibilidad de los parámetros de cálculo explica cuándo los indicadores de presión influyen más en la probabilidad de roturas. En la segunda parte de la metodología se presenta un modelo de diagnóstico bayesiano. Este tipo de modelo forma parte de los modelos estadísticos de prevención de roturas, parten de los datos registrados para establecer patrones de fallo y utilizan el teorema de Bayes para determinar la probabilidad de fallo cuando se condiciona la red a unas determinadas características. Así, a través del teorema de Bayes se comparan la FDA genérica del indicador con la FDA condicionada a las roturas y se determina cuándo la probabilidad de roturas aumenta para ciertos rangos del indicador que se ha inferido como influyente en las roturas. Se determina un ratio de probabilidad (RP) que cuando es superior a la unidad permite distinguir cuándo la probabilidad de roturas incrementa para determinados intervalos del indicador. La primera parte de la metodología se aplica a la red de distribución de la Comunidad de Madrid (España) y a la red de distribución de Ciudad de Panamá (Panamá). Tras el filtrado de datos se deduce que se puede aplicar la metodología en 15 sectores en la Comunidad de Madrid y en dos sectores, llamados corregimientos, en Ciudad de Panamá. Los resultados demuestran que en las dos redes los indicadores más influyentes en la probabilidad de las roturas son el rango de la presión, que supone la diferencia entre la presión máxima y la presión mínima, y la variabilidad de la presión, que considera la propiedad estadística de la desviación típica. Se trata, por tanto, de indicadores que hacen referencia a la dispersión de los datos, a la persistencia de la variación de la presión y que se puede asimilar en resistencia de materiales a la fatiga. La segunda parte de la metodología se ha aplicado a los indicadores influyentes en la probabilidad de las roturas de la Comunidad de Madrid y se ha deducido que la probabilidad de roturas aumenta para valores extremos del indicador del rango de la presión y del indicador de la variabilidad de la presión. Finalmente, se recomienda una gestión de presiones que limite los intervalos de los indicadores influyentes en la probabilidad de roturas que incrementen dicha probabilidad. La metodología propuesta puede aplicarse a otras redes de distribución y puede ayudar a las compañías gestoras a reducir el número de fallos en el sistema a través de la gestión de presiones. This Thesis presents a methodology for the statistical analysis of pipe breaks in water distribution networks. The methodology studies the relationship between pipe breaks and water pressure, and proposes a pressure management procedure to reduce the number of breaks that occur in such networks. One of the manifestations of the deterioration of water supply systems is frequent pipe breaks. System failures are one of the major challenges faced by water utilities, due to their associated social, economic and environmental costs. For all these reasons, water utilities aim at reducing the problem of break occurrence to as great an extent as possible. Water distribution networks can be divided into areas or sectors, which facilitates the control of the network. These areas may be independent or isolated by valves, as it usually happens in developing countries. Alternatively, they can be hydraulically interconnected. The implementation of pressure management strategies is usually carried out through pressure-reducing valves (PRV). These valves are installed at the head of the sectors and, although the inflow may vary significantly, they control the downstream pressure. The most popular methods of pressure management consist of pressure reduction, which is the common form of control, pressure sustaining, prevention and/or alleviation of pressure surges or large variations in pressure, and level/altitude control. From 2005 onwards, the effects of pressure management on burst frequencies have become more widely recognized in the technical literature. This thesis suggests a pressure management that controls the pressure indicator ranges most influential on the probability of pipe breaks. Operating pressure in a sector is characterized by means of a pressure indicator at the head of the DMA, as head losses are relatively small and topographical differences were accounted for at the design stage. The pressure indicator, which may be defined as the calculated statistic from the time series of pressure head over a specific time window, may provide necessary information to help water utilities to make decisions to reduce pipe breaks in water distribution networks. The first part of the methodology presented in this Thesis provides the pressure indicators which have the greatest impact on the probability of pipe breaks to be determined. In order to know whether a pressure indicator influences the probability of pipe breaks, the proposed methodology compares estimates of cumulative distribution functions (CDFs) of a pressure indicator through consideration of two situations: when they are conditioned to the occurrence of a pipe break (a rare event), and when they are not (a normal operation). Water utilities usually have a history of failures limited to recent periods of time, and it is difficult to have access to precise information in an underground network. Therefore, the use of distribution functions to address such imprecision of recorded data is proposed. Cumulative distribution functions (CDFs) derived from the time series of pressure indicators (normal operation) and CDFs of indicator values at times coincident with a reported pipe break (conditioned to breaks) are compared. If all estimated CDFs are drawn from the same population, there is no reason to infer that the studied indicator clearly influences the probability of the rare event. However, when it is statistically proven that the estimated CDFs do not come from the same population, the analysed indicator may have an influence on the occurrence of pipe breaks. Due to the fact that the number of indicator values used to estimate the CDF conditioned to breaks is much lower in comparison with the number of indicator values to estimate the CDF of the unconditional pressure series, and that the obtained results depend on the size of the compared samples, CDFs from random sets of the same size sampled from the unconditional indicator values are estimated. Therefore, the comparison between the estimated CDFs of random sets of the indicator and the estimated CDF conditioned to breaks allows knowledge of if the indicator is influential on the probability of pipe breaks. Pressure indicators depend on various parameters. Sensitivity analysis and a robust statistical test allow determining the indicator for which these parameters result most influential on the probability of pipe breaks. At the same time, indicators can be calculated according to two model parameters, named as the anticipation time and the window width. The anticipation time refers to the time (hours) between the end of the period for the computation of the pressure indicator and the break. The window width is the number of instantaneous pressure values required to calculate the pressure indicator and is multiple of 24 hours, as water pressure has a cyclical behaviour which lasts one day. A sensitivity analysis of the model parameters explains when the pressure indicator is more influential on the probability of pipe breaks. The second part of the methodology presents a Bayesian diagnostic model. This kind of model belongs to the class of statistical predictive models, which are based on historical data, represent break behavior and patterns in water mains, and use the Bayes’ theorem to condition the probability of failure to specific system characteristics. The Bayes’ theorem allows comparing the break-conditioned FDA and the unconditional FDA of the indicators and determining when the probability of pipe breaks increases for certain pressure indicator ranges. A defined probability ratio provides a measure to establish whether the probability of breaks increases for certain ranges of the pressure indicator. The first part of the methodology is applied to the water distribution network of Madrid (Spain) and to the water distribution network of Panama City (Panama). The data filtering method suggests that the methodology can be applied to 15 sectors in Madrid and to two areas in Panama City. The results show that, in both systems, the most influential indicators on the probability of pipe breaks are the pressure range, which is the difference between the maximum pressure and the minimum pressure, and pressure variability, referred to the statistical property of the standard deviation. Therefore, they represent the dispersion of the data, the persistence of the variation in pressure and may be related to the fatigue in material resistance. The second part of the methodology has been applied to the influential indicators on the probability of pipe breaks in the water distribution network of Madrid. The main conclusion is that the probability of pipe breaks increases for the extreme values of the pressure range indicator and of the pressure variability indicator. Finally, a pressure management which limits the ranges of the pressure indicators influential on the probability of pipe breaks that increase such probability is recommended. The methodology presented here is general, may be applied to other water distribution networks, and could help water utilities reduce the number of system failures through pressure management.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tese de mestrado em Matemática Aplicada à Economia e Gestão, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho tem como objetivo a comparação da intensidade, frequência e distribuição de um conjunto de índices de estabilidade atmosférica simulados entre o clima histórico (1986-2005) e um cenário climático (2081-2100) na Península Ibérica. Considerou-se o cenário de emissão de gases RCP8.5. Estes índices avaliam a instabilidade atmosférica que é um elemento fundamental e percursor no desenvolvimento de tempestades. Através dos seus valores limite, é possível estimar alterações na probabilidade de ocorrência de eventos extremos que se poderão desenvolver no clima futuro, relativamente ao histórico. Primeiro, utilizou-se um conjunto de simulações do WRF com dois forçamentos: reanálises do ERA-Interim e um modelo do Max Planck Institute. De seguida, foram calculados diferentes índices de estabilidade. A validação do modelo consistiu no cálculo das médias sazonais, da sua diferença e das respetivas PDFs dos índices simulados pelo WRF-MPI e WRF-ERA. Verifica-se uma sobrestimação do CAPE, SHR6km (vento de corte) e SWEAT simulados pelo WRF-MPI. No entanto, nos campos dos índices simulados pelos dois forçamentos para o período histórico, verifica-se que os padrões espaciais são semelhantes apesar das diferenças na intensidade. Como as alterações climáticas dos índices são avaliadas através de diferenças, estas discrepâncias não invalidam a utilização do modelo no futuro. Posteriormente foram estudadas as alterações climáticas dos índices através da comparação entre o clima histórico e futuro. Estima-se um aumento da intensidade do CAPE e uma diminuição (aumento) da frequência de eventos com intensidade reduzida (elevada). Estas alterações são robustas no verão e outono. Também é esperado um aumento da intensidade do SHR6km na primavera e inverno tal como da frequência de SHR6km elevado nestas estações e uma redução da intensidade e da frequência de eventos com SHR6km elevado nas restantes. Haverá um possível aumento robusto da intensidade do SWEAT no verão e outono, bem como da frequência destes valores. Concluindo, será provável um aumento da frequência dos ambientes favoráveis ao desenvolvimento de tempestades, devido a uma maior intensidade e probabilidade de ocorrência de valores extremos do CAPE e do SWEAT. No entanto, a redução do SHR6km, poderá diminuir a organização das tempestades e o seu tempo de vida.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tese (doutorado)—Universidade de Brasília, Departamento de Economia, Brasília, 2016.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O conhecimento dos atributos químicos dos solos é um fator de grande relevância, visando a utilização racional de corretivos e fertilizante. Assim, neste trabalho estão sendo caracterizados ambientes da região Norte, Noroeste e Serrana do Estado do Rio de Janeiro, para fins de estimativas de carbono orgânico (Corg), capacidade de troca catiônica (CTC), pH em água, alumínio trocável (Al+3), nitrogênio, saturação por bases (V%) e fósforo. Tendo como objetivo específico à análise exploratória dos dados de fertilidade do solo das três regiões mais produtivas do Estado do Rio de Janeiro. Neste projeto foram usados os dados de solos sistematizados pela Embrapa Solos (Santos et al., 2005). Os solos analisados apresentam baixo pH em água e altos teores em Al+3, bem como baixas concentrações de P, N e C orgânico. Os valores de CTC e V (%) foram considerados bons para a fertilidade do solo. A análise exploratória dos dados identificou outliers e valores extremos, pela análise do sumário estatístico e dos gráficos box-plot das variáveis. A retirada destes últimos melhorou muito a consistência do conjunto remanescente, o que permite antever uma melhor qualidade dos resultados de interpolações por krigagem a serem realizadas e o próprio mapeamento digital da fertilidade, de acordo com McBratney et al. (2003). A análise exploratória mostrou-se útil para as próximas fases de mapeamento digital de solo-paisagem e a recomendação de adubação a ser proposta.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste trabalho foi predizer a fertilidade do solo no polo agrícola do Estado do Rio de Janeiro, por meio da modelagem solo x paisagem. A área de estudo compreendeu as regiões mais produtivas do Estado do Rio de Janeiro: Norte, Noroeste e Serrana. Características químicas do solo ? pH em H2O e capacidade de troca catiônica (CTC) ? e ambientais ? elevação, plano de curvatura, perfil de curvatura, índice de umidade, aspecto e declividade do terreno, além de tipos de solos, índice de vegetação normalizada (NDVI), imagens Landsat 7 e litologia ? foram utilizadas como variáveis preditoras. A análise exploratória dos dados identificou valores extremos, os quais foram expurgados, na preparação para a análise por regressão linear múltipla (RLM). Aos resultados da RLM, foram adicionados os resultados de krigagem dos resíduos da regressão, com uma técnica de mapeamento digital de solos (MDS) denominada regressão-krigagem. Na região Serrana, as variáveis ambientais explicaram as variáveis químicas. A variável NDVI foi importante nas três regiões, o que evidencia a importância da cobertura vegetal para a predição da fertilidade do solo. Em geral, os solos analisados apresentaram baixo pH. Os valores de CTC, nas regiões estudadas, estão dentro do intervalo considerado bom para a fertilidade do solo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

El presente trabajo describe los diferentes componentes del programa CFA88 (Consolidated Frequency Analysis Package, versión 1). El programa le permite al usuario:1) ajustar cinco distribuciones de frecuencia( valor generalizado extremo, lognormal de tres parámetros, log Pearson tipo III, Wakeby y Weibull); 2) evaluar a través de pruebas no paramétricas los supuestos asociados al análisis de frecuencia, a saber: independencia, homogeneidad, aleatoriedad y tendencia en el tiempo;3) detectar valores <<fuera de lo común>> (low and high outliers); y 4) analizar series hidrometeorologicas con ceros, información histórica y eventos fuera de lo común.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivo y metodología: Dentro del perfil buscado por la Universidad Católica Argentina para sus Ingenieros Industriales se encuentran, entre otras, las siguientes cualidades distintivas: “Entenderá que la Ingeniería es una profesión creativa e innovadora que, combinando la ciencia y la tecnología, junto con la economía, la administración y la sociología, se propone tratar y resolver problemas integrando todos los elementos involucrados y buscando, dentro de un marco ético, la mejor solución en beneficio de la calidad de vida del hombre y de la sociedad.”/.../ El análisis de este caso se enmarcara dentro de la Teoría Crítica de la Tecnología y el concepto de “código técnico”, observando cómo estos códigos actúan de manera oculta o invisible, estratificando valores e intereses en normas, reglas, criterios y procedimientos. En cuanto a este último punto, se presentará el Value Sensitive Design (VSD) o Diseño por Valores, una metodología de diseño que actualmente asoma como una luz de esperanza para la integración de los valores a los desarrollos tecnológicos e ingenieriles...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação se insere nos estudos de Linguística e é vinculada à Análise Crítica do Discurso (FAIRCLOUGH, 1989, 2003) e à Linguística Sistêmico-Funcional (HALLIDAY, 1970, 1973), investigando o que é a qualidade literária para os internautas que interagem em fóruns de discussão do Orkut, à luz da Teoria da Valoração (MARTIN ; WHITE, 2005). De acordo com as categorias que abrangem o subsistema da Atitude da Teoria da Valoração (MARTIN ; WHITE, 2005), analisa-se como os leitores internautas se posicionam sobre a questão da qualidade literária e a ideologia que perpassa seus discursos. O conceito de ideologia adotado é o proposto por Thompson (2009), para quem o conceito deve ser compreendido a partir da noção de hegemonia e poder, ou seja, a ideologia necessariamente estabelece e sustenta relações de dominação, reproduzindo a ordem social que favorece indivíduos e grupos dominantes.O corpus desta pesquisa é composto de três amostras colhidas entre 15/07/2009 e 05/01/2010 correspondentes a uma discussão iniciada em comunidade relacionada a assuntos literários. A AMOSTRA 1 refere-se ao tópico Leitura difícil é sinal de qualidade?, da comunidade Literatura; a AMOSTRA 2, se refere ao tópico Qualidade do texto literário, da comunidade Discutindo... literatura e, por fim, a AMOSTRA 3 representa o tópico O que é um bom texto literário para você, também da comunidade Literatura. Cada discussão possui congruências e divergências quanto às representações sobre literatura e essas foram também analisadas. Não obstante, o que nos interessa é perceber como as ideologias perpassam seus discursos de acordo com os valores que os internautas atribuem a aspectos do texto literário. Foram escolhidos fóruns de discussão online do Orkut porque as interações em redes sociais constituem elemento novo das práticas sociais e, portanto, relevantes pontos de apoio para a investigação da criação de sentidos sobre o conceito de boa literatura. Investigar como a literatura, objeto de estudo acadêmico, é analisada em tais espaços cibernéticos é instigante, por não ser usual. Os resultados obtidos nessa pesquisa sugerem que o internauta reproduz o discurso acadêmico hegemônico acerca da qualidade literária ao debater a qualidade intrínseca do texto literário com a ressalva de manifestar seu contentamento ou descontentamento acerca de determinados textos literários e escritores, dado novo que revela uma característica deste espaço não institucional de discussão, em que os internautas se sentem à vontade para manifestar sua opinião

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho analisa a teoria da assunção do risco, que se originou no Direito francês com influência do commow Law, aplicável na atividade desportiva à luz dos princípios e valores do Direito Civil-Constitucional. O risco é estudado a partir dos conceitos de liberdade e dignidade, demonstrando que a liberdade não é absoluta, limitada pela dignidade. Nesta acepção, surge o risco, inerente à natureza humana, que é fruto da liberdade, portanto, também, pela dignidade. Na atividade desportiva, o risco é inseparável, o atleta na busca pela superação o assume naturalmente. Assim, a teoria da assunção do risco só se legitima, se presentes o respeito aos valores e princípios constitucionais, principalmente, a dignidade e aceitabilidade social, fatores vitais no estudo dos danos causados na prática desportiva. Por fim, se legítima a aceitação do risco, haverá exclusão do nexo causal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A hipótese de doutoramento aqui proposta consiste na necessidade teórica de repensar o conceito de irresponsabilidade organizada, oriundo da obra do sociólogo alemão Ulrich Beck, a partir da realidade do Município de Teresópolis, localizado na Região Serrana do Estado do Rio de Janeiro, cenário de uma tragédia ocorrida em janeiro de 2011. Serão ainda considerados os debates envolvendo a revogação do segundo Código Florestal pela Lei 12.651/2012, especialmente os relativos às áreas de preservação permanente nos topos de morro, faixas marginais de proteção e encostas com declividade superior a 45 graus. A hipótese da presente tese é que o conceito de irresponsabilidade organizada seja repensado diante da necessidade de explicar a organização jurídica de riscos reconhecidos a partir de processos políticos. Inclui-se na hipótese a análise de situações nas quais, mesmo ante a existência de normas jurídicas validamente editadas e aplicáveis, persiste a omissão na gerência dos riscos por elas disciplinados. A pesquisa trabalhará com a análise crítica da teoria da sociedade de risco e do conceito em questão, considerando estudos, relatórios e demais documentos referentes à tragédia teresopolitana e à edição da atual legislação florestal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objeto deste estudo são as repercussões do estoma intestinal por Câncer na promoção da saúde sexual de mulheres. A investigação sobre a promoção da saúde sexual da mulher com estoma torna-se instigante frente à condição imposta pela cirurgia, em interface com os constructos sócio-histórico-culturais relacionados aos papéis sociais, os quais podem influenciar na forma como as mulheres promovem sua saúde sexual. Esta pesquisa teve por objetivos: conhecer os aspectos biológicos, psicológicos e socioculturais anteriores e posteriores à confecção do estoma intestinal definitivo em mulheres; analisar as repercussões do estoma na promoção da saúde sexual de mulheres; e propor estratégias de cuidar de enfermagem às mulheres com estoma para autopromoção da saúde sexual, considerando a Teoria de Promoção da Saúde de Nola Pender. Trata-se de uma pesquisa com abordagem qualitativa, tendo como sujeitos 14 mulheres com estomia intestinal definitiva, após terem sido acometidas por Câncer. O referencial teórico-metodológico utilizado foi a Promoção da Saúde de Nola Pender, o qual, a partir da identificação dos fatores biopsicossociais e comportamentais, busca incentivar atitudes saudáveis, visando ao bem-estar como proposta de promoção da saúde. O cenário foi o Centro Municipal de Reabilitação Oscar Clark, localizado no município do Rio de Janeiro. Para a produção dos dados foi realizada a técnica de entrevista semiestruturada, utilizando um roteiro pré-elaborado, com base no diagrama de Nola Pender. A análise de conteúdo dos discursos obtidos permitiu criar três categorias: a) perfil sociocultural, psicobiológico e comportamental de mulheres com estoma: uma caracterização antes e após a cirurgia; b) conhecimentos, influências e sentimentos da mulher com estoma sobre a promoção da saúde sexual após a cirurgia; c) resultado do comportamento para promoção da saúde sexual após o estoma: um processo em construção. Os fatores determinantes do comportamento para a promoção da saúde sexual envolveram as condições biológicas, especialmente em decorrência dos efeitos colaterais da radioterapia, além de um processo complexo permeado por fatores sociais, incluindo o estigma, as desigualdades de gênero, as relações de poder, dentre outros valores que norteiam o comportamento humano. As mudanças experienciadas requereram das mulheres o desenvolvimento de estratégias de enfrentamento à nova situação, com a necessidade de adaptações comportamentais para a vivência e promoção da saúde sexual. Tais adaptações refletiram em um aprendizado pontual, da ordem do vivido, o qual perpassou pela falta de orientação em saúde e pelas questões socioculturais. Com isso, a vivência da sexualidade foi considerada a principal barreira para a promoção da saúde sexual. Já os comportamentos direcionados à prevenção de agravos à saúde sexual foram percebidos como as ações que mais proporcionam benefícios. Neste cenário, a consulta de enfermagem apresenta-se como um instrumento relevante na assistência clínica-educativa. Este estudo contribui para um aprofundamento do conhecimento acerca da promoção da saúde sexual de mulheres com estoma e sinaliza propostas para a atuação do enfermeiro na assistência a essas pessoas.