971 resultados para Generalized extreme value distribution
Resumo:
Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.
Resumo:
The dissertation goal is to quantify the tail risk premium embedded into hedge funds' returns. Tail risk is the probability of extreme large losses. Although it is a rare event, asset pricing theory suggests that investors demand compensation for holding assets sensitive to extreme market downturns. By de nition, such events have a small likelihood to be represented in the sample, what poses a challenge to estimate the e ects of tail risk by means of traditional approaches such as VaR. The results show that it is not su cient to account for the tail risk stemming from equities markets. Active portfolio management employed by hedge funds demand a speci c measure to estimate and control tail risk. Our proposed factor lls that void inasmuch it presents explanatory power both over the time series as well as the cross-section of funds' returns.
Resumo:
In general, an inverse problem corresponds to find a value of an element x in a suitable vector space, given a vector y measuring it, in some sense. When we discretize the problem, it usually boils down to solve an equation system f(x) = y, where f : U Rm ! Rn represents the step function in any domain U of the appropriate Rm. As a general rule, we arrive to an ill-posed problem. The resolution of inverse problems has been widely researched along the last decades, because many problems in science and industry consist in determining unknowns that we try to know, by observing its effects under certain indirect measures. Our general subject of this dissertation is the choice of Tykhonov´s regulaziration parameter of a poorly conditioned linear problem, as we are going to discuss on chapter 1 of this dissertation, focusing on the three most popular methods in nowadays literature of the area. Our more specific focus in this dissertation consists in the simulations reported on chapter 2, aiming to compare the performance of the three methods in the recuperation of images measured with the Radon transform, perturbed by the addition of gaussian i.i.d. noise. We choosed a difference operator as regularizer of the problem. The contribution we try to make, in this dissertation, mainly consists on the discussion of numerical simulations we execute, as is exposed in Chapter 2. We understand that the meaning of this dissertation lays much more on the questions which it raises than on saying something definitive about the subject. Partly, for beeing based on numerical experiments with no new mathematical results associated to it, partly for being about numerical experiments made with a single operator. On the other hand, we got some observations which seemed to us interesting on the simulations performed, considered the literature of the area. In special, we highlight observations we resume, at the conclusion of this work, about the different vocations of methods like GCV and L-curve and, also, about the optimal parameters tendency observed in the L-curve method of grouping themselves in a small gap, strongly correlated with the behavior of the generalized singular value decomposition curve of the involved operators, under reasonably broad regularity conditions in the images to be recovered
Resumo:
Pós-graduação em Engenharia de Produção - FEB
Resumo:
Analisi dell'incidenza di porosità interne sul limite di fatica di particolari getti di ghisa. Studio sviluppato grazie alla tecnica probabilistica "extreme value analysis".
Resumo:
La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.
Resumo:
In recent decades, extremely hazardous windstorms have caused enormous losses to buildings, infrastructure and forests in Switzerland. This has increased societal and scientific interest in the intensity and frequency of historical high-impact storms. However, high-resolution wind data and damage statistics mostly span recent decades only. For this study, we collected quantitative (e.g., volumes of windfall timber, losses relating to buildings) and descriptive (e.g., forestry or insurance reports) information on the impact of historical windstorms. To define windstorm severity, normalized and declustered quantitative data were processed by extreme value statistics. Descriptive information was classified using a conceptual guideline. Validation with independent damage information, as well as comparison with wind measurements and a reanalysis, indicates that the most hazardous winter storms are captured, while too few moderate windstorms are detected. Strong storms in the wind measurements and reanalysis are thus added to the catalog. The final catalog encompasses approximately 240 high-impact windstorms in Switzerland since 1859. It features three robust severity classes and contains eight extreme windstorms. Evidence of high winter storm activity in the early and late 20th century compared to the mid-20th century in both damage and wind data indicates a co-variability of hazard and related damage on decadal timescales.
Resumo:
Seventeen sediment samples of Albian-Cenomanian to early Pliocene age from DSDP Hole 530A in the Angola Basin and six sediment samples of early Pliocene to late Pleistocene age from the Walvis Ridge were investigated by organic geochemical methods, including organic carbon determination, Rock-Eval pyrolysis, gas chromatography and combined gas chromatography/mass spectrometry of extractable hydrocarbons, and kerogen microscopy. The organic matter in all samples is strongly influenced by a terrigenous component from the nearby continent. The amount of marine organic matter present usually increases with the total organic carbon content, which reaches an extreme value of more than 10% in a Cenomanian black shale from Hole 530A. At Site 530 the extent of preservation of organic matter in the deep sea sediments is related to mass transport down the continental slope, whereas the high organic carbon contents in the sediments from Site 532 reflect both high bioproductivity in the Benguela upwelling regime and considerable supply of terrigenous organic matter. The maturation level of the organic matter is low in all samples.
Resumo:
La mayoría de las estructuras de hormigón pretensadas construidas en los últimos 50 años han demostrado una excelente durabilidad cuando su construcción se realiza atendiendo las recomendaciones de un buen diseño así como una buena ejecución y puesta en obra de la estructura. Este hecho se debe en gran parte al temor que despierta el fenómeno de la corrosión bajo tensión típico de las armaduras de acero de alta resistencia. Menos atención se ha prestado a la susceptibilidad a la corrosión bajo tensión de los anclajes de postensado, posiblemente debido a que se han reportado pocos casos de fallos catastróficos. El concepto de Tolerancia al Daño y la Mecánica de la Fractura en estructuras de Ingeniería Civil ha empezado a incorporarse recientemente en algunas normas de diseño y cálculo de estructuras metálicas, sin embargo, aún está lejos de ser asimilado y empleado habitualmente por los ingenieros en sus cálculos cuando la ocasión lo requiere. Este desconocimiento de los aspectos relacionados con la Tolerancia al Daño genera importantes gastos de mantenimiento y reparación. En este trabajo se ha estudiado la aplicabilidad de los conceptos de la Mecánica de la Fractura a los componentes de los sistemas de postensado empleados en ingeniería civil, empleándolo para analizar la susceptibilidad de las armaduras activas frente a la corrosión bajo tensiones y a la pérdida de capacidad portante de las cabezas de anclajes de postensado debido a la presencia de defectos. Con este objeto se han combinado tanto técnicas experimentales como numéricas. Los defectos superficiales en los alambres de pretensado no se presentan de manera aislada si no que existe una cierta continuidad en la dirección axial así como un elevado número de defectos. Por este motivo se ha optado por un enfoque estadístico, que es más apropiado que el determinístico. El empleo de modelos estadísticos basados en la teoría de valores extremos ha permitido caracterizar el estado superficial en alambres de 5,2 mm de diámetro. Por otro lado la susceptibilidad del alambre frente a la corrosión bajo tensión ha sido evaluada mediante la realización de una campaña de ensayos de acuerdo con la actual normativa que ha permitido caracterizar estadísticamente su comportamiento. A la vista de los resultados ha sido posible evaluar como los parámetros que definen el estado superficial del alambre pueden determinar la durabilidad de la armadura atendiendo a su resistencia frente a la corrosión bajo tensión, evaluada mediante los ensayos que especifica la normativa. En el caso de las cabezas de anclaje de tendones de pretensado, los defectos se presentan de manera aislada y tienen su origen en marcas, arañazos o picaduras de corrosión que pueden producirse durante el proceso de fabricación, transporte, manipulación o puesta en obra. Dada la naturaleza de los defectos, el enfoque determinístico es más apropiado que el estadístico. La evaluación de la importancia de un defecto en un elemento estructural requiere la estimación de la solicitación local que genera el defecto, que permite conocer si el defecto es crítico o si puede llegar a serlo, si es que progresa con el tiempo (por fatiga, corrosión, una combinación de ambas, etc.). En este trabajo los defectos han sido idealizados como grietas, de manera que el análisis quedara del lado de la seguridad. La evaluación de la solicitación local del defecto ha sido calculada mediante el empleo de modelos de elementos finitos de la cabeza de anclaje que simulan las condiciones de trabajo reales de la cabeza de anclaje durante su vida útil. A partir de estos modelos numéricos se ha analizado la influencia en la carga de rotura del anclaje de diversos factores como la geometría del anclaje, las condiciones del apoyo, el material del anclaje, el tamaño del defecto su forma y su posición. Los resultados del análisis numérico han sido contrastados satisfactoriamente mediante la realización de una campaña experimental de modelos a escala de cabezas de anclaje de Polimetil-metacrilato en los que artificialmente se han introducido defectos de diversos tamaños y en distintas posiciones. ABSTRACT Most of the prestressed concrete structures built in the last 50 years have demonstrated an excellent durability when they are constructed in accordance with the rules of good design, detailing and execution. This is particularly true with respect to the feared stress corrosion cracking, which is typical of high strength prestressing steel wires. Less attention, however, has been paid to the stress corrosion cracking susceptibility of anchorages for steel tendons for prestressing concrete, probably due to the low number of reported failure cases. Damage tolerance and fracture mechanics concepts in civil engineering structures have recently started to be incorporated in some design and calculation rules for metallic structures, however it is still far from being assimilated and used by civil engineers in their calculations on a regular basis. This limited knowledge of the damage tolerance basis could lead to significant repair and maintenance costs. This work deals with the applicability of fracture mechanics and damage tolerance concepts to the components of prestressed systems, which are used in civil engineering. Such concepts have been applied to assess the susceptibility of the prestressing steel wires to stress corrosion cracking and the reduction of load bearing capability of anchorage devices due to the presence of defects. For this purpose a combination of experimental work and numerical techniques have been performed. Surface defects in prestressing steel wires are not shown alone, though a certain degree of continuity in the axial direction exist. A significant number of such defects is also observed. Hence a statistical approach was used, which is assumed to be more appropriate than the deterministic approach. The use of statistical methods based in extreme value theories has allowed the characterising of the surface condition of 5.2 mm-diameter wires. On the other hand the stress corrosion cracking susceptibility of the wire has been assessed by means of an experimental testing program in line with the current regulations, which has allowed statistical characterisasion of their performances against stress corrosion cracking. In the light of the test results, it has been possible to evaluate how the surface condition parameters could determine the durability of the active metal armour regarding to its resistance against stress corrosion cracking assessed by means of the current testing regulations. In the case of anchorage devices for steel tendons for prestressing concrete, the damage is presented as point defects originating from dents, scratches or corrosion pits that could be produced during the manufacturing proccess, transport, handling, assembly or use. Due to the nature of these defects, in this case the deterministic approach is more appropriate than the statistical approach. The assessment of the relevancy of defect in a structural component requires the computation of the stress intensity factors, which in turn allow the evaluation of whether the size defect is critical or could become critical with the progress of time (due to fatigue, corrosion or a combination of both effects). In this work the damage is idealised as tiny cracks, a conservative hypothesis. The stress intensity factors have been calculated by means of finite element models of the anchorage representing the real working conditions during its service life. These numeric models were used to assess the impact of some factors on the rupture load of the anchorage, such the anchorage geometry, material, support conditions, defect size, shape and its location. The results from the numerical analysis have been succesfully correlated against the results of the experimental testing program of scaled models of the anchorages in poly-methil methacrylate in which artificial damage in several sizes and locations were introduced.
Resumo:
El remonte extremo o remonte del 2% es un parámetro clave en la ingeniería costera dado que permite acometer actuaciones en las playas bajo criterios de sostenibilidad económico y socioambiental. Estas actuaciones van desde el diseño de estructuras en el trasdós de la playa a planes de actuación urbanística en la costa tal que se determine adecuadamente los límites de dominio público. El adecuado diseño de estas actuaciones adquiere más relevancia hoy en día debido a las nuevas amenazas que se ponen de relieve debido al cambio climático, y que en el caso concreto de la costa se materializa en inundaciones que provocan pérdidas económicas. Estudios precedentes han realizado ensayos in situ o en modelo físico para la determinación del remonte extremo en playas. Al comparar estas formulaciones la dispersión es alta lo que implica que la precisión en la obtención del remonte no sea suficiente. Esta dispersión se justifica debido al amplio espectro de playas existentes y la alta variabilidad del clima marítimo. Este problema cobra más relevancia debido a las actuaciones preventivas o correctivas a acometer frente al cambio climático bajo un criterio de sostenibilidad. Con el fin de realizar actuaciones sostenibles bajo el contexto actual del probable aumento de inundaciones costeras por cambio climático no deben obtenerse ni magnitudes sobredimensionadas con el consecuente consumo de recursos y afección a las actividades económicas, ni magnitudes subestimadas que pongan en riesgo la estabilidad y/o la funcionalidad de las actuaciones para un periodo de diseño. El principal objetivo de esta tesis es proponer una formulación de aplicación en la obtención del remonte extremo tal que se cumplan los criterios de seguridad para el servicio y funcionalidad de la obra y los criterios de sostenibilidad económico y socio-ambiental que se requieren hoy en día. Es decir, una fórmula que no sobredimensione el cálculo de este valor pero que pueda cubrir la casuística que acontece en las distintas tipologías de playas. Complementariamente a este objetivo se ejemplifica la aplicación de estas formulaciones en casos reales tal que se reduzca la incertidumbre y ambigüedad en la obtención de las variables independientes de las formulaciones. Para la consecución de estos objetivos se realiza un estado del arte en el que se estudia tanto los estudios estadísticos en la obtención de este parámetro como los modelos numéricos propuestos para ello, tal que se deduzca la mejor línea de investigación en la consecución del fin de esta tesis. Tras este estudio del arte se concluye que la mejor línea de investigación sigue la vía estadística y se diseña un modelo físico con fondo de arena en contraste con modelos físicos con fondo impermeable fijo. Los resultados de dicho modelo se han comparado con las formulaciones precedentes y se proponen las fórmulas de aplicación más convenientes para la obtención del remonte extremo. Complementariamente a la propuesta de formulaciones se desarrolla una metodología de aplicación de dichas formulaciones a casos de la costa española que ejemplifican convenientemente su uso para una adecuada predicción de este valor en las playas. The extreme runup is a key parameter in coastal management. This parameter allows to develop sustainability actions at the coast that meet economical and environmental criteria. At the coast the actions can be either design of structures at the shore or actions plans delimiting reclamation areas. The climate change has given more relevance to accomplish an appropriate design for the coastal management actions. At the coast the threaten are mainly focused on more frequent floods that cause economic losses. Previous studies have carried out field or physical model experiments to accomplish an equation for the extreme runup prediction. Although dispersion remains high when comparing the different proposals so the accuracy in the prediction might be risky. This scattering comes from the wide sort of beaches and the high variability of the maritime climate. The new actions that are needed to develop to counteract the effects of the climate change need a more efficient criteria. Hence formulations should not overestimate or underestimate the values of the extreme runup. The overestimation implies to consume resources that are not needed and the underestimation means in a structure risk to support safely the loads. The main goal of this thesis is to propose a formulation for the extreme runup prediction so the safety of the structure can be accomplished but at the same time the sustainability of the action is ensured under economical and environmental criteria that are demanded nowadays. So the formulation does not overestimate the extreme value but cover with enough confidence the different sort of beaches. The application of the formulation is also explained in order to reduce uncertainty when the input values are obtained. In order to accomplish the goal of this research firstly a literature review is done. Statistical and numerical models are studied. The statistical model is selected as the most convenient research guideline. In order to obtain runup results a physical model with sand bed is carried out. The bed differs from those that used impermeable slope in previous experiments. Once the results are obtained they are compared with the previous equations and a final formulation is proposed. Finally a methodology to apply the deduced formulation to the Spanish beaches is addressed.
Resumo:
A teoria dos stakeholders tem apresentado significativos avanços conceituais quanto a criação e distribuição de valor para os stakeholders. No entanto, algumas questões ainda são pouco exploradas nessa literatura. Uma delas refere-se à relação entre a distribuição de valor para os stakeholders e o desempenho organizacional. Esta pesquisa contribui com esta questão ao analisar a relação entre distribuição de valor tangível e intangível para o stakeholder funcionário e o desempenho organizacional. Como objetivos específicos, definiu-se: a) analisar a relação entre distribuição de valor tangível para os funcionários e o desempenho de curto e longo prazo da empresa; b) analisar a relação entre distribuição de valor intangível para os funcionários e o desempenho de curto e longo prazo da empresa. Para operacionalização da pesquisa foi selecionado o stakeholder funcionário, uma vez que este é um dos stakeholders mais estreitamente ligado à criação de valor da empresa, tem acesso a informações chaves, possui competências críticas para a geração de renda, e, consequentemente, um custo de reposição muito alto. A Revisão de Literatura abordou três teorias. A primeira foi a Teoria dos Stakeholders, da qual emergiu o problema de pesquisa. A segunda teoria utilizada foi a Gestão Estratégica de Recursos Humanos que contribuiu para a discussão sobre atendimento do stakeholder funcionário e desempenho organizacional. Por fim, foram empregadas teorias de motivação para explicar como o valor distribuído ao funcionário afeta sua motivação e, consequentemente, o desempenho organizacional. O método utilizado compreende uma abordagem quantitativa, cuja análise dos dados foi realizada por meio da técnica de regressão. Foram analisadas 40 empresas ao longo de quatro anos. A amostra compreendeu o conjunto de empresas que responderam ao questionário do Índice de Sustentabilidade Empresarial (ISE), da BM&FBovespa, nos anos de 2010 à 2013. Este conjunto incluiu tanto empresas de capital aberto, listadas na Bolsa de Valores, quanto suas controladas. Os resultados desta pesquisa indicam que o valor tangível está mais associado ao desempenho de curto prazo enquanto o valor intangível tem efeitos no desempenho de longo prazo. Esta pesquisa apresenta contribuições teóricas e gerenciais. Sob o ponto de vista teórico, apresenta os mecanismos pelos quais a distribuição de valor para o stakeholder funcionário afeta o desempenho organizacional e testa empiricamente essa relação. Em termos gerenciais, os resultados são úteis para os gestores na decisão de que tipo de valor distribuir para o atendimento do funcionário que resulte em um melhor desempenho organizacional.
Resumo:
"Final report for period 1 August 1972 to 30 September 1976."
Resumo:
We present an analytical model for describing complex dynamics of a hybrid system consisting of resonantly coupled classical resonator and quantum structures. Classical resonators in our model correspond to plasmonic metamaterials of various geometries, as well as other types of nano- and microstructure, the optical responses of which can be described classically. Quantum resonators are represented by atoms or molecules, or their aggregates (for example, quantum dots, carbon nanotubes, dye molecules, polymer or bio-molecules etc), which can be accurately modelled only with the use of the quantum mechanical approach. Our model is based on the set of equations that combines well established density matrix formalism appropriate for quantum systems, coupled with harmonic-oscillator equations ideal for modelling sub-wavelength plasmonic and optical resonators. As a particular example of application of our model, we show that the saturation nonlinearity of carbon nanotubes increases multifold in the resonantly enhanced near field of a metamaterial. In the framework of our model, we discuss the effect of inhomogeneity of the carbon-nanotube layer (bandgap value distribution) on the nonlinearity enhancement. © 2012 IOP Publishing Ltd.
Resumo:
The purpose is to develop expert systems where by-analogy reasoning is used. Knowledge “closeness” problems are known to frequently emerge in such systems if knowledge is represented by different production rules. To determine a degree of closeness for production rules a distance between predicates is introduced. Different types of distances between two predicate value distribution functions are considered when predicates are “true”. Asymptotic features and interrelations of distances are studied. Predicate value distribution functions are found by empirical distribution functions, and a procedure is proposed for this purpose. An adequacy of obtained distribution functions is tested on the basis of the statistical 2 χ –criterion and a testing mechanism is discussed. A theorem, by which a simple procedure of measurement of Euclidean distances between distribution function parameters is substituted for a predicate closeness determination one, is proved for parametric distribution function families. The proposed distance measurement apparatus may be applied in expert systems when reasoning is created by analogy.
Resumo:
Large broadening of short optical pulses due to fiber dispersion leads to a strong overlap in information data streams resulting in statistical deviations of the local power from its average. We present a theoretical analysis of rare events of high-intensity fluctuations-optical freak waves-that occur in fiber communication links using bit-overlapping transmission. Although the nature of the large fluctuations examined here is completely linear, as compared to commonly studied freak waves generated by nonlinear effects, the considered deviations inherit from rogue waves the key features of practical interest-random appearance of localized high-intensity pulses. We use the term "rogue wave" in an unusual context mostly to attract attention to both the possibility of purely linear statistical generation of huge amplitude waves and to the fact that in optics the occurrence of such pulses might be observable even with the standard Gaussian or even rarer-than-Gaussian statistics, without imposing the condition of an increased probability of extreme value events. © 2011 American Physical Society.