1000 resultados para Análise dos desvios
Resumo:
Neste trabalho desenvolve-se um modelo de expectativas racionais baseado no paper de Batini e Haldane (1999) com o propósito de avaliar se as regras monetárias derivadas sob o regime de metas para a inflação podem ser adaptadas para corrigir desvios explosivos da dívida pública. Em países emergentes, estes desvios são um dos principais responsáveis pelas recentes crises. Através da endogeneização do prêmio de risco e a definição de uma regra de decisão aumentada para o banco central, permite-se caracterizar a dinâmica de curto e longo prazo da relação dívida-PIB sob diversas óticas. Os resultados mostram que apesar da potencial solvência de longo prazo, a dívida ainda pode gerar preocupações no curto prazo, mesmo se o banco central considerar na sua reação de política problemas com a administração da dívida e atuar com base na previsão de inflação.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.
Resumo:
O objetivo desta dissertação é analisar modelos de governança de subsidiárias que atuam no Brasil, buscando identificar os mecanismos mais adotados, bem como levantar os problemas de agência em relação às empresas controladoras, que podem ocorrer ou se intensificar em função de possíveis desvios nesses modelos, impactando as decisões empresariais. Tendo como referência a governança corporativa e os pressupostos e propostas da teoria da agência, o estudo constrói uma revisão da relação empresa acionista-subsidiárias em diferentes pesquisas.
Resumo:
O presente trabalho apresenta uma comparação das eficiências energética e exergética de três alternativas diferentes de montagem de sistemas de co-geração de energia que empregam o gás natural como combustível. O caso estudado é uma situação real de um curtume que utiliza lenha como combustível para geração de sua energia térmica e compra energia elétrica da distribuidora. A primeira alternativa é composta por um motor de combustão interna a ciclo Otto, a segunda emprega uma turbina a gás a ciclo Brayton e a terceira usa um gerador de vapor superaquecido juntamente com uma turbina a vapor em contrapressão. Para simulação das plantas é utilizado um software comercial que foi alterado, ficando capacitado para calcular exergias físicas e químicas de plantas de utilidades, cálculos exergoeconômicos, tais como taxas de custo das correntes e eixos, e também de determinar para cada equipamento os valores das variáveis usadas para a avaliação e o melhoramento do desempenho de plantas. Após as modificações o programa foi testado resolvendo um problema conhecido e cuja solução encontrada foi comparada com o da bibliografia. Foram obtidos resultados muito próximos ao padrão usado para comparação, os desvios encontrados são desprezíveis para os objetivos deste trabalho. A planta com melhor eficiência energética e exergética é aquela com motor ciclo Otto, seguida pela montagem que emprega a turbina a gás e finalmente, o conjunto gerador de vapor e turbina a vapor. São calculados os custos de insumos: investimentos necessários para construção das plantas, os custos de operação e manutenção e os custos com combustível. A partir destes valores são resolvidos os sistemas de equações para determinar as taxas de custos das correntes e eixos. Para as três plantas as variáveis de decisão são modificadas buscando aumentar a eficiência exergética e diminuir os custos dos produtos de co-geração. A metodologia para avaliação e melhoramento do desempenho das plantas é empregada e observa-se que é na terceira configuração é onde as modificações tiveram maior impacto, seguida pela primeira planta e por último a segunda alternativa.
Resumo:
The objective is to analyze the relationship between risk and number of stocks of a portfolio for an individual investor when stocks are chosen by "naive strategy". For this, we carried out an experiment in which individuals select actions to reproduce this relationship. 126 participants were informed that the risk of first choice would be an asset average of all standard deviations of the portfolios consist of a single asset, and the same procedure should be used for portfolios composed of two, three and so on, up to 30 actions . They selected the assets they want in their portfolios without the support of a financial analysis. For comparison we also tested a hypothetical simulation of 126 investors who selected shares the same universe, through a random number generator. Thus, each real participant is compensated for random hypothetical investor facing the same opportunity. Patterns were observed in the portfolios of individual participants, characterizing the curves for the components of the samples. Because these groupings are somewhat arbitrary, it was used a more objective measure of behavior: a simple linear regression for each participant, in order to predict the variance of the portfolio depending on the number of assets. In addition, we conducted a pooled regression on all observations by analyzing cross-section. The result of pattern occurs on average but not for most individuals, many of which effectively "de-diversify" when adding seemingly random bonds. Furthermore, the results are slightly worse using a random number generator. This finding challenges the belief that only a small number of titles is necessary for diversification and shows that there is only applicable to a large sample. The implications are important since many individual investors holding few stocks in their portfolios
Resumo:
The competitiveness of the trade generated by the higher availability of products with lower quality and cost promoted a new reality of industrial production with small clearances. Track deviations at the production are not discarded, uncertainties can statistically occur. The world consumer and the Brazilian one are supported by the consumer protection code, in lawsuits against the products poor quality. An automobile is composed of various systems and thousands of constituent parts, increasing the likelihood of failure. The dynamic and security systems are critical in relation to the consequences of possible failures. The investigation of the failure gives us the possibility of learning and contributing to various improvements. Our main purpose in this work is to develop a systematic, specific methodology by investigating the root cause of the flaw occurred on an axle end of the front suspension of an automobile, and to perform comparative data analyses between the fractured part and the project information. Our research was based on a flaw generated in an automotive suspension system involved in a mechanical judicial cause, resulting in property and personal damages. In the investigations concerning the analysis of mechanical flaws, knowledge on materials engineering plays a crucial role in the process, since it enables applying techniques for characterizing materials, relating the technical attributes required from a respective part with its structure of manufacturing material, thus providing a greater scientific contribution to the work. The specific methodology developed follows its own flowchart. In the early phase, the data in the records and information on the involved ones were collected. The following laboratory analyses were performed: macrography of the fracture, micrography with SEM (Scanning Electron Microscope) of the initial and final fracture, phase analysis with optical microscopy, Brinell hardness and Vickers microhardness analyses, quantitative and qualitative chemical analysis, by using X-ray fluorescence and optical spectroscopy for carbon analysis, qualitative study on the state of tension was done. Field data were also collected. In the analyses data of the values resulting from the fractured stock parts and the design values were compared. After the investigation, one concluded that: the developed methodology systematized the investigation and enabled crossing data, thus minimizing diagnostic error probability, the morphology of the fracture indicates failure by the fatigue mechanism in a geometrically propitious location, a tension hub, the part was subjected to low tensions by the sectional area of the final fracture, the manufacturing material of the fractured part has low ductility, the component fractured in an earlier moment than the one recommended by the manufacturer, the percentages of C, Si, Mn and Cr of the fractured part present values which differ from the design ones, the hardness value of the superior limit of the fractured part is higher than that of the design, and there is no manufacturing uniformity between stock and fractured part. The work will contribute to optimizing the guidance of the actions in a mechanical engineering judicial expertise
Resumo:
This work aims to determine a better methodology to help predicting some operational parameters to a new design of mixer-settler on treating wastewater produced by petroleum industry, called MDIF (Misturador-Decantador à Inversão de Fases/ Mixer-Settler based on Phase Inversion MSPI). The data from this research were obtained from the wastewater treatment unit, called MSPI-TU, installed on a wastewater treatment plant (WTP) of PETROBRAS/UO-RNCE. The importance in determining the better methodology to predict the results of separation and extraction efficiency of the equipment, contributes significantly to determine the optimum operating variables for the control of the unit. The study was based on a comparison among the experimental efficiency (E) obtained by operating MSPI-TU, the efficiency obtained by experimental design equation (Eplan) from the software Statistica Experimental Design® (version 7.0), and the other obtained from a modeling equation based on a dimensional analysis (Ecalc). The results shows that the experimental design equation gives a good prediction of the unit efficiencies with better data reliability, regarding to the condition before a run operation. The average deviation between the proposed by statistic planning model equation and experimental data was 0.13%. On the other hand, the efficiency calculated by the equation which represents the dimensional analysis, may result on important relative deviations (up 70%). Thus, the experimental design is confirmed as a reliable tool, with regard the experimental data processing of the MSPI-TU
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Geociências e Meio Ambiente - IGCE
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Odontologia - FOA