1000 resultados para Risco sísmico - Avaliação - Portugal


Relevância:

40.00% 40.00%

Publicador:

Resumo:

A gengivo-estomatite crónica felina é uma inflamação complexa crónica, com severidade e intensidade variáveis. Apesar de não estar definida a sua etiopatogenia, parece haver uma relação entre a inflamação e a ocorrência de lesões de reabsorção dentária, enquanto causa ou enquanto consequência da doença. O tratamento para as duas doenças é inespecífico, mas baseia-se na extração dentária, contornada ou não com tratamentos médicos. Este estudo teve como objetivo determinar a ocorrência de lesões de reabsorção dentária em gatos com gengivo-estomatite crónica e avaliar a existência de uma possível associação entre um padrão de estomatite crónica e a presença de lesões de reabsorção dentária. O objetivo secundário consistiu na determinação da percentagem de sucesso e o grau de satisfação dos proprietários, após a intervenção cirúrgica. Foram incluídos no estudo 27 gatos. Os critérios de inclusão consistiram no diagnóstico de genvivo-estomatite crónica, realização de um exame radiográfico intraoral completo de todos os dentes, seguido de tratamento cirúrgico, com extrações dentárias e, finalmente, a resposta, por parte dos proprietários, a um questionário. A ocorrência de lesões de reabsorção dentária neste estudo foi de 66,67%. Não foi possível estabelecer nenhuma associação entre a gengivo-estomatite crónica felina e o desenvolvimento de lesões de reabsorção dentária. Os padrões ulcerativos, proliferativos e o de estomatite caudal na gengivo-estomatite crónica felina mostraram risco acrescido para lesões de reabsorção dentária, mas sem significado estatístico. 70,37% dos animais atingiu a cura clínica e 29,63% obteve melhoria global, num período médio de 2 meses. O grau de satisfação dos proprietários obteve uma média de 4,52 valores, numa escala de 1 a 5. Apesar da prevalência elevada de lesões de reabsorção dentária, não foi possível identificar a gengivo-estomatite crónica felina, enquanto fator de risco para a sua ocorrência. À semelhança de estudos anteriores, a gengivo-estomatite crónica felina responde a tratamento cirúrgico com extrações dentárias.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O mercado financeiro nacional vem experimentando mudanças significativas a partir da implantação do novo padrão monetário em 1994. Como conseqüência, os ganhos do sistema bancário, decorrentes do floating foram reduzidos, obrigando os bancos a expandirem suas carteiras de empréstimos que demandam esforços em medir e administrar o risco de crédito. Valendo-se de indicadores econômicofinanceiros e variáveis, o presente estudo visa avaliar a eficácia desses indicadores e variáveis utilizados por uma instituição financeira nacional no processo de concessão de crédito a empresas do setor industrial da região sul do Brasil. A metodologia do estudo propõe inicialmente uma análise estatística dos dados através da Análise da Regressão Logística, procedimentos – enter e stepwise. Concluído o teste de um modelo de previsão de insolvência empresarial, verifica-se quais são os indicadores e variáveis mais significativos e que proporcionam informações valiosas sobre a saúde financeira das empresas, revelando uma possível tendência ao desequilíbrio e a probabilidade à insolvência, levando-se em conta também como informação no gerenciamento do risco de crédito. O estudo mostrou que as variáveis que relacionam a liquidez seca e o saldo de tesouraria / necessidade de capital de giro apresentaram-se como os mais significativos dos sintomas de insolvência.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A Avaliação do risco de crédito agregado é um grande desafio para as empresas em todo mundo. O dinamismo do mercado e o desenvolvimento dos derivativos de crédito tornaram a gestão do risco de crédito fundamental para o negócio das instituições financeiras. Nas instituições não-financeiras, o foco na gestão do risco de crédito agregado ainda é pequeno, mas os benefícios e a necessidade de uma visão agregada da carteira já são identificados. No caso brasileiro, esse trabalho é dificultado devido à carência de base de dados e ao mercado financeiro pouco desenvolvido. Diante desse desafio, o objetivo do trabalho é apresentar um modelo para avaliação do risco de crédito agregado que seja aplicável em empresas brasileiras não-financeiras, onde o CreditRisk+ foi escolhido pela facilidade de cálculo e baixa dependência de informações de mercado. Entretanto, para adequá-lo ao caso brasileiro são necessárias algumas flexibilizações, que serão apresentadas a seguir no modelo adaptado para o caso brasileiro. Por fim, para testar a aderência do modelo, foi utilizada uma amostra da carteira de crédito da Companhia Vale do Rio Doce (CVRD), que nos fornece resultados conclusivos sobre a performance da metodologia escolhida ao final do trabalho.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Credit risk management has assumed increasing importance for the managers and directors of enterprises. Thus, different approaches aimed to measure the probability of default are under discussion nowadays. This paper evaluates models that have become more popular over the last 30 years in order forecast defaults or to provide information regarding to financial difficulties of enterprises. This paper will focus on the KMV model in order to estimate the probability of default, its methodology based on market value of the asset and its volatility and finally estimate the probability of default. Finally, to test the KMV model will be used a sample of global steel companies that have credit in Companhia Vale do Rio Doce (CVRD), which will allow us to make comparisons with the models presented in this work.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A medida da translucência nucal (TN) entre 11 e 14 semanas de gestação é um exame ultra-sonográfico que mede a camada líquida na região cervical posterior do feto, sendo observado um aumento de espessura nas anomalias cromossômicas, especialmente na trissomia 21. Com sua crescente utilização, outras anormalidades fetais têm sido descritas em associação a um aumento da TN. O objetivo deste trabalho foi avaliar o desempenho da medida da TN na detecção de diferentes anomalias fetais e outros efeitos adversos para a gestação. Realizou-se de um estudo observacional, no período de 1996 a 2004, com gestantes avaliadas no Ambulatório de Aconselhamento Genético para Diagnóstico Pré-natal do Hospital de Clínicas de Porto Alegre por risco aumentado de anomalia congênita, e que haviam realizado a medida da TN. Foram consideradas adequadas as TN realizadas de acordo com a padronização da Fundação de Medicina Fetal de Londres, e aumentadas aquelas TN com valor cima do percentil 95 para idade gestacional. Das 443 gestantes avaliadas, 38 seguimentos foram perdidos, 4 gestações estavam em curso na análise final dos dados, finalizando 401 gestações com desfecho conhecido. Em 275 gestações com TN adequada, a medida aumentada foi significativamente associada a anormalidades congênitas em geral (p 0,000000), cromossomopatias (p 0,000059) e perdas gestacionais (p 0,000000), sendo aumentada em oito dos 14 casos de cromossomopatia e em 6/7 dos casos com Síndrome de Down. Por outro lado, no grupo das TN inadequadas (126 casos), a associação entre TN aumentada não foi significativa para defeitos congênitos em geral (p 0,641396), nem para cromossomopatias (p 0,329194) ou perdas gestacionais (p 0,096092). Especificamente com relação aos erros inatos do metabolismo (EIM) no feto, foram localizados relatos e séries de casos com TN aumentada em dez diferentes EIM. Nas dezenove gestantes com história familiar de EIM e com medida da TN, houve um caso de uma menina afetada por MPS I com TN aumentada, e um de Raquitismo Resistente à Vitamina D com TN normal. Nos outros 17 casos, a medida da TN foi normal e não havia evidência de um EIM. Entre as novas associações de TN aumentada com síndromes genéticas, relatamos um paciente com Síndrome de Artrogripose, Anomalia renal e Colestase (ARC), cuja análise molecular na Universidade de Birmingham identificou uma mutação sem sentido (1518C>T) em homozigose no gene VPS33B. Concluiu-se que o desempenho da TN na detecção de anomalias congênitas depende da qualidade do exame, sendo que uma medida adequada aumentada está significativamente associada a defeitos congênitos, cromossomopatias e a outros desfechos gestacionais adversos, e que a sensibilidade da TN é especialmente elevada na detecção da síndrome de Down.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O metal mercúrio é conhecido pela sua grande toxidade apesar de seu emprego difundido. Desde a Antigüidade, se reconhece sua ação tóxica na exposição ocupacional. Em alguns ambientes laborais, os riscos são maiores, como é o caso de hospitais, que utilizam o mercúrio elementar em vários equipamentos, especialmente em termômetros de verificação da temperatura corporal, largamente empregados. Como na instituição objeto deste estudo foram quebrados 148 termômetros em uma Unidade de Terapia Intensiva no período de um ano, esta pesquisa objetivou a realização de uma avaliação de alguns indicadores ambientais neste espaço de trabalho e de alguns indicadores biológicos e psicológicos em uma amostra de trabalhadores desta unidade, que se dispuseram a participar da pesquisa. A avaliação de tais indicadores são recomendados como pertinentes pela literatura (ATSDR, 1989). Não se detectou em nenhuma das avaliações realizadas, índices acima das normas estabelecidas. Interpreta-se que a temperatura da unidade (20ºC) reduz a possibilidade do mercúrio se volatizar e intoxicar os trabalhadores. As regras de higiene, típicas do contexto hospitalar, e a rotina de rápido recolhimento dos resíduos dos termômetros quebrados e seu acondicionamento em recipientes com tampa são os principais fatores explicativos para os índices encontrados.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Apresenta iane metodologia para etribuir texas de risco em empréstimos bancários, a partir do perfil ele risco pela operação solicitada. Baseia-se na existência de relações conjuntas entre os atributos associados às entidades Cliente, Operação e Conjuntura para a formação do risco de crédito do empréstimo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Análise do comportamento dos principais índices de risco no mercado de ações de São Paulo no período de julho de 1984 a junho de 1990. Estudo das condições de diversificação presentes no mercado acionário paulista neste período. Teste do "Single Index Model" e dos principais modelos de avaliação de ações.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação procura promover uma análise da mudança de regimes na volatilidade condicional do risco Brasil, após a implementação do Real, com ênfase nas mudanças markovianas de regimes. De acordo com a literatura de risco país, na presença de equilíbrios múltiplos e profecias auto-realizáveis, a deterioração dos fundamentos percebidos de um país é condição necessária para a determinação de um equilíbrio macroeconômico ruim de uma pequena economia aberta e em desenvolvimento (PEAD), com reversão de capitais, alto serviço da dívida pública, perspectivas sombrias de crescimento e uma avaliação do crédito como ruim (Razin & Sadka, 2001). Ainda que tal condição seja necessária, ela não parece ser suficiente para explicar por que, em alguns momentos, apesar de um nível alto de risco país, o equilíbrio tido como ruim não se materializa. Neste sentido, através da adaptação de um jogo típico de modelos de crises cambiais de segunda geração, esta dissertação lança a hipótese de que uma das razões pelas quais uma PEAD sofra tais crises de liquidez seja a deterioração da média dos fundamentos percebidos ao lado do aumento do medo dos investidores de que haja interrupções no fluxo de capitais. A metodologia utilizada é a dos modelos GARCH nãolineares com componentes observáveis e não observáveis markovianos, aplicados à série diária do risco país do Brasil entre maio de 1994 a setembro de 2002. Os resultados empíricos sugerem que, de fato, durante os episódios de crise de liquidez do Brasil, o risco país sobe e a volatilidade muda para um regime mais alto. Em contrapartida, nos períodos com regimes baixos de volatilidade, independentemente do nível do risco país, nenhuma crise severa e repentina atinge o país. Além disso, ainda que não desprovida de limitações, a análise da volatilidade condicional do risco país pode servir como um instrumento prático de monitoramento da duração de crises de liquidez para uma PEAD altamente dependente do influxo de capitais externos como o Brasil.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho descreve PMT – Pattern-based Methodology Tailoring, uma abordagem para a adaptação de metodologias de desenvolvimento de software, baseada em padrões e em critérios de risco. Seu principal objetivo é estabelecer meios de se adaptar uma linguagem de padrões organizacionais ao contexto de um projeto específico, o que é obtido através da seleção sistemática dos padrões organizacionais mais adequados aos requisitos do projeto. O trabalho é motivado pelo levantamento de que os arcabouços de processos de software existentes pouco fazem para compreender as necessidades de um projeto antes de definir a metodologia a ser aplicada. PMT utiliza uma análise dos riscos e do contexto de criticalidade para guiar o processo de adaptação. Padrões organizacionais que descrevem técnicas preventivas para os riscos identificados são selecionados por um mecanismo sistemático de seleção, o qual é suportado por uma ferramenta, chamada PMT-Tool.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente trabalho visa propor uma metodologia para Teste de estresse e, consequentemente, cálculo do colchão adicional de capital em risco de crédito, conforme exigência do Comitê de Supervisão Bancária. A metodologia consiste em utilizar informações macroeconômicas para determinar o comportamento da taxa de inadimplência. Dessa forma, podemos simular possíveis cenários econômicos e, com isso, a taxa de inadimplência associada a esse cenário. Para cada cenário econômico é obtida uma taxa. Cada taxa de inadimplência fornece uma curva de perdas. Simulando diversos cenários econômicos foi possível obter diversas curvas de perda e, com elas, a probabilidade de ocorrência da perda esperada e inesperada. A metodologia foi aplicada a uma carteira de crédito pessoal para pessoa física. Os resultados se mostraram bastantes eficientes para determinar a probabilidade de ocorrência do Capital Alocado. Como consequência do teste, dado um nível de confiança, foi possível determinar qual deveria ser o Capital Alocado para fazer frente às perdas acima da perda inesperada.