42 resultados para Risco sísmico - Avaliação - Portugal

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O estudo trata dos riscos e incertezas que cercam as avaliações econômicas de empresas, tomando por base a exagerada alta das cotações das ações das empresas de Internet, verificada na NASDAQ entre 1998 e 2000. Expõem-se os principais métodos de avaliação econômica, incorporando conceitos de custo do capital e do risco a ele associado, as características econômicas das empresas de Internet, as peculiaridades e barreiras à avaliação destas e, ainda, um panorama da bolha da NASDAQ, ocorrida no período mencionado. Finalmente, é trazido à análise o comportamento do investidor diante da incerteza e os modelos de cascatas de informação, sugerindo-se que a corrida às ações das empresas de Internet tenha sido desencadeada ou influenciada pelas chamadas extemalidades de manada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sempre houve, na humanidade, incertezas quanto ao futuro. Por parte dos investidores, incertezas e riscos nos investimentos. Outros acreditam que os mercados financeiros operam de forma eficiente e, portanto, para reduzirem o risco e minimizarem as perdas tentam fazer regressão à média, ou seja, tomam decisões pensando que os fatos voltarão ao “normal”. Neste sentido, o presente trabalho procura discutir uma nova metodologia, proposta por Haugen (2000), e denominada de Modelo de Fator de Retorno Esperado, utilizando-se de variáveis fundamentalistas. Contudo, no dia-a-dia, os erros cometidos, a ambigüidade dos fatos e, principalmente, o poder das emoções humanas - “efeito manada”, podem rapidamente destruir um modelo. Os mercados são bem menos eficientes na prática do que quando se estudam ou se tenta aplicar as teorias. Por isso, os modelo aqui estudados, o Modelo de Fator do Retorno Esperado e, secundariamente, o Modelo de Precificação de Ativos(CAPM) e a Teoria de Preços por Arbitragem(APT), diferem muito entre si. Este trabalho teve como objetivo principal avaliar o desempenho do Modelo de Fator de Retorno Esperado. Assim, o trabalho mostrou que o Modelo de Fator de Retorno Esperado, ao ser utilizado na composição de carteiras de investimento, é eficiente. Carteiras montadas de acordo com este modelo superaram o desempenho do Índice principal do mercado acionário brasileiro. Pôde-se constatar que outras variáveis, além do beta, aqui denominadas de fundamentalistas, podem explicar a rentabilidade esperada de um ativo. São elas: Valor de Mercado (VM), Indicador de Preço/Lucro (PL), o índice Preço de Mercado/Valor Patrimonial (PV), o Retorno sobre o Patrimônio líquido (ROE), a Liquidez em Bolsa(Liq) e o Beta do Mercado (BETA).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O mercado financeiro nacional vem experimentando mudanças significativas a partir da implantação do novo padrão monetário em 1994. Como conseqüência, os ganhos do sistema bancário, decorrentes do floating foram reduzidos, obrigando os bancos a expandirem suas carteiras de empréstimos que demandam esforços em medir e administrar o risco de crédito. Valendo-se de indicadores econômicofinanceiros e variáveis, o presente estudo visa avaliar a eficácia desses indicadores e variáveis utilizados por uma instituição financeira nacional no processo de concessão de crédito a empresas do setor industrial da região sul do Brasil. A metodologia do estudo propõe inicialmente uma análise estatística dos dados através da Análise da Regressão Logística, procedimentos – enter e stepwise. Concluído o teste de um modelo de previsão de insolvência empresarial, verifica-se quais são os indicadores e variáveis mais significativos e que proporcionam informações valiosas sobre a saúde financeira das empresas, revelando uma possível tendência ao desequilíbrio e a probabilidade à insolvência, levando-se em conta também como informação no gerenciamento do risco de crédito. O estudo mostrou que as variáveis que relacionam a liquidez seca e o saldo de tesouraria / necessidade de capital de giro apresentaram-se como os mais significativos dos sintomas de insolvência.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A medida da translucência nucal (TN) entre 11 e 14 semanas de gestação é um exame ultra-sonográfico que mede a camada líquida na região cervical posterior do feto, sendo observado um aumento de espessura nas anomalias cromossômicas, especialmente na trissomia 21. Com sua crescente utilização, outras anormalidades fetais têm sido descritas em associação a um aumento da TN. O objetivo deste trabalho foi avaliar o desempenho da medida da TN na detecção de diferentes anomalias fetais e outros efeitos adversos para a gestação. Realizou-se de um estudo observacional, no período de 1996 a 2004, com gestantes avaliadas no Ambulatório de Aconselhamento Genético para Diagnóstico Pré-natal do Hospital de Clínicas de Porto Alegre por risco aumentado de anomalia congênita, e que haviam realizado a medida da TN. Foram consideradas adequadas as TN realizadas de acordo com a padronização da Fundação de Medicina Fetal de Londres, e aumentadas aquelas TN com valor cima do percentil 95 para idade gestacional. Das 443 gestantes avaliadas, 38 seguimentos foram perdidos, 4 gestações estavam em curso na análise final dos dados, finalizando 401 gestações com desfecho conhecido. Em 275 gestações com TN adequada, a medida aumentada foi significativamente associada a anormalidades congênitas em geral (p 0,000000), cromossomopatias (p 0,000059) e perdas gestacionais (p 0,000000), sendo aumentada em oito dos 14 casos de cromossomopatia e em 6/7 dos casos com Síndrome de Down. Por outro lado, no grupo das TN inadequadas (126 casos), a associação entre TN aumentada não foi significativa para defeitos congênitos em geral (p 0,641396), nem para cromossomopatias (p 0,329194) ou perdas gestacionais (p 0,096092). Especificamente com relação aos erros inatos do metabolismo (EIM) no feto, foram localizados relatos e séries de casos com TN aumentada em dez diferentes EIM. Nas dezenove gestantes com história familiar de EIM e com medida da TN, houve um caso de uma menina afetada por MPS I com TN aumentada, e um de Raquitismo Resistente à Vitamina D com TN normal. Nos outros 17 casos, a medida da TN foi normal e não havia evidência de um EIM. Entre as novas associações de TN aumentada com síndromes genéticas, relatamos um paciente com Síndrome de Artrogripose, Anomalia renal e Colestase (ARC), cuja análise molecular na Universidade de Birmingham identificou uma mutação sem sentido (1518C>T) em homozigose no gene VPS33B. Concluiu-se que o desempenho da TN na detecção de anomalias congênitas depende da qualidade do exame, sendo que uma medida adequada aumentada está significativamente associada a defeitos congênitos, cromossomopatias e a outros desfechos gestacionais adversos, e que a sensibilidade da TN é especialmente elevada na detecção da síndrome de Down.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O metal mercúrio é conhecido pela sua grande toxidade apesar de seu emprego difundido. Desde a Antigüidade, se reconhece sua ação tóxica na exposição ocupacional. Em alguns ambientes laborais, os riscos são maiores, como é o caso de hospitais, que utilizam o mercúrio elementar em vários equipamentos, especialmente em termômetros de verificação da temperatura corporal, largamente empregados. Como na instituição objeto deste estudo foram quebrados 148 termômetros em uma Unidade de Terapia Intensiva no período de um ano, esta pesquisa objetivou a realização de uma avaliação de alguns indicadores ambientais neste espaço de trabalho e de alguns indicadores biológicos e psicológicos em uma amostra de trabalhadores desta unidade, que se dispuseram a participar da pesquisa. A avaliação de tais indicadores são recomendados como pertinentes pela literatura (ATSDR, 1989). Não se detectou em nenhuma das avaliações realizadas, índices acima das normas estabelecidas. Interpreta-se que a temperatura da unidade (20ºC) reduz a possibilidade do mercúrio se volatizar e intoxicar os trabalhadores. As regras de higiene, típicas do contexto hospitalar, e a rotina de rápido recolhimento dos resíduos dos termômetros quebrados e seu acondicionamento em recipientes com tampa são os principais fatores explicativos para os índices encontrados.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação procura promover uma análise da mudança de regimes na volatilidade condicional do risco Brasil, após a implementação do Real, com ênfase nas mudanças markovianas de regimes. De acordo com a literatura de risco país, na presença de equilíbrios múltiplos e profecias auto-realizáveis, a deterioração dos fundamentos percebidos de um país é condição necessária para a determinação de um equilíbrio macroeconômico ruim de uma pequena economia aberta e em desenvolvimento (PEAD), com reversão de capitais, alto serviço da dívida pública, perspectivas sombrias de crescimento e uma avaliação do crédito como ruim (Razin & Sadka, 2001). Ainda que tal condição seja necessária, ela não parece ser suficiente para explicar por que, em alguns momentos, apesar de um nível alto de risco país, o equilíbrio tido como ruim não se materializa. Neste sentido, através da adaptação de um jogo típico de modelos de crises cambiais de segunda geração, esta dissertação lança a hipótese de que uma das razões pelas quais uma PEAD sofra tais crises de liquidez seja a deterioração da média dos fundamentos percebidos ao lado do aumento do medo dos investidores de que haja interrupções no fluxo de capitais. A metodologia utilizada é a dos modelos GARCH nãolineares com componentes observáveis e não observáveis markovianos, aplicados à série diária do risco país do Brasil entre maio de 1994 a setembro de 2002. Os resultados empíricos sugerem que, de fato, durante os episódios de crise de liquidez do Brasil, o risco país sobe e a volatilidade muda para um regime mais alto. Em contrapartida, nos períodos com regimes baixos de volatilidade, independentemente do nível do risco país, nenhuma crise severa e repentina atinge o país. Além disso, ainda que não desprovida de limitações, a análise da volatilidade condicional do risco país pode servir como um instrumento prático de monitoramento da duração de crises de liquidez para uma PEAD altamente dependente do influxo de capitais externos como o Brasil.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho descreve PMT – Pattern-based Methodology Tailoring, uma abordagem para a adaptação de metodologias de desenvolvimento de software, baseada em padrões e em critérios de risco. Seu principal objetivo é estabelecer meios de se adaptar uma linguagem de padrões organizacionais ao contexto de um projeto específico, o que é obtido através da seleção sistemática dos padrões organizacionais mais adequados aos requisitos do projeto. O trabalho é motivado pelo levantamento de que os arcabouços de processos de software existentes pouco fazem para compreender as necessidades de um projeto antes de definir a metodologia a ser aplicada. PMT utiliza uma análise dos riscos e do contexto de criticalidade para guiar o processo de adaptação. Padrões organizacionais que descrevem técnicas preventivas para os riscos identificados são selecionados por um mecanismo sistemático de seleção, o qual é suportado por uma ferramenta, chamada PMT-Tool.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No próximo ano, completam-se 40 anos desde a primeira tentativa de transplante hepático (TxH) em seres humanos. Há quase 20 anos, o transplante (Tx) tornou-se uma opção terapêutica real para os pacientes portadores de doença hepática terminal. Atualmente, o TxH é o tratamento de escolha para diversas enfermidades hepáticas, agudas ou crônicas. Dos transplantes realizados na Europa ou nos EUA, em torno de 12% dos pacientes são crianças e adolescentes. No Brasil, 20,9% dos pacientes transplantados de fígado em 2001 tinham até 18 anos de idade e, destes, 60,7% tinham 5 anos ou menos. O objetivo do TxH é a manutenção da vida dos pacientes com doença hepática irreversível, e a principal forma de avaliação de sucesso é a sobrevida após o Tx. A primeira semana que se segue ao TxH, apesar dos excelentes progressos dos últimos anos, continua sendo o período mais crítico. A maioria dos óbitos ou das perdas do enxerto ocorrem nas primeiras semanas, em particular, nos primeiros 7 dias de TxH. Diversos fatores de risco para o resultado do TxH podem ser identificados na literatura, porém há poucos estudos específicos do Tx pediátrico. As crianças pequenas apresentam características particulares que os diferenciam do Tx nos adultos e nas crianças maiores. Com o objetivo de identificar fatores de risco para o óbito nos 7 primeiros dias após os transplantes hepáticos eletivos realizados em 45 crianças e adolescentes no Hospital de Clínicas de Porto Alegre entre março de 1995 e agosto de 2001, foi realizado um estudo de caso-controle. Entre os 6 casos (13,3%) e os 39 controles foram comparadas características relacionadas ao receptor, ao doador e ao procedimento cirúrgico e modelos prognósticos. Das variáveis relacionadas ao receptor, o gênero, o escore Z do peso e da estatura para a idade, a atresia de vias biliares, a cirurgia abdominal prévia, a cirurgia de Kasai, a história de ascite, de peritonite bacteriana espontânea, de hemorragia digestiva e de síndrome hepatopulmonar, a albuminemia, o INR, o tempo de tromboplastina parcial ativada e o fator V não foram associados com o óbito na primeira semana. A mortalidade inicial foi maior nas crianças com menor idade (p=0,0035), peso (p=0,0062) e estatura (p<0,0001), bilirrubinemia total (BT) (p=0,0083) e bilirrubinemia não conjugada (BNC) (p=0,0024) elevadas, e colesterolemia reduzida (p=0,0385). Os receptores menores de 3 anos tiveram um risco 25,5 vezes maior de óbito que as crianças maiores (IC 95%: 1,3–487,7). A chance de óbito após o Tx dos pacientes com BT superior a 20 mg/dL e BNC maior que 6 mg/dL foi 7,8 (IC95%: 1,2–50,1) e 12,7 (IC95%: 1,3–121,7) vezes maior que daqueles com níveis inferiores, respectivamente. Das características relacionadas ao doador e ao Tx, as variáveis gênero, doador de gênero e grupo sangüíneo ABO não idênticos ao do receptor, razão peso do doador/receptor, causa do óbito do doador, enxerto reduzido, tempo em lista de espera e experiência do Programa não foram associados com o óbito nos primeiros 7 dias. Transplantes com enxertos de doadores de idade até 3 anos, ou de peso até 12 Kg representaram risco para o óbito dos receptores 6,8 (IC95%: 1,1–43,5) e 19,3 (IC95%: 1,3–281,6) vezes maior, respectivamente. O tempo de isquemia total foi em média de 2 horas maior nos transplantes dos receptores não sobreviventes (p=0,0316). Os modelos prognósticos Child-Pugh, Rodeck e UNOS não foram preditivos do óbito. Os pacientes classificados como alto risco no modelo de Malatack apresentaram razão de chances para o óbito 18,0 (IC95%: 1,2–262,7) vezes maior que aqueles com baixo risco. A mortalidade na primeira semana foi associada a valores elevados do escore PELD. O risco de óbito foi de 11,3 (IC95%: 1,2–107,0) nas crianças com valor do PELD maior que 10. As crianças pequenas e com maior disfunção hepática apresentaram maior risco de óbito precoce. Doador de pequeno porte e prolongamento do tempo de isquemia também foram associados à mortalidade. Somente os modelos de Malatack e PELD foram preditivos da sobrevida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os efeitos provocados por radiações são conhecidos na literatura por meio dos estudos em usinas nucleares e em testes bélicos. Entretanto, os efeitos da radiação natural vêm despertando a atenção das autoridades da saúde, dentre as quais se destaca a Environmental Protection Agency (EPA) nos Estados Unidos e a National Radiological Protection Board (NRPB) no Reino Unido. Os efeitos epidemiológicos ocasionados por radiação de origem natural, mais especificamente a radiação emanada pelo gás radônio que fica acumulado em residências enclausuradas por muito tempo, tem sido alvo de intensas investigações. Nessa dissertação, foi realizada uma avaliação ambiental preliminar da radiação natural devida ao radônio como elemento epidemiológico no Escudo Sul-riograndense. Os dados utilizados para determinar o risco epidemiológico foram: neoplasias, radiação, geologia e população. O banco de dados dos casos de óbitos por neoplasias do estado foi obtido da Secretaria da Saúde, por meio do Núcleo de Informação em Saúde. A radiação natural devida ao radônio foi determinada a partir dos dados gamaespectrométricos obtidos de levantamento aerogeofísico da CPRM no Escudo Sul-riograndense, nos projetos Camaquã e Extremo Sudeste do Brasil realizados nos anos de 1973 e 1978, respectivamente. Os dados geológicos foram obtidos do Mapa Geológico do Estado de 1989. Os dados de população foram obtidos junto ao Instituto Brasileiro de Geografia e Estatística (IBGE). A integração de dados foi realizada usando a metodologia de matriz de sobreposição entre os dados de casos de óbitos por neoplasia e de gamaespectrometria. Os dados de população foram empregados para normalizar os dados de neoplasias, e o dado de geologia para correlacionar com a gamaespectrometria. Os resultados da integração são mapas classificados pelo grau de risco epidemiológico, nos quais é apresentada a relação entre os casos de neoplasias pela intensidade de radiação devida ao radônio. Nesse sentido, uma boa relação foi assinalada e são recomendados estudos adicionais sobre esse mesmo banco de dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.