524 resultados para normalidade assintótica
Resumo:
Este trabalho propõe maneiras alternativas para a estimação consistente de uma medida abstrata, crucial para o estudo de decisões intertemporais, o qual é central a grande parte dos estudos em macroeconomia e finanças: o Fator Estocástico de Descontos (SDF, sigla em Inglês). Pelo emprego da Equação de Apreçamento constrói-se um inédito estimador consistente do SDF que depende do fato de que seu logaritmo é comum a todos os ativos de uma economia. O estimador resultante é muito simples de se calcular, não depende de fortes hipóteses econômicas, é adequado ao teste de diversas especificações de preferência e para a investigação de paradoxos de substituição intertemporal, e pode ser usado como base para a construção de um estimador para a taxa livre de risco. Alternativas para a estratégia de identificação são aplicadas e um paralelo entre elas e estratégias de outras metodologias é traçado. Adicionando estrutura ao ambiente inicial, são apresentadas duas situações onde a distribuição assintótica pode ser derivada. Finalmente, as metodologias propostas são aplicadas a conjuntos de dados dos EUA e do Brasil. Especificações de preferência usualmente empregadas na literatura, bem como uma classe de preferências dependentes do estado, são testadas. Os resultados são particularmente interessantes para a economia americana. A aplicação de teste formais não rejeita especificações de preferências comuns na literatura e estimativas para o coeficiente relativo de aversão ao risco se encontram entre 1 e 2, e são estatisticamente indistinguíveis de 1. Adicionalmente, para a classe de preferência s dependentes do estado, trajetórias altamente dinâmicas são estimadas para a tal coeficiente, as trajetórias são confinadas ao intervalo [1,15, 2,05] e se rejeita a hipótese de uma trajetória constante.
Resumo:
Apresenta o método value at risk (VaR) para se mensurar o risco de mercado, sob diferentes abordagens. Analisa a série histórica do índice Bovespa no período de 1995 a 1996 por meio de testes econométricos de normalidade, autocorrelação dos retornos e raiz unitária. Comparo valor obtido a partir dos diferentes modelos de estimação de volatilidade propostos e verifica qual dos modelos foi o mais adequado para o caso estudado
Resumo:
Supondo que as revistas femininas configuram-se como elementos discursivos do dispositivo de sexualidade, a presente pesquisa buscou identificar e comparar as posições de sujeito nas quais as leitoras das revistas Nova e TPM deveriam se reconhecer para ter uma experiência coerente de leitura. Ancorada no pensamento de Foucault e no conceito de modo de endereçamento de Ellsworth, busquei extrair dos textos os diferentes enunciados sobre a sexualidade, que conformariam essas posições de sujeito, tentando entender o que se configuraria hoje como uma forma “normal” de vivenciar a sexualidade, bem como as possibilidades de resistência em relação a essa proposta de normalidade. A hipótese é que, neste período histórico, a norma se deslocou do “como” ou “o que” fazer no âmbito sexual para o próprio fazer.
Resumo:
A avaliação de desempenho de fundos de investimentos é, tradicionalmente, realizada utilizando-se o Índice de Sharpe, que leva em consideração apenas os dois primeiros momentos da distribuição de retornos (média e variância), assumindo as premissas de normalidade da distribuição de retornos e função quadrática de utilidade do investidor. Entretanto, é sabido que uma função de utilidade quadrática é inconsistente com o comportamento do investidor e que as distribuições de retornos de determinados fundos, como os hedge funds, estão longe de serem uma distribuição normal. Keating e Shadwick (2002a, 2002b) introduziram uma nova medida denominada Ômega que incorpora todos os momentos da distribuição, e tem a vantagem de não ser necessário fazer premissas sobre a distribuição dos retornos nem da função de utilidade de um investidor avesso ao risco. O objetivo deste trabalho é verificar se esta medida Ômega tem um poder de previsibilidade maior que outras medidas de avaliação de desempenho, como o Índice de Sharpe e o Índice de Sortino. O estudo empírico indicou que a medida Ômega gera um ranqueamento, na maioria das vezes, relativamente diferente das outras medidas testadas. Apesar das carteiras formadas com base na medida Ômega terem gerado um retorno médio maior que o retorno médio das carteiras formadas pelas outras medidas em praticamente todos os testes, esta diferença entre as médias dos retornos só foi significativa em alguns casos. Mesmo assim, há uma leve indicação de que a medida Ômega é a mais apropriada para utilização do investidor ao fazer a avaliação de desempenho dos fundos de investimentos.
Resumo:
A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.
Resumo:
A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.
Resumo:
A nefropatia diabética (ND) é uma complicação freqüente do diabete melito (DM) e acarreta grande morbi-mortalidade. A prevenção desta complicação será mais efetiva se os indivíduos de maior risco, que se beneficiariam de tratamento intensivo dos fatores risco modificáveis, fossem precocemente identificados. A microalbuminúria, definida por valores de excreção urinária de albumina (EUA) de 20-199 g/min, ainda é o melhor marcador da instalação e progressão da ND, além de ser um fator de risco para o desenvolvimento de doenças macrovasculares. Estas associações podem ser explicadas pela teoria de que a microalbuminúria representa, na verdade, dano endotelial generalizado. A albuminúria nos limites superiores da normalidade também está associada ao desenvolvimento futuro de micro- e macroalbuminúria. Além disso, existe uma associação entre albuminúria normal-alta, doença cardiovascular e mortalidade geral em indivíduos com e sem DM. A EUA tem correlação direta e contínua com o desenvolvimento de doença renal e cardiovascular, sem um ponto determinado a partir do qual ocorreria um aumento mais importante do risco. No entanto, na prática clínica se faz necessário o estabelecimento de um valor crítico para guiar o tratamento dos pacientes. Algumas evidências apontam para valores de EUA em torno de 10 g/min como um novo ponto de corte para o diagnóstico de microalbuminúria.Concluindo, a associação entre a EUA e os desfechos renais e cardiovasculares parece ser contínua e já está presente até mesmo com níveis de EUA considerados normais. A adoção do valor de 10 g/min como de risco poderá identificar os pacientes que deveriam receber tratamento mais precoce e agressivo dos fatores de risco modificáveis.
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.
Resumo:
Objetivo: o objetivo deste estudo foi avaliar as condições de saúde bucal e a ocorrência de anomalias dentárias em crianças tratadas para leucemia linfoblástica aguda (LLA) no Serviço de Oncologia Pediátrica (SOP) do Hospital de Clínicas de Porto Alegre (HCPA), comparadas com um grupo crianças saudáveis. Amostra: foram selecionadas 56 crianças com diagnóstico de LLA e analisadas as presenças de anomalias dentárias e os índices CPO-D (cariado, perdido, obturado-dente), IPV (índice de placa visível), ISG (índice de sangramento gengival) e fluxo salivar. As crianças tratadas apresentaram uma média de idade, na época do diagnóstico da LLA, de 5,3 ± 2,6, e 11,8 ± 4,2 na avaliação, sendo 32 masculinos e 24 femininos. Os pacientes tratados para LLA foram divididos em três grupos: crianças tratadas somente com quimioterapia, com quimio e radioterapia, e com quimio, radio e transplante de medula óssea. Resultados: os resultados revelaram 80,4% de anomalias dentárias nas crianças tratadas, ou seja, 45 destas apresentaram pelo menos uma alteração, e o grupo de pacientes tratados com quimio, radio e submetidos ao transplante de medula óssea foi o que revelou a maior média de anormalidades dentárias por indivíduo (15,37 ± 15,03), não ocorrendo diferença estatística entre os gêneros. As crianças tratadas para LLA obtiveram CPO-D de 1,9 ± 4,0, ISG de 26,5%, IPV de 72,0%, e índice de fluxo salivar médio de 0,19 mL/min criança. Já o grupo de crianças sadias apresentou CPO-D de 1,52 ± 3,5, ISG de 11,1%, IPV de 53,8% e índice de fluxo salivar médio de 0,27 mL/min. Conclusão: o tratamento para a cura da LLA provoca um aumento significativo no número de anomalias dentárias, sendo mais freqüente nos pacientes menores de cinco anos de idade, principalmente nos pacientes submetidos a quimio e radioterapia associadas ao transplante de medula óssea, o que requer, por parte do cirurgião-dentista, intervenções clínicas diferenciadas e cuidadosas nestes pacientes, tendo-se em vista também os índices aumentados de ISG e IPV. As alterações sofridas pelas glândulas salivares durante o tratamento não são permanentes sob o aspecto do fluxo salivar, que retorna à normalidade. A orientação e o acompanhamento adequados destes pacientes por parte da equipe de saúde bucal podem mantê-los com o índice de CPO-D dentro dos padrões preconizados pela Organização Mundial de Saúde.
Resumo:
A dosagem do PSA associada ao toque retal (TR), figuram como os exames iniciais na detecção do câncer de próstata, sendo não raras vezes realizados no mesmo dia, sobretudo em campanhas de rastreamento. Sabe-se que diversos tipos de manipulações sobre a próstata podem provocar elevações na dosagem sérica do PSA; o efeito do TR, contudo, não está totalmente esclarecido. O presente estudo foi realizado no Hospital de Clínicas de Porto Alegre, em outubro de 2000, e teve como principal objetivo estabelecer a influência do TR sobre a dosagem sérica do PSA total e de sua fração livre. A partir de uma amostra inicial de 253 indivíduos, extraídos de uma campanha anual para rastreamento do câncer de próstata (Quinzena de Próstata), realizou-se duas coletas de sangue intercaladas entre si por um TR. Para a análise estatística considerou-se significativo um p < 0,05. A média de idade do grupo foi de 61,5 anos, 80% dos quais de etnia caucasiana e cerca de 50% do total referindo-se assintomáticos. A mediana do PSA pré-TR foi de 1,30ng/ml e a do pós-TR de 1,80ng/ml, sendo que após o TR verificou-se uma elevação do PSA em mais de 80% dos indivíduos (teste de Wilcoxon, p<0,0001). 1/5 da amostra (52 pacientes), dos quais 32 deles com PSAs ≤ 4ng/ml, evidenciaram aumentos iguais ou superiores a 1 ng/ml Sete pacientes (≅ 3% da amostra) com PSAs dentro do intervalo de normalidade (0-4ng/ml) antes do TR passaram a apresentar PSAs alterados após o mesmo. O PSA livre obteve uma mediana percentual de aumentos proporcionalmente mais elevada que a do PSA total (183% para 26% do PSA total). Dentre as variáveis estudadas, a idade demonstrou ser um dos principais fatores a influenciar os resultados (elevações maiores proporcionais ao aumento das faixas etárias). Outros fatores como o volume prostático e o achado de prostatite à biópsia também foram relevantes. No nosso estudo, o tempo entre o TR e a segunda coleta de PSA não influenciou significativamente os resultados (6 a 330 min). Baseados nestes resultados recomendamos, pois, que em campanhas de rastreamento e em outras situações equivalentes, o PSA seja coletado previamente ao TR e não após este, a fim de evitar-se a utilização de resultados não fidedignos.
Resumo:
A partir da prática da Equipe Técnica de Educação Especial (ETESP), órgão da Secretaria Estadual de Educação do Estado do Rio de Janeiro, representativa do sistema enquanto lugar de relações de poder, desenvolve-se uma análise crítica da educação especial. A fundamentação teórica dessa análise, em um primeiro momento, coloca em questão o problema da normalidade, dentro da visão de Canguilhem e, em um segundo momento, relaciona as teorias de Lacan e Marx, principalmente em relação ao problema da determinação e da permanência da lógica sócio-cultural em que vivemos. Definida as práticas institucionais, dentro de uma perspectiva foucauldiana, como processo gradual que tem como objetivo a produção de corpos dóceis e submissos, coloca a ETESP, seus técnicos e as professoras das classes especiais, no papel de garantir e perpetuar a hegemonia da classe que detem o poder, submetendo a uma prática normatizadora todos os alunos que não se enquadram no funcionamento da escola. Aponta a necessidade de mudança no conceito de "excepcional" e a possibilidade de criação de espaços e metodologias novas, como formas de transformação do atual quadro da educação especial.
Resumo:
Este trabalho tem por finalidade a construção de um instrumento psicológico de medida de comportamentos criativos, o Teste de Aptidão Criativa - TAC. A construção do TAC é justificada de um lado, por sua utilidade; sobretudo para o orientador profissional e psicólogo escolar e de outro; pela inexistência no Brasil; em particular no Nordeste, de instrumentos de medida similar. A formulação do problema e seu contexto são descritos logo no início do trabalho, bem como, a fundamentação teórica. Neste particular, enfatizou-se o enfoque psicológico da criatividade v em suas abordagens personológica e cognitiva. Atenção especial foi dada ao estudo do "modelo da estrutura do intelecto" de J. P. Guilford, suporte teórico do TAC. O teste de Aptidão Criativa é apresentado em todas as etapas de sua construção , desde a forma pré-piloto ç à piloto e à experimental, salientando-se seus respectivos subtestes figural e verbal. Ilustrações dos itens, bem como, das formas do teste são também apresentadas para melhor compreensão do texto. Em prosseguimento descreve- se uma pesquisa empírica realizada com o TAC, cujas hipóteses operacionais visam comprovar sua validade de constrito sua fidedignidade. A população foi constituída de alunos, de ambos os sexos, que cursaram em 1977 a 8a. série do 1º grau, de escolas públicas ou particulares; do município do Recife. O trabalho descreve detalhadamente a determinação da amostra, os instrumentos utilizados bem como os critérios de avaliação dos dados. O tratamento estatístico consistiu em medidas de tendência ceutra e de variabilidade; análise fatorial (técnica dos componentes principais-solução Varimax) para verificação da validade de construto. Os resultados obtidos, pela análise fatorial, demonstraram a presença de três fatores: um denominado C e interpretado como Convergente e dois, mensuráveis pelo TAC (conforme mostram as cargas fatoriais) que foram chamados de F (Fluência e Flexibilidade) e 0 Originalidade. O índice de homogeneidade calculado pelo “ de Cronbach" da característica originalidade entendida como essencial para a criatividade foi de 0,72. Tal resultado permite afirmar que na amostra testada o TAC , neste aspecto, apresenta fidedignidade significativa. Uma análise de regressão múltipla por passos foi levada a efeito, visando a identificação dos itens que mais contribuíram para explicação do escore total. Os resultados permitiram apontar uma melhor forma para o TAC figural constituída pelos itens I , II, V, VI , VII e VIII, os quais comporão a forma definitiva do TAC. Calculou-se também o estatístico Z do "Teste de urna Amostra de Kolmogorou para verificação da normalidade da distribuição das três características que o de medir: Fluência, Flexibilidade e Originalidade. Explicita-se ainda uma crítica à técnica de computação das respostas do TAC em face do índice de flexibilidade e propõe-se a realização de estudos, que permitam a formulação de novos procedimentos para um tratamento mais adequado das respostas aos estímulos do teste. Sugere-se também um estudo teórico sistemático de maior profundidade sobre os pontos de convergência entre as teorias psicológicas que tratam o tema para uma melhor compreensão da natureza e dinâmica do comportamento criativa. Propõe-se ainda a continuidade da pesquisa empírica que deu origem a este trabalho, tendo por objetivo imediato a padronização do TAC, de modo a poder ser ele instrumento útil ao psicólogo, na prática da psicologia aplicada.