989 resultados para MODELOS ARIMA


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As doenças cerebrovasculares, popularmente conhecidas como derrames, são uma das principais causas de morbidade e mortalidade entre adultos e idosos. Contudo, muitos pacientes que sofrem derrame sobrevivem e experimentam as conseqüências do insulto por muitos anos, muitas vezes a nível emocional, motor ou intelectual. Dentre estas lesões, destaca-se a isquemia cerebral. Existem modelos experimentais de isquemia cerebral in vivo e in vitro. Os modelos in vitro são realizados em culturas ou fatias de tecido cerebral submetidas à Privação de Oxigênio e Glicose (POG), que mimetizam condições traumáticas similares, mas não idênticas às produzidas in vivo. A investigação da atividade de substâncias potencialmente neuroprotetoras a partir da comparação da morte celular entre culturas ou fatias de tecido cerebral controle e tratadas é facilitada neste tipo de modelo experimental. Após a injúria, as culturas são expostas a métodos de avaliação da viabilidade ou dano celular como, por exemplo, o corante fluorescente iodeto de propídeo, que marca seletivamente células mortas ou em curso de morte, ou MTT (3-[4,5-dimethylthiazol-2-yl]-2,5-diphenyltetrazoliumbromide) que mede a viabilidade mitocondrial possibilitando uma posterior quantificação. As plantas são uma fonte importante de produtos naturais biologicamente ativos, muitos dos quais se constituem em modelos para a síntese de um grande número de fármacos. Um exemplo é a planta kava-kava ou somente kava (Piper Methysticum) a qual chamou a atenção dos pesquisadores devido à sua utilização nas ilhas do Pacífico sul. Foi demonstrada a possibilidade da kava possuir uma variedade de atividades farmacológicas importantes, entre elas a atividade de neuroproteção Esse trabalho tem como objetivo avaliar a atividade neuroprotetora do extrato de kava-kava (Piper methysticum) em modelos in vitro de morte neuronal em fatias de hipocampo de ratos, investigar o envolvimento da proteína de choque térmico HSP27 (Heat Shock Protein) no processo de morte e neuroproteção induzida pela kava, bem como investigar o efeito da lesão induzida por POG sobre o imunoconteúdo da proteína Oxido Nítrico Sintase induzível (iNOS). Os resultados dos experimentos por nós realizados nas culturas organotípicas submetidas à POG por 40 minutos e tratadas com extrato de kava (7µg/ml) demonstraram uma significativa redução, na ordem de 58% na intensidade da morte neuronal na região CA1 do hipocampo em resposta à injúria. Em fatias hipocampais submetidas à POG por 60 minutos a adição do extrato de kava 7µg/ml aumentou em 15% a viabilidade celular, confirmando a atividade neuroprotetora sugerida para esta planta. As culturas expostas à POG e tratadas com kava apresentaram um aumento significativo no imunoconteúdo da proteína HSP27, esse aumento é acompanhado de um aumento da fosforilação, uma vez que a percentagem de proteína fosforilada se mantém igual. As fatias lesionadas tratadas com kava apresentaram uma diminuição significativa no imunoconteúdo da iNOS na ordem de 35 % em relação as fatias lesionadas tratadas com DMSO (Dimetilsulfoxido). Estes dados podem sugerir que um dos mecanismos da neuroproteção observada para o extrato de kava, possa envolver essas proteínas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

propósito deste trabalho estudar as implicações econômicas da previdência social no contexto do mais amplamente difundido modelo de gerações superpostas (OLG), construído por Paul Samuelson (1958) complementado por Peter Diamond (1965) exemplifica-las mediante simulações. Para tanto, serão utilizadas três versões destes modelos, do próprio Diamond (1965), de Robert Barro (1974) de Marco Martins (1995), as quais se diferenciam pela maneira como cada uma delas incorpora demanda por capital dos agentes. Serão examinados em especial os efeitos da previdência sobre acumulação de capital sobre bem-estar da sociedade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor pre- sente (MVP) na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, a previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada em um arcabouço de séries temporais utilizando a técnica de Au- torregressões Vetoriais. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é testar diversas especificações de modelos de ciclos reais de negócios em pequena economia aberta e avaliar em que medida eles conseguem reproduzir as características dos ciclos econômicos brasileiros. Um problema recorrente nos modelos de pequena economia aberta é que sua dinâmica de equilíbrio depende de condições iniciais e apresenta características não estacionárias. Neste trabalho estão presentes três diferentes especificações de modelos, que diferem na forma como a estacionariedade é induzida, são eles: 1) modelo com taxa de desconto endógena; 2) modelo com prêmio de risco elástico à dívida; 3) modelo com mercados completos. Também é testada a sensibilidade dos modelos a duas especificações de preferências - como em Greenwood et alli(1988) e como em Hansen(1985). Os modelos conseguiram replicar características importantes dos ciclos internacionais - como a correlação negativa entre a balança comercial e o produto, e a característica pró-cíclica das outras variáveis. Apenas o modelo com prêmio de risco conseguiu reproduzir a alta volatilidade do consumo brasileiro, sendo este resultado sensível à especificação de preferências. O choque de juros mostrou-se pouco importante para a dinâmica de todos os modelos e o custo de ajustamento foi essencial para a obtenção dos principais resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo explicar o funcionamento do Sistema Brasileiro de Defesa da Concorrência e apresentar novas ferramentas de auxílio à política antitruste. Para isso, discutiremos o Sistema Norte-Americano de Defesa da Concorrência e, principalmente, o guideline americano, que é a base das técnicas de análise de fusões e aquisições em grande parte dos países, inclusive o Brasil. Uma vez apresentado o ambiente institucional, explicare- mos alguns modelos de simulação de fusões, uma técnica relativamente recente utilizada por alguns órgãos antitruste do mundo que permite fazer previsões do novo nível de preços da indústria após a fusão. Para ilustrar as virtudes do método, aplicaremos o modelo a alguns casos de aquisições conhecidos no Brasil e analisaremos seus resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.