60 resultados para Modelos de dados de contagem
Resumo:
Este trabalho estima modelo CCAPM (consumption capital asset pricing model) para três classes de funções utilidade com dados brasileiros, gerando estimativas robustas de aversão ao risco elasticidade substitu ição intertemporal. Os resultados são analisados comparados resulta dos anteriores para dados brasileiros americanos.
Resumo:
O objetivo desse trabalho é estudar diferentes aspectos que envolvem o mecanismo de repasse cambial no Brasil, para o período de flutuação do real. Os resultados obtidos mostram que a apreciação do real possibilitou a desinflação verificada a partir de 2003, refutando estudos anteriores que identificam assimetrias nos efeitos do pass-through. Estimativas de equações de Phillips para diferentes grupos de preços indicam que os bens comercializáveis apresentam maior sensibilidade não apenas ao repasse cambial, mas também aos demais canais de transmissão da política monetária. No sentido inverso, o elevado peso do coeficiente backward-looking nas equações para os bens não-comercializáveis reforça evidências anteriores acerca de grande rigidez na dinâmica temporal daquele grupo. Verificou-se ainda uma elevada inércia na dinâmica dos bens administrados, caracterizando aquele grupo como uma importante fonte de propagação sobre a inflação futura de choques cambais. As estimativas também mostraram que variações nos preços das commodities produzem importantes repasses sobre a inflação, uma vez que seu coeficiente é semelhante ao da variação cambial. Através de uma abordagem VEC, conclui-se que a taxa real de câmbio atua no sentido de alterar os preços relativos entre os bens comercializáveis e não-comercializáveis, e que o preço real das commodities possui um papel central nesse processo, produzindo variações tanto no câmbio real como nos preços relativos domésticos. Por fim, funções resposta a impulso, calculadas a partir de modelos VAR, confirmam que os choques na taxa cambial são transmitidos sobre os preços com defasagens, atingindo o valor máximo três trimestres após a ocorrência do choque.
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor pre- sente (MVP) na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, a previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada em um arcabouço de séries temporais utilizando a técnica de Au- torregressões Vetoriais. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.
Resumo:
Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.
Resumo:
O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.
Resumo:
A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.
Resumo:
Este estudo apresenta uma análise comparativa dos modelos de regulação dos setores nucleares da Argentina - a cargo da Autoridad Regulatoria Nuclear (ARN), e do Brasil- sob a responsabilidade da Comissão Nacional de Energia Nuclear (CNEN), que procura identificar, por meio de critérios de análise selecionados a partir do referencial teórico, qual modelo é o mais adequado objetivando o uso seguro da energia nuclear. O Capítulo I apresenta uma breve descrição dos modelos de regulação dos setores nucleares do Brasil e da Argentina, bem como os objetivos, a delimitação do estudo e a relevância da pesquisa. O referencial teórico, Capítulo 2, contém tópicos sobre a reforma do Estado, os tipos de regulação, a regulação no Brasil e as características do setor nuclear internacional e brasileiro. A seguir, foram selecionados critérios de análise que correspondem às características das agências reguladoras brasileiras criadas para outros setores da economia, no bojo da reforma de Estado implementada no Brasil a partir de meados dos anos 90. Posteriormente, estes critérios de análise foram utilizados como parâmetros de comparação entre os modelos de regulação dos setores nucleares da Argentina e do Brasil. A metodologia de pesquisa é descrita no Capítulo 3, definindo-se o tipo de pesquisa, o universo e a amostra, a forma de coleta e tratamento dos dados e as limitações do método empregado. No Capítulo 4 é descrito o modelo de regulação do setor nuclear argentino, apresentando-se também um breve histórico sobre a criação da ARN. O Capítulo 5 apresenta a descrição do modelo de regulação do setor nuclear brasileiro, os estudos e recomendações existentes sobre a regulação do setor e os resultados da pesquisa empírica realizada junto aos servidores da CNEN. Com base na análise comparativa, Capítulo 6, pode-se concluir, Capítulo 7, que a estrutura regulatória e fiscalizadora do setor nuclear argentino, sob responsabilidade da ARN, mostra-se mais adequada no que tange ao uso seguro da energia nuclear, do que o modelo adotado no Brasil pela CNEN, pois incorpora os critérios de independência funcional, institucional e financeira, definição de competências, excelência técnica e transparência, necessários ao desempenho de suas funções de forma autônoma, ética, isenta e ágil.
Resumo:
A teoria tradicional de Tobin (1958) sugere que todos os investidores possuem o mesmo portfólio de ativos arriscados, chamado de portfólio de mercado. A proporção entre esse ativo arriscado e o livre de risco dentro de cada portfólio dependeria apenas do grau de aversão a risco de cada agente. No entanto, as imperfeições existentes no mercado de capitais, permitem que a heterogeneidade dos agentes econômicos influencie nas suas alocações de portfólio. Este trabalho avalia o efeito de características econômicas e sócio-demográficas dos investidores de fundos administrados pelo BNY Mellon Serviços Financeiros em sua inclinação a tomar posições em fundos agressivos. Através da análise do conjunto de resultados observados através de três diferentes modelos econométricos, concluiu-se que a evidência empírica para a realidade brasileira, vai, em boa parte, ao encontro da teoria econômica sobre a alocação ótima de portfólio.
Resumo:
o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
Este estudo visa contribuir para um maior entendimento de um fenômeno atual que atinge a indústria de aparelhos celulares. Ao que se percebe, as forças que regem a indústria têm se modificado nos últimos anos, favorecendo estruturas desverticalizadas. Tal fenômeno pode vir a mudar toda cadeia de valor num futuro próximo, favorecendo a entrada de novas empresas, ao mesmo tempo que criando desafios aos tradicionais participantes desse mercado. O trabalho procura identificar as relações causais entre verticalização e competitividade para a indústria de aparelhos celulares no Brasil. Para tanto, foram analisados dois casos contrastantes: o de modelo tradicional (Motorola); e outro de modelo inovador em sua concepção da cadeia de valor (Gradiente). Através do estabelecimento de pressupostos teóricos, foi adotada a técnica de adequação ao padrão de variáveis dependentes. A coleta de dados foi extensa, incluindo entrevistas com representantes-chave da indústria, questionários estruturados, análise de documentos e observação participante. Em função da análise das variáveis externas, criaram-se os fundamentos para se perceber como as forças podem favorecer, ou não, a verticalização. Tal análise foi feita utilizando-se as teorias de amadurecimento da indústria, verticalização e cinco forças da indústria. Em seguida, foi feito um mapeamento da cadeia de valor do setor no Brasil, utilizando os conceitos de cadeia de valor, para se definir o modelo de negócio de cada um dos casos analisados. Por fim, foram analisadas as estratégias de cada um dos modelos de negócio para se perceber qual das estratégias seria mais adequada ao momento que a indústria vive, bem como das restrições criadas pela indústria no momento, no mercado brasileiro. Nesse ponto, foram utilizadas como referência as teorias de estratégias genéricas, RBV, cadeia de fornecedores, disruptura e objetivos de desempenho em operações. O setor passa por mudanças significativas que podem alterar completamente as regras anteriormente estabelecidas. Algumas das evidências encontradas foram o amadurecimento do mercado que se aproxima, a difusão de tecnologia proprietária, a modularização das arquiteturas de produto, a baixa especificidade dos ativos, a possibilidade de compra de escala de terceiros, a diminuição dos custos de coordenação - promovida pela massificação dos meios de comunicação modernos -, surgimento de players de nicho, comoditização de uma grande parte dos segmentos de mercado, barreiras de entrada baixas para novos competidores e poderosos compradores que têm interesse no fomento de novos fornecedores.
Resumo:
O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.
Resumo:
A determinação e a mensuração da importância das principais fontes de vantagem competitiva, ainda é um tema em discussão na área de Estratégia. Uma linha de pesquisa, iniciada em meados dos anos 80, tem seu foco principal na determinação e quantificação da importância dos fatores que poderiam explicar as diferenças no desempenho de um grupo de empresas, utilizando a decomposição da variância dos valores do desempenho através das técnicas de Regressão Linear ou de Componentes de Variância. Nesta linha de pesquisa, desenvolveram-se uma série de trabalhos empíricos cujo propósito principal é quantificar, entre outros fatores, qual a importância do setor industrial em que a empresa atua, qual a importância do ano, qual a importância de se fazer parte de um grupo econômico e qual a importância dos fatores idiossincráticos da empresa na explicação do desempenho apresentado em determinados períodos. Dos resultados destes trabalhos surgiram discussões importantes sobre o papel da estratégia corporativa e sobre a importância relativa de tais fatores na determinação da vantagem competitiva. Este trabalho se insere nesta linha de pesquisa, cujo objetivo é, utilizando uma base de dados brasileira muito mais abrangente e completa que os estudos anteriores, quer nacionais e internacionais, primeiramente verificar se a realidade apontada nos estudos internacionais se assemelha à do Brasil. Em segundo lugar, contribuir com um refinamento teórico, refazendo estas análises utilizando modelos lineares mistos, mais apropriados para estes conjuntos de dados, que os modelos de componentes de variância. Em terceiro lugar, utilizando dois tipos de matriz de covariância, verifica se o desempenho de um determinado ano influi no desempenho dos anos imediatamente subseqüentes, verificando, assim, a possível existência de medidas repetidas para a variável ano. Finalmente, analisa se parte da variabilidade do desempenho das empresas brasileiras pode ser atribuído ao fato da empresa se localizar em determinada Unidade da Federação
Resumo:
Estudo que sistematiza e compara os resultados apresentados por diferentes modelos de gestão hospitalar pública do Estado de São Paulo, durante o período de 2000 a 2001, quando a rede era composta por mais de 60 hospitais públicos. Por meio de uma extensa revisão bibliográfica foi traçado um panorama ao longo das últimas décadas, no que tange à Reforma do Estado, e as transformações que o Estado sofreu na tentativa da redução dos gastos govermentais, em função de sua crise econômico-financeira à partir da década de 70 e como estas afetaram as políticas de Saúde Pública. Buscou-se uma metodologia que permitisse a análise da eficiência técnica, e do desempenho da nova Política Pública que introduz o terceiro setor e outras formas organizacionais como agentes gestores do aparelho de Saúde Pública. A coleta de dados foi realizada em onze hospitais estudados, os quais foram analisados e classificados de acordo com o modelo de gestão: administração direta, administração mista e administração por OSS; em relação às dimensões de capacidade instalada, recursos humanos, produção e financeiras comparados entre sí e frente a literatura. Seguindo-se a aplicação de dois modelos de DEA (CCR e BCC), orientados à maximização dos resultados, que permitiram a elaboração dos rankings de eficiência técnica. Após a análise dos dados e de posse dos resultados foi realizada a discussão dos mesmos, possibilitando investigar a eficiência técnica de três modelos de gestão hospitalar, tendo em vista as seguintes questões: a eficiência técnica do novo modelo de gestão por Organizações Sociais em Saúde é superior que os demais? Os hospitais de porte menor são mais eficientes? e por fim se os hospitais universitários têm eficiência menor que os demais? Chegando-se à conclusão de que a diferença do escore de eficiência técnica dentre os três modelos de gestão estudados não foi estatísticamente significativa em ¾ dos modelos de DEA aplicados (p-valor 0,1576); que o escore de eficiência técnica não apresentou diferença estatísticamente associada ao porte (H-valor 3,15;) e que os hospitais universitários embora mais custosos não apresentam grau de ineficiência maior que os demais (p-valor 0,2909). E por fim que é recomendável introduzirem-se métodos objetivos de avaliação da eficiência hospitalar como ferramenta indispensável à moderna Administração de Saúde e à elaboração e definição de Políticas Públicas direcionadas ao Setor.