66 resultados para Modelagem estrutural interpretativa


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata do problema da seleção de Sistemas Integrados, ou ERP (Enterprise Resource Systems), investigando o processo especificamente sob o ponto de vista da Análise de Decisões. Procura analisar a associação entre a satisfação tanto com o Sistema Integrado selecionado quanto com a forma em que foi estruturado o próprio processo de seleção, com variáveis especificamente selecionadas para tal, representativas, entre outros, de grupos de critérios de decisão e características específicas do processo de seleção, relacionadas, estas últimas, a questões como o tratamento dado ao fator risco e ao possível caráter coletivo da decisão. Questiona a possibilidade de modelagem do processo de seleção de Sistemas Integrados, a partir da proposta normativa oferecida pela Teoria da Utilidade, e da suposta existência de um gap ou distância entre esta proposta e a prática naquele processo de seleção. Propõe um modelo mental genérico que procura explicar o modo como os agentes decisórios abordam o problema de seleção de sistemas integrados. Apresenta e propõe um modelo dinâmico que justificaria a existência do gap acima mencionado a partir da incapacidade do modelo mental genérico em apreender toda a complexidade inerente ao problema de seleção de sistemas integrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a hipótese da paridade de poder de compra em sua forma absoluta no Brasil entre 1980 e 2006. Para testar a paridade de poder de compra (PPC) em sua forma absoluta foram realizados, inicialmente, os tradicionais testes de raiz unitária. As alterações nas condições macroeconômicas das séries brasileiras podem ter alterado as propriedades estocásticas das séries de câmbio e de nível de preços, o que pode ter viesado os resultados dos testes ADF do segundo capítulo. Os testes de raiz unitária com quebra estrutural foram realizados para reavaliar os resultados dos testes sem quebra estrutural e as conclusões acerca da validade da PPC absoluta no Brasil. Os resultados dos testes de raiz unitária sobre a taxa de câmbio real indicaram a presença de uma raiz unitária quando o câmbio real foi calculado através de índices de preços ao atacado, IPA –DI para o Brasil e PPI para os EUA. Quando foram utilizados índices de preços ao consumidor, IPC – FIPE para o Brasil e CPI para os EUA, a taxa de câmbio real tornou-se estacionária. Esse é um resultado contra-intuitivo pois a paridade de poder de compra absoluta deveria ser válida justamente quando no cálculo da taxa de câmbio real são utilizados índices de preços ao atacado dado que a maioria dos bens que compõe a cesta desses índices tem seus preços determinados pelo comércio internacional. Em seguida, no mesmo capítulo, foi realizada análise de cointegração conforme o procedimento de Johansen e Juselius (1988) para determinar se existe uma relação de longo prazo entre taxa de câmbio nominal, índice de preço externo e interno. Os resultados para a amostra completa (1980:2006) foram desfavoráveis à aceitação da paridade de poder de compra absoluta e também na sub-amostra de 1994 a 2006. Nesse sub-período foi possível notar que a taxa de câmbio estava desalinhada em relação ao comportamento do diferencial de preços externo e interno. No capítulo três foram realizados testes sobre a PPC utilizando procedimentos que levam em conta a presença de quebras estruturais. Primeiramente, foram realizados testes de raízes unitárias utilizando-se o teste de Perron e Vogelsang (1998). O ano de 1998 foi o que apresentou com maior freqüência a menor estatística t, mas para nenhum dos modelos desenvolvidos por Perron e Vogelsang (1998) foi possível encontrar indícios da validade da PPC absoluta. Finalmente, foram realizados testes de cointegração com quebra estrutural utilizandose a metodologia de Gregory e Hansen (1996). O teste desenvolvido por esses autores utiliza como base o teste de cointegração de Engle e Granger (1987) para determinar a menor estatística t para uma determinada amostra. Os anos de 1983 e 2003 foram os que apresentaram com maior freqüência a menor estatística t para os modelos desenvolvidos por Gregory e Hansen (1996), mas em nenhum dos casos foi possível aceitar a hipótese de validade da PPC absoluta. A paridade de poder de compra absoluta foi testada de diversas formas ao longo do trabalho, mas na maioria dos casos, como foi dito acima, não foi possível aceitar sua validade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo central deste artigo é testar a paridade de poder de compra em sua forma absoluta para o caso do Brasil, através de procedimentos econométricos que contempla a possibilidade de existência de quebras estruturais nas séries temporais estudadas. Mesmo controlando todos os testes para a presença de quebras estruturais, os modelos econométricos estimados rejeitaram, em geral, a validade da versão absoluta da paridade de poder de compra que postula que o valor da moeda de um país é completamente determinado pela razão entre o preço doméstico e o preço externo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho procura dar uma resposta à seguinte pergunta de pesquisa: quais variáveis influenciam o comportamento colecionar a partir da perspectiva do consumidor? Para tanto, faz uso de métodos complementares: uso de análise de conteúdo e de modelagem de equações estruturais. As seguintes variáveis foram identificadas: ideal temático, envolvimento, desejo, prazer, permanência, ocupação do espaço e exposição, conhecimento e autoridade. O construto ideal temático foi desenvolvido e escalas para medi-lo e às variáveis permanência, ocupação do espaço e exposição, conhecimento, autoridade e colecionar também foram desenvolvidas. Os resultados sugerem que o modelo estrutural de colecionar aqui desenvolvido é consistente, confiável e válido pelos diversos critérios de análise empregados (índices de adequação do modelo; verificação das hipóteses do modelo; coeficientes de determinação; efeitos diretos, indiretos e totais dos caminhos do modelo e análise de modelos alternativos) e que, portanto, representa uma construção cabível do fenômeno colecionar na área de comportamento do consumidor e que o colecionar é uma forma de estender o eu do colecionador, de uma forma diferenciada, especial. Neste estudo esse fato foi ligado à influência do ideal temático no colecionar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estabilidade econômica que o Brasil atualmente experimenta permite resgatar a tradição de construção e análises prospectivas de médio e longo prazos. Isto remete à necessidade de se pensar mais profundamente acerca da possível evolução da economia brasileira, sendo mister o conhecimento de ferramentas de previsão. O objetivo deste trabalho é contribuir com este propósito. Avanços significativos têm sido observados na modelagem de previsões macro econômicas. Para se avaliar como os modelos de previsão estarão se desenvolvendo no futuro próximo, é necessário entender a evolução das abordagens dos modelos de previsão não-estruturais e estruturais. Como dependem da teoria econômica, os modelos estruturais ganham importância e descaso na medida em que a teoria evolui e cai em desuso. A marca registrada das previsões macroeconômicas nos próximos anos será o casamento das melhores abordagens estruturais e não-estruturais, facilitadas por avanços em técnicas numéricas e de simulação. Para ilustrar o trabalho de forma empírica, três cenários para a economia brasileira foram desenvolvidos, utilizando-se como base o arcabouço teórico resumido em uma das seções deste trabalho. Cenários potencialmente têm um valor muito grande na gestão de uma empresa ou de uma instituição. Cenários são a oitava ferramenta gerencial mais utilizada nas empresas em todo o mundo1 e esta dissertação é mais uma contribuição para este rico campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Governo do Presidente Fernando Collor de Mello promoveu uma reforma administrativa do aparelho público federal, tida por muitos como desastrada e inconseqüente. O Departamento Nacional de Estradas de Rodagem - DNER, uma Autarquia responsável pelas estradas federais, foi um dos órgãos da administração indireta afetado. A dissertação se propõe a identificar as conseqüências dessa intervenção na modelagem organizacional do DNER, tomando como referência os processos reformistas ocorridos na administração pública brasileira desde os anos de 1930. A viagem pela história do órgão mostra os momentos iniciais da sua criação e a sua trajetória do sucesso ao declínio, quando então sofreu a reforma Collor de Mello. Os estudos realizados permitem concluir que as mudanças organizacionais efetuadas fizeram surgir um DNER frágil e limitado na sua capacidade operacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem como tema central o estudo da lealdade de clientes pessoa física por serviços bancários no Brasil. Para estudo do assunto, foram propostos os seguintes objetivos: (1) identificar os fatores que os clientes de serviços bancários associam como benefícios; (2) identificar os sacrifícios incorridos pelos clientes nos serviços bancários; (3) desenvolver uma escala de valor percebido por clientes, pessoa física, de serviços bancários no Brasil; (4) elaborar um modelo teórico que identifique a forma de relacionamento das dimensões de valor que resultam na satisfação, na confiança e na lealdade dos clientes de serviços bancários e (5) testar empiricamente a rede nomológica do modelo desenvolvido, envolvendo valor, confiança, satisfação e lealdade. Inicialmente foi realizada uma revisão da literatura acadêmica acerca dos temas valor percebido, confiança, satisfação, lealdade e segmento bancário brasileiro, além dos aspectos relacionais entre os construtos. Para análise das relações foi proposto um modelo estrutural relacionando os construtos mencionados e composto por 13 (treze) hipóteses. Em seguida, procedeu-se à construção de uma escala de mensuração de valor percebido por clientes de serviços bancários de acordo com as etapas sugeridas pela literatura. A fim de testar e validar a escala foram realizados dois estudos de campo, sendo o primeiro composto por 167 (cento e sessenta e sete) estudantes de graduação e pós graduação que utilizam serviços bancários e o segundo por 341 (trezentos e quarenta e hum) clientes de serviços bancários de diferentes bairros da cidade de Fortaleza, CE. Durante o trabalho de pesquisa descritiva foi utilizado o método de survey (levantamento), baseado na coleta dos dados primários através de questionários estruturados. A análise dos resultados se utilizou de abordagens quantitativas, em especial análise de correlação bivariada, análise de regressão múltipla e técnicas estatísticas de modelagem de equações estruturais. De forma geral, os objetivos da pesquisa foram atendidos, com a validação da escala de mensuração de valor percebido em serviços bancários e com a confirmação de 5 (cinco) hipóteses através da modelagem de equações estruturais que foram: (1) a dimensão qualidade operacional está positivamente relacionada à confiança, (2) a dimensão qualidade operacional influencia positivamente a satisfação do consumidor, (3) a dimensão comodidade e acesso influencia direta e positivamente à satisfação, (4) a satisfação influencia direta e positivamente à confiança e (5) a confiança influencia direta e positivamente à lealdade. Ao final do trabalho, indicações de possíveis aprimoramentos para futuras pesquisas são discutidas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Usando dados intradiários dos ativos mais negociados do Bovespa, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregresive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009)e o Mixed Data Sampling (MIDAS-RV) desenvolvido por Ghysels et. al (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A pesquisa teve como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica sugerida por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado à análise tradicional de Johansen (1988).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é criar um modelo que permita predizer quais clientes possuem tendência a abandonar a empresa (churn) através da base de dados de solicitações de reparo dos clientes de banda larga. Este tema ganha importância à medida que a concorrência neste mercado se acirra e novas tecnologias para acesso à banda larga são disponibilizadas aos clientes. Para este estudo foram utilizadas as bases de dados de solicitações de reparo e de solicitações de desligamento do serviço. O primeiro modelo criado utilizou as variáveis tempo até o reparo e a quantidade de solicitações de reparo. Na busca por um modelo com maior nível de acerto, foi criado um segundo modelo no qual se consideraram as variáveis motivo da reclamação e causa do defeito. O resultados do estudo indicam que as variáveis tempo até o reparo e quantidade de solicitações de reparo influenciam na taxa de solicitações de desligamento, assim como alguns motivos de solicitação de reparo e causa de defeito são mais relevantes para a decisão de desligamento. No entanto, o nível de acerto dos modelos criados é baixo. Portanto, a utilização destes modelos para identificação e abordagem de clientes propensos a solicitar desligamento implica em ajustes no nível de certeza do modelo e consequente redução na quantidade de clientes a serem abordados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo para determinação da superfície de volatilidades de um par de moedas cujas opções têm baixa liquidez, utilizando superfícies de volatilidade com maior liquidez, de pares de moedas em que as moedas estudadas sejam uma de suas componentes. Esse objetivo é atingido através da utilização de um modelo de volatilidade estocástica. A calibração de seus parâmetros é feita a partir dos valores de mercado de Butterfly Spreads e Risk Reversals dos pares de moedas líquidos. O trabalho contribui em relação à literatura no sentido de ampliar a cobertura de strikes e vencimentos considerados, permitindo que, tanto opções pouco líquidas e fora do dinheiro, como notas estruturadas com opções embutidas possam ser mais adequadamente apreçadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitos bancos e fundos de investimento mantêm opções de ações com pouca liquidez em suas carteiras que precisam ser apreçadas diariamente, e esta falta de liquidez gera dificuldades para o processo de apreçamento. A proposta deste trabalho para resolver este problema é utilizar um modelo derivado do CAPM para estimar a superfície de volatilidades implícitas destas opções sem liquidez através da superfície de volatilidades implícitas de opções do Índice BOVESPA, ou de outras opções com maior liquidez. O modelo testado é conhecido como modelo de um fator e é utilizado para o cálculo da variância, e conseqüentemente do risco, de uma ação, ou de uma carteira de ações. Porém, neste trabalho, testaremos a validade da aplicação deste modelo para a obtenção das volatilidades implícitas de opções ilíquidas, mas com liquidez nos ativos objeto, através dos betas obtidos pelo CAPM e de volatilidades implícitas de opções líquidas e com ativos objeto também líquidos. Para o teste, foram utilizadas séries históricas de volatilidades implícitas de opções de compra líquidas de algumas ações negociadas na BM&FBOVESPA no período de 2005 a 2010, e estas foram comparadas com as volatilidades implícitas obtidas através do modelo proposto. Com os resultados, pode-se observar que as volatilidades implícitas obtidas pelo modelo são boas estimativas para apreçarmos opções com deltas próximos de 50% e para vencimentos de até 2 meses.