181 resultados para Base de dados e Aplicação Móvel
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Trata do uso dos dados pessoais integrado aos serviços digitais (e-services), criando um ambiente único para gerenciamento e uso destes, denominado de solução de base de dados pessoal. Além de descrever e caracterizar o ambiente e os componentes desta nova solução, são discutidas ações e desenvolvimentos requeridos para os seus principais habilitadores: humanos, tecnológicos e empresariais
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
Trata das questões de organização e recuperação da informação no caso específico do acervo do Centro de Pesquisa e História Contemporânea do Brasil – CPDOC. Baseia essa análise num estudo de caso do uso do serviço de referência da instituição prestado pela Sala de Consulta e também no utilização da base de dados Accessus. Traça um perfil do usuário do acervo da instituição além de um perfil de pesquisa desses indivíduos ao mapear o comportamento dos usuários diante da ferramenta Accessus. Aborda o contexto da elaboração da base de dados e investiga a criação da linguagem controlada em história e ciências afins que serviu de base para o Accessus. Problematiza as questões de acessibilidade da linguagem a um público não relacionado com a área. Pareia essa problematização com análise dos diferentes perfis de usuários. Discute a forma de indexação do acervo do CPDOC e suscita reflexões sobre esse processo que considere uma relação direta com o perfil dos usuários.
Resumo:
Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.
Resumo:
A Avaliação do risco de crédito agregado é um grande desafio para as empresas em todo mundo. O dinamismo do mercado e o desenvolvimento dos derivativos de crédito tornaram a gestão do risco de crédito fundamental para o negócio das instituições financeiras. Nas instituições não-financeiras, o foco na gestão do risco de crédito agregado ainda é pequeno, mas os benefícios e a necessidade de uma visão agregada da carteira já são identificados. No caso brasileiro, esse trabalho é dificultado devido à carência de base de dados e ao mercado financeiro pouco desenvolvido. Diante desse desafio, o objetivo do trabalho é apresentar um modelo para avaliação do risco de crédito agregado que seja aplicável em empresas brasileiras não-financeiras, onde o CreditRisk+ foi escolhido pela facilidade de cálculo e baixa dependência de informações de mercado. Entretanto, para adequá-lo ao caso brasileiro são necessárias algumas flexibilizações, que serão apresentadas a seguir no modelo adaptado para o caso brasileiro. Por fim, para testar a aderência do modelo, foi utilizada uma amostra da carteira de crédito da Companhia Vale do Rio Doce (CVRD), que nos fornece resultados conclusivos sobre a performance da metodologia escolhida ao final do trabalho.
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).
Resumo:
Este trabalho minera as informações coletadas no processo de vestibular entre 2009 e 2012 para o curso de graduação de administração de empresas da FGV-EAESP, para estimar classificadores capazes de calcular a probabilidade de um novo aluno ter bom desempenho. O processo de KDD (Knowledge Discovery in Database) desenvolvido por Fayyad et al. (1996a) é a base da metodologia adotada e os classificadores serão estimados utilizando duas ferramentas matemáticas. A primeira é a regressão logística, muito usada por instituições financeiras para avaliar se um cliente será capaz de honrar com seus pagamentos e a segunda é a rede Bayesiana, proveniente do campo de inteligência artificial. Este estudo mostre que os dois modelos possuem o mesmo poder discriminatório, gerando resultados semelhantes. Além disso, as informações que influenciam a probabilidade de o aluno ter bom desempenho são a sua idade no ano de ingresso, a quantidade de vezes que ele prestou vestibular da FGV/EAESP antes de ser aprovado, a região do Brasil de onde é proveniente e as notas das provas de matemática fase 01 e fase 02, inglês, ciências humanas e redação. Aparentemente o grau de formação dos pais e o grau de decisão do aluno em estudar na FGV/EAESP não influenciam nessa probabilidade.
Diversificação e performance - uma análise das estratégias de diversificação em empresas brasileiras
Resumo:
Este trabalho visa explorar, com base em dados brasileiros, a relação entre diversificação e performance. Como medida de performance serão utilizados valores correspondentes ao índice q de Tobin para empresas de capital aberto. Para o cálculo do índice de diversificação de uma firma serão utilizados índices compostos a partir da codificação americana SIC (Standard Industry Code). A verificação da relação estatística entre diversificação e performance será então aferida através da aplicação de modelos de regressão linear e sistemas de equações estruturais simultâneas.
Resumo:
Este projeto de pesquisa teve por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas estão se utilizando da Internet e outras tecnologias da informação para agregar valor e/ou reduzir custos para os seus clientes, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com fornecedores e outros parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. O objetivo principal foi verificar se o modelo preliminar proposto explicava o comportamento das empresas industriais de São Paulo, permitindo uma reflexão sobre eventuais discrepâncias e o aprimoramento do modelo, além da recomendação de linhas de ação para as empresas. Procurou-se, ainda, determinar se os usos feitos da Internet pelas empresas envolvidas na pesquisa, assim como as transformações por elas realizadas em seu ambiente empresarial em virtude da disponibilização das novas tecnologias, eram extensíveis a outros segmentos do mercado, além dos que representaram o objeto de estudo imediato deste trabalho.
Resumo:
Essa dissertação trata de algumas variáveis que podem influenciar a percepção dos consumidores no contexto de análises comparativas de preços durante o processo de compra. As variáveis estudadas foram: a forma de apresentação das ofertas dos produtos, a escolaridade dos participantes do estudo e a familiaridade para com o uso do produto. A importância desse estudo está fundamentada na necessidade de entendimento de como a percepção de vantagem na aquisição de produtos ocorre na presença das variáveis de influência estudadas, com o propósito prático de aplicação dos resultados no mercado varejista. A pesquisa foi realizada por meio de um estudo empírico, na cidade de São Luís ¿ MA, utilizando uma amostra de cento e noventa e duas pessoas, divididas igualmente entre estudantes de escolaridade média e superior. Os participantes do estudo avaliaram situações de compra em cenários fictícios com formas de apresentação de ofertas distintas, em que a percepção de vantagem foi avaliada em função das escolaridades e das familiaridades utilizadas no estudo. A base teórica para desenvolvimento do trabalho considerou a Teoria dos Prospectos de Kahneman e Tversky (1979) e a Teoria da Contabilidade Mental de Thaler (1985). Em função da natureza da base de dados foram utilizados testes não-paramétricos de Friedman, Kruskal-Wallis, Wilcoxon e Mann-Withney. Os resultados obtidos confirmaram as hipóteses levantadas e geraram subsídios para pesquisa futura envolvendo o aspecto familiaridade relacionada às marcas. Palavras-chave: contabilidade mental, percepção, preço de referência.
Resumo:
Esta tese tem por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas do setor industrial estão se utilizando da Internet e outras tecnologias da informação para agregar valor para os seus clientes e/ou reduzir seus próprios custos, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com os parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. Responderam ao questionário 665 empresas industriais do estado de São Paulo.
Resumo:
O tema do estudo é Destination Branding (DB), o processo de construção e desenvolvimento de marcas de destinos. O referencial teórico sobre o tema, bem como o estudo do branding da Nova Zelândia, estabeleceram as bases para a construção de um quadro de referência de DB, que foi estruturado em três macro etapas: ajuste do contexto, componentes de DB (aplicação de conceitos: imagem e identidade) e operacionalização (gestão, comunicação e avaliação). À luz desse quadro de referência, foi analisada a experiência de DB do Estado da Bahia ¿ um estudo de caso único, de caráter exploratório, com base em dados qualitativos.