908 resultados para Base de dados e Aplicação Móvel


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese tem por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas do setor industrial estão se utilizando da Internet e outras tecnologias da informação para agregar valor para os seus clientes e/ou reduzir seus próprios custos, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com os parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. Responderam ao questionário 665 empresas industriais do estado de São Paulo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O tema do estudo é Destination Branding (DB), o processo de construção e desenvolvimento de marcas de destinos. O referencial teórico sobre o tema, bem como o estudo do branding da Nova Zelândia, estabeleceram as bases para a construção de um quadro de referência de DB, que foi estruturado em três macro etapas: ajuste do contexto, componentes de DB (aplicação de conceitos: imagem e identidade) e operacionalização (gestão, comunicação e avaliação). À luz desse quadro de referência, foi analisada a experiência de DB do Estado da Bahia ¿ um estudo de caso único, de caráter exploratório, com base em dados qualitativos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Redes Bayesianas podem ser ferramentas poderosas para construção de modelos econômico-financeiros utilizados para auxílio à tomada de decisão em situações que envolvam grau elevado de incerteza. Relações não-lineares entre variáveis não são capturadas em modelos econométricos lineares. Especialmente em momentos de crise ou de ruptura, relações lineares, em geral, não mais representam boa aproximação da realidade, contribuindo para aumentar a distância entre os modelos teóricos de previsão e dados reais. Neste trabalho, é apresentada uma metodologia para levantamento de dados e aplicação de Redes Bayesianas na obtenção de modelos de crescimento de fluxos de caixa de empresas brasileiras. Os resultados são comparados a modelos econométricos de regressão múltipla e finalmente comparados aos dados reais observados no período. O trabalho é concluído avaliando-se as vantagens de desvantagens da utilização das Redes de Bayes para esta aplicação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A principal contribuição deste estudo consiste em incluir o risco de liquidez entre os fatores que influenciam o apreçamento dos títulos de renda fixa corporativos brasileiros. Ao longo do trabalho mostramos que, muito embora intuitivamente o preço de uma determinada debênture deva ser uma função das suas características (prazo, rating, garantias, etc), o risco de crédito (risco de inadimplemento do emissor) e o risco de liquidez (risco de não conseguir montar ou se desfazer de uma posição a qualquer momento no preço do mercado) são os dois fatores que melhor definem os riscos envolvidos ao se emitir/comprar uma debênture. O risco de crédito tem sido o foco dos esforços para modelar o preço de um título de renda fixa, principalmente por causa do interesse dos bancos em marcar suas posições de crédito. No entanto, o que se propõe neste trabalho é incorporar o prêmio de liquidez inerente às debêntures distribuídas aos investidores nesses modelos, como um meio de melhor apreçar esses títulos. A tentativa de comprovação dessa hipótese foi feita acompanhando-se os preços indicativos no mercado secundário de debêntures, contrapondo-os aos preços obtidos via modelo de crédito e via modelo de crédito acrescido de modelo de liquidez. Os modelos adotados foram os que possuem características mais adaptáveis ao mercado brasileiro e/ou que fossem de mais simples implementação dadas as restrições brasileiras no que diz respeito à base de dados necessária para a aplicação de cada modelo. No caso do modelo de crédito, após uma revisão detalhada, adotou-se o modelo sugerido por MERTON (1974). Para o modelo do risco de liquidez, o modelo adotado foi o do VaR modificado para contemplar o spread de liquidez. Os resultados obtidos, embora não indiquem que o modelo proposto é eficiente no apreçamento de debêntures, apontam para uma comprovação da hipótese inicial, ou seja, que a inclusão do risco de liquidez nos modelos de apreçamento de crédito aumentam o poder explicativo do modelo de apreçamento resultante e que, portanto, esse seria uma ferramenta importante na análise do mercado de debêntures brasileiro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho objetivou investigar, através de um estudo exploratório e descritivo, a relação existente entre os procedimentos, técnicas e métodos adotados na alocação de custos indiretos em cinco indústrias de calçados da região do Vale dos Sinos (RS) e aqueles apontados na literatura de custos. Também, buscou-se obter depoimentos dos principais usuá rios da informação de custos das empresas sobre a utilidade da alocação de custos indiretos no processo de gerência. Desta forma, procedeu-se a uma revisão de fundamentos teóricos da Contabilidade de Custos, sob a ótica da Contabilidade Gerencial, a partir do qual delineou-se um Plano de Referência que orientou as etapas da pesquisa. A seguir, apresenta-se a metodologia utilizada, justificando- se as razões de seu emprego, assim como as limitações inerentes a esse tipo de estudo exploratório. Com base nos dados obtidos através de entrevistas, mediante a aplicação de um questionário e análise de documentos, fez-se uma descrição dos mecanismos utilizados pelas empresas es tudadas, na prática da alocação de custos indiretos, bem como re latou-se os depoimentos dos gerentes entrevistado~ sobre a utilidade das alocações de custos indiretos, em relação à necessidade de informações gerenciais como: avaliação de estoques, determinação de resultados, fixação de preços, controle e avaliação de desempenho, planejamento e tomada de decisão.Os resultados obtidos permitiram a análi·se comparativa das práticas adotadas pelas empresas com o referencialtéÕ rico previamente levantado. Também, oportunizou a que se chegasse a importantes conclusões, além de fornecerem subsídios para algumas recomendações e sugestões para futuras pesquisas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho objetivou investigar, através de um estudo exploratório, a relação existente entre os procedimentos adotados em uma empresa bancária estatal para avaliação de desempenho de suas agências e aqueles apontados como eficazes na literatura de Controle Gerencial. Nesse sentido, procedeu-se a uma revisão dos principais conceitos existentes na teoria de Controle Gerencial, notadamente aqueles abordados na Ciência Comportamental, a partir dos quais se criou o Plano de Referência que fundamentou a pesquisa. Em razão do propósito descritivo do trabalho, optou-se pelo estudo de caso, tendo em vista as vantagens que o método oferece. Com base nos dados colhidos através de entrevistas, mediante a aplicação de um questionário, fez-se uma descrição dos mecanismos utilizados pela empresa estudada na avaliação da performance de suas agências. Os resultados obtidos permitiram a comparação de sua natureza e seu estado em relação à base teórica previamente levantada e, ainda, possibilitaram que se chegasse a importantes conclusões, além de ensejarem algumas recomendações e sugestões para futuras pesquisas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Risco operacional precisa ser mensurado pois afeta o valor e a sobrevivência das empresas. Ocupa o foco de pesquisadores, profissionais do sistema financeiro, reguladores e supervisores bancários, no esforço de controlar esse risco. Pesquisamos quatro formas de utilizar a abordagem de distribuição de perdas para a quantificação do risco operacional. Utilizamos um conjunto de dois anos de perdas operacionais de um banco brasileiro de grande porte para fazermos a aplicação e o teste dessa abordagem em quatro variantes. A variante que utiliza exclusivamente distribuições empíricas foi a mais adequada para medir o risco operacional e calcular o capital econômico a partir dos dados disponíveis. Na variante que quantifica o risco operacional ajustando distribuições teóricas às perdas, mostramos que as curvas de Johnson são especialmente flexíveis e de pronta implementação. Também, ajustamos as curvas de Johnson à distribuição de perdas operacionais e à distribuição amostral dos valores de capital econômico. Conhecer a distribuição do capital permite que tenhamos ideia da precisão com que estimamos o capital econômico e abre o caminho para futuros estudos teóricos da distribuição do Var operacional. Encontramos a distribuição dos valores de capital econômico ao invés de calcularmos um valor único de capital. Comparamos dois métodos, utilizados para estabelecer distribuições de valores de capital. Ao conduzirmos a pesquisa, notamos ser possível justificarmos pontos de verificação da auditoria interna sobre a base de dados, a modelagem e a gestão de risco operacional. Com a pesquisa produzimos sugestões para a supervisão e regulação dos bancos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As operações de alta frequência (High-Frequency Trading - HFT) estão crescendo cada vez mais na BOVESPA (Bolsa de Valores de São Paulo), porém seu volume ainda se encontra muito atrás do volume de operações similares realizadas em outras bolsas de relevância internacional. Este trabalho pretende criar oportunidades para futuras aplicações e pesquisas nesta área. Visando aplicações práticas, este trabalho foca na aplicação de um modelo que rege a dinâmica do livro de ordens a dados do mercado brasileiro. Tal modelo é construído com base em informações do próprio livro de ordens, apenas. Depois de construído o modelo, o mesmo é utilizado em uma simulação de uma estratégia de arbitragem estatística de alta frequência. A base de dados utilizada para a realização deste trabalho é constituída pelas ordens lançadas na BOVESPA para a ação PETR4.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho consiste na aplicação da simulação computacional como método de aprofundamento do estudo de mecanismos de leilões aplicados na alocação do direito de exploração das reservas de petróleo da camada do pré-sal. A camada do pré-sal está localizada na costa brasileira e apresenta um grande potencial em termos de reserva de óleo e gás. A função lance aplicada para os participantes criados computacionalmente foi estimada com base em dados experimentais e segue uma função exponencial. A simulação possibilita reproduzir o modelo de leilão considerando todas as características e parâmetros dos experimentos sem incorrer no custo da realização de novas sessões de leilão com participantes reais. Os leilões estudados foram o leilão de valores privados de 1° preço e o leilão de valores privados de 2° preço. Através dos resultados obtidos identificou-se que o leilão de valores privados de 1° preço é menos arriscado que o leilão de valores privados de 2° preço; no leilão com simetria, o Princípio de Equivalência de Receita é válido; a eficiência observada é menor em leilões assimétricos; o leilão de 2° preço comparado com o de 1° preço apresenta um tradeoff entre a eficiência e a receita do governo; e que considerando o aprendizado dos participantes, não se observam alterações significativas nas estatísticas analisadas à medida que os participantes se tornam mais experientes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O principal objetivo desta dissertação é avaliar se o modelo de Comer identifica adequadamente a composição das carteiras dos fundos multimercados brasileiros. Ao confirmar sua eficiência, o modelo foi utilizado para avaliar se os fundos estão seguindo a política de investimento de acordo com sua classificação ANBIMA. Comparou-se o resultado do modelo, a classificação dos fundos na ANBIMA, e a alocação efetiva dos gestores, através da divulgação das carteiras na CVM. A comparação destes três fatores nos permite inferir a qualidade do modelo e o enquadramento do fundo. A hipótese central da pesquisa consiste em verificar se o modelo multifatorial de análise de estilo baseado em retorno desenvolvido por Comer é eficiente em sua aplicação no mercado de fundos multimercados brasileiro. Verificar ainda se os fundos da amostra estão enquadrados de acordo com sua classificação perante a ANBIMA. Este estudo usou a base de dados da Economática para obter uma amostra de fundos de investimento multimercado e testar a hipótese colocada. As regressões foram estimadas semanalmente no período de julho de 2007 até junho de 2012. Os resultados geraram as seguintes conclusões: 1) O modelo de análise de estilo dos fundos com base em seus retornos para fundos multimercados é eficiente para o Brasil, passando pelos testes de robustez nele aplicado. Confirmando assim, esta técnica como mais uma ferramenta de suporte ao investidor para alocar seu dinheiro. 2) A relação entre modelo, classificação ANBIMA e ativos da carteira.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A análise tectono-estratigráfica da Bacia do Camaquã, uma sequência vulcanosedimentar do Neoproterozóico ao Eoproterozóico com depósitos de Cu (Au, Ag), Zn e Pb, é aqui apresentada com a utilização de ferramentas de sensoriamento remoto, gravimetria e perfilagem de poço. Nas imagens LANDSAT TM demarcou-se as concentrações de lineamentos junto as principais estruturas regionais e delimitou-se quatro domínios estruturais de acordo com a orientação dos trends dos lineamentos estruturais. Os perfis de poços que abrangem as formações Guaritas e Bom Jardim evidenciam eventos tectônicos com deformação rúptil e dúctil-ruptil, estabelecendo-se diferentes fácies tectonoestratigráficas de seqüências deposicionais (ambiente deltáico) e sequência deformacionais. Nos poços observa-se a variação da densidade com a profundidade entre poços, indicando a presença de duas aloformações de compactação distintas. Com base nos dados gravimétricos locais e regionais pode-se delimitar anomalias gravimétricas do embasamento, pacotes sedimentares de espessuras distintas em subsuperfície, com espessamento para NE, como também valores diferenciados para as principais unidades sedimentares da região estudada, bem como uma compartimentação escalonada da bacia do Camaquã. Ferramentas computacionais complementam a análise gravimétrica e de perfilagem geofísica, possibilitando a integração das técnicas já relacionadas e a formatação de dois perfis esquemáticos EW e SW-NE da bacia. Estes perfis auxiliam na visualização dos limites estruturais e formato da bacia, trazendo importantes informações para o modelo geológico da Bacia do Camaquã.