35 resultados para métodos de detecção baseado em modelos

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisa e compara, sob as óticas de acurácia e custo, os principais métodos numéricos (simulação de Monte carlo, métodos de diferenças finitas, e modelos baseados em lattice para precificação de opções financeiras, exóticas e reais. Aponta as situações onde cada método deve ser empregado, e apresenta os algoritmos necessários para implementação dos métodos numéricos na prática.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A adoção de tecnologias de informação e comunicação (TIC), em especial aquelas associadas à institucionalização da Internet como meio de relacionamento social e de negócios, tem provocado mudanças profundas e globais. Nos programas de governo eletrônico (e-gov), as TIC têm impactos econômicos, sociais e políticos, que devem ser monitorados para orientar a elaboração de políticas públicas eficazes. Avaliar esses impactos implica na condução de um processo complexo, baseado em modelos de medição de desempenho que deveriam ser definidos considerando o cidadão como elemento-chave na rede sociotécnica criada pelos programas de governo eletrônico. Contudo, existe uma lacuna nos modelos teóricos que definem as dimensões de desempenho a partir da perspectiva do cidadão. Apoiada em abordagem empírica e quadro teórico que compreende conceitos-chave provenientes da sociologia, da tecnologia de informação e de teorias do construtivismo social, a presente tese identifica os grupos sociais relevantes no processo de construção do e-gov e as dimensões de desempenho percebidas como relevantes por eles. O principal resultado desta pesquisa é o “Modelo (7+2)”, que consolida nove dimensões de desempenho emergentes da análise aprofundada de entrevistas a respeito da percepção dos artefatos tecnológicos do e-gov (canais de acesso e entrega de serviços públicos, serviços públicos eletrônicos e portal) pelos grupos sociais relevantes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

presente trabalho objetiva construir um Modelo Exploratório de desenvolvimento de tecnologia da informação, aplicável no Brasil, tendo como referência as formas de organização do trabalho e da produção das comunidades Linux. O Modelo deve ser aplicado em ambiente Internet, ou em outras redes de telecomunicação. Por essa razão, utiliza métodos e técnicas de aprendizado à distância e e-Iearning. A construção do Modelo apoia-se, como alicerce teórico fundamental, no conceito de convivialidade de Illich (1976), no entendimento de Inose e Pierce (1984) sobre comunidades de interesse e democratização da produção de software, nos estudos de Malone (1997, 1998) referentes a modelos de organização em rede, nos estudos de Weber (2000) sobre comunidades de interesse online, na metodologia de capacitação "Pensamento Digital" de Joia (1999-1, 1999-2) e na estratégia pedagógico-metodológica do Australian National Training Authority (T AFE/SA). No entanto, as pesquisas de Matesco (2000, 2001) tomaram exeqüível a idéia da construção do Modelo, tendo que vista que o Modelo Exploratório proposto aplica-se, preferencialmente, a países, regiões, empresas ou organizações dependentes tecnologicamente de seus parceiros negociais e com escassez de recursos para aplicar em pesquisa e desenvolvimento. O caminho metodológico para a construção do Modelo inicia-se com uma sucinta abordagem sobre o sistema operacional Linux, a descrição das formas de organização das comunidades Linux e a identificação das formas de organização do trabalho e da produção no Fordismo-Taylorismo e no pós-Fordismo. Situa o funcionamento das comunidades Linux em relação a essas formas de organização. Descreve o processo de formação do conhecimento no aprendizado à distância e no elearning. Aborda a experiência de outros países com o Linux e com as comunidades Linux. Principalmente, o sucesso obtido pelos países nórdicos em absorção de tecnologia. A seguir, fundamentando-se em duas pesquisas de Matesco (2000,2001), analisa a dependência tecnológica do Brasil e propõe o Modelo Exploratório, cujo objetivo é, prioritariamente, colaborar para a redução dessa dependência, por meio de um processo de formação de conhecimento, baseado no aprendizado à distância e e-Iearning do Linux e na propagação de comunidades Linux, empregando-se o modelo de organização em rede.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos tempos, mensurar o Risco Operacional (RO) tornou-se o grande desafio para instituições financeiras no mundo todo, principalmente com a implementação das regras de alocação de capital regulatório do Novo Acordo de Capital da Basiléia (NACB). No Brasil, ao final de 2004, o Banco Central (BACEN) estabeleceu um cronograma de metas e disponibilizou uma equipe responsável pela adaptação e implementação dessas regras no sistema financeiro nacional. A Federação de Bancos Brasileiros (FEBRABAN) também divulgou recente pesquisa de gestão de RO envolvendo vários bancos. Todo esse processo trouxe uma vasta e crescente pesquisa e atividades voltadas para a modelagem de RO no Brasil. Em nosso trabalho, medimos o impacto geral nos banco brasileiros, motivado pelas novas regras de alocação de capital de RO envolvendo os modelos mais básicos do NACB. Também introduzimos um modelo avançado de mensuração de risco, chamado Loss Data Distribution (LDA), que alguns especialistas, provenientes do Risco de Mercado, convencionaram chamar de Value-at-Risk Operacional (VaR Operacional.). Ao final desse trabalho apresentamos um caso prático baseado na implementação do LDA ou VaR

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A orientação teórica que divide a nossa sociedade em um modelo Industrial e em um modelo Pós-Industrial vem ganhando cada vez mais espaço e importância no estudo das organizações. Vários estudos acadêmicos nacionais e estrangeiros relatam o fato de que as organizações atuais mudam rapidamente o seu discurso a fim de adaptar-se às modificações que ocorrem nos processos produtivos e na gestão de pessoas, porém a implementação prática destas mudanças não ocorre de modo tão rápido quanto quer a mudança no discurso. Dado este período de transição, a distância entre a teoria professada e a prática efetiva nas organizações aumenta, surgindo maiores contradições entre discurso e prática, o que tem conseqüências para a produtividade. Estudamos neste projeto dois modelos de Gestão de Pessoas: O modelo Instrumental e o Modelo Político. Muitas organizações dizem que adotam o modelo Político, mas na prática mantém estruturas próximas ao modelo Instrumental. Neste relatório realizamos dois estudos de caso: Um em uma grande empresa nacional, a Souza Cruz, onde a empresa conseguiu superar a dicotomia discurso-ação implantando gradualmente o modelo Político de Recursos Humanos em consonância com a implementação de um sistema de informação que modificou toda a área de gestão de pessoas. Em segundo lugar, apresentamos um outro estudo de caso realizado em uma grande cooperativa Agro-Industrial onde já havia se consolidado práticas relativas ao modelo Político de Gestão de Pessoas e a implementação do modelo Instrumental, em uma ação top-down pelo presidente provocou fenômenos de resistência à mudança e a não implementação efetiva do ERP Entreprise Resource Planning na organização. Comparamos assim um estudo de caso que confirma a problemática levantada pela revisão da literatura (o da cooperativa) e um outro estudo de caso que oferece pistas de como evitar-se este problema, construir um sistema organizacional coerente e seguir em frente monitorando um sistema de aprendizagem baseado no modelo Político de Recursos Humanos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os objetivos deste trabalho foram (i) rever métodos numéricos para precificação de derivativos; e (ii) comparar os métodos assumindo que os preços de mercado refletem àqueles obtidos pela fórmula de Black Scholes para precificação de opções do tipo européia. Aplicamos estes métodos para precificar opções de compra da ações Telebrás. Os critérios de acurácia e de custo computacional foram utilizados para comparar os seguintes modelos binomial, Monte Carlo, e diferenças finitas. Os resultados indicam que o modelo binomial possui boa acurácia e custo baixo, seguido pelo Monte Carlo e diferenças finitas. Entretanto, o método Monte Carlo poderia ser usado quando o derivativo depende de mais de dois ativos-objetos. É recomendável usar o método de diferenças finitas quando se obtém uma equação diferencial parcial cuja solução é o valor do derivativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Over the past few decades, the phenomenon of competitiveness, and the underlying competitive advantage thereof, has been analyzed in diverse ways, in terms of its sources (external and internal environment) and competitive management strategies, as well as different scopes (nations, economic sectors and organizations) and fields of study (economy and organizational theory). Moreover, competitiveness is a complex phenomenon and, thus, reflected in the many methods and approaches which some frameworks have developed throughout the period to try to examine it in the tourism sector as well as other industries. In this research a framework for destinations is presented on the basis of dynamic capabilities. This is an important contribution to the research, since previous studies for the tourism sector have not approached this relevant aspect of the competitive development of tourist destinations, i.e. based on the capabilities of innovation, transformation, creation and research presents a competitive evaluation of the dynamic capabilities of tourist destinations, on the basis of 79 activities, distributed in eight , this work presents an empirical application of the framework in a sample of twenty Brazilian cities, considered, by the Brazilian Tourism Minister, as indicative tourist destinations for regional development. The results obtained from this evaluation were submitted to tests of statistical reliability and have demonstrated that the destinations possess heterogeneous levels of capabilities between themselves (different levels developed in the categories between the cities) and inside each destination (developed levels of capability between the categories of the destination). In other words: heterogeneity is not only between category to category.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A dissertação tem como objeto a investigação das relações entre a o design de um website de comércio eletrônico de CDs e o comportamento do consumidor virtual, com ênfase a sua atitude e intenção de compra. O objetivo principal é mensurar o efeito do design da loja virtual (website) em seu papel de agente de vendas na Internet. A análise do comércio varejista de CDs foi escolhida, pois este produto é um dos principais artigos de venda neste canal. O estudo é apoiado em um referencial teórico, no qual são analisadas as características dos seguintes pontos: i) a Internet atuando como canal de vendas; ii) o comércio varejista de CD no Brasil e iii) o comportamento do consumidor e o seu processo decisório. Ainda no referencial teórico são apresentados os diversos modelos de avaliação de website existentes: baseado em Marketing, Teoria dos Dois Fatores, avaliação da qualidade, avaliação da web (W AM) e aceitação da Tecnologia na Web (T AM). A análise e comparação destes modelos serviu como base para o desenvolvimento da proposta do modelo de avaliação website. O estudo é complementado pelo desenvolvimento de uma pesquisa, com aplicação de questionário via web (websurvey). A coleta dos dados é utilizada como forma de validação estatística das relações existentes no modelo desenvolvido. Isto é feito por meio do uso da ferramenta de análise de Equações Estruturadas (SEM), suportada pelos conceitos e métodos de abordagem descritos no referencial teórico. A ferramenta permite tanto avaliar um modelo de mensuração e um modelo estrutural simultaneamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This research was commenced with the idea to promote an strategic evaluation of the sustentability of the free Internet access, analysing its process of value creation, its sources of revenue generation, its business models development as well as its capacity to generate adequated returns to the investors. It was concluded that the free Internet access is not dead. Indeed, what has occoured was a migration from a model completely based on delivering a single service, generally dependent of publicity sells revenues, to a hibrid based business model with different types of services and with revenues been generated from multiple sources. Nevertheless, not all players were capable to evolute their business models and survive, what occasioned a huge number of fails, mergers and acquisitions, resulting in a concentration all over the segment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A dificuldade em se caracterizar alocações ou equilíbrios não estacionários é uma das principais explicações para a utilização de conceitos e hipóteses que trivializam a dinâmica da economia. Tal dificuldade é especialmente crítica em Teoria Monetária, em que a dimensionalidade do problema é alta mesmo para modelos muito simples. Neste contexto, o presente trabalho relata a estratégia computacional de implementação do método recursivo proposto por Monteiro e Cavalcanti (2006), o qual permite calcular a sequência ótima (possivelmente não estacionária) de distribuições de moeda em uma extensão do modelo proposto por Kiyotaki e Wright (1989). Três aspectos deste cálculo são enfatizados: (i) a implementação computacional do problema do planejador envolve a escolha de variáveis contínuas e discretas que maximizem uma função não linear e satisfaçam restrições não lineares; (ii) a função objetivo deste problema não é côncava e as restrições não são convexas; e (iii) o conjunto de escolhas admissíveis não é conhecido a priori. O objetivo é documentar as dificuldades envolvidas, as soluções propostas e os métodos e recursos disponíveis para a implementação numérica da caracterização da dinâmica monetária eficiente sob a hipótese de encontros aleatórios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aborda Preços de Transferência, métodos de determinação por parte de empresas e governos. Formação das taxas de juros, Preços de Transferência nas operações de transferência internacional de recursos e a legislação brasileira sobre o assunto. Críticas e restrições à abordagem brasileira e proposta de modelos alternativos para o estabelecimento de juros praticados na transferência internacional de recursos entre empresas vinculadas ou situadas em paraísos fiscais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A metodologia para a estimação por cenários alternativos com base na interação entre modelos subjetivos causais e técnicas analíticas para o dimensionamento de mercado representa uma proposta de tratamento sistemático dos problemas de análise e previsão, utilizado nas áreas de estratégia mercadológica e planejamento empresarial. A tese trata inicialmente de dois critérios para a classificação das técnicas de previsão e geração de cenários. No primeiro deles, são considerados os atributos que usualmente orientam a seleção dos métodos de previsão mais apropriados para cada caso. No segundo, é definido um referencial com base nas regras empregadas para identificar o modo de geração dos futuros alternativos. Em ambas situações, foram consultados trabalhos que incorporaram extensivamente os conceitos de interesse desta tese, com o propósito de apoiar a sua fundamentação teórica. Uma análise adicional mais detalhada se ateve às técnicas que propiciaram a base conceitual da metodologia, a exemplo da modelagem estrutural e das probabilidades subjetivas. Com o objetivo de testar a adequação da proposta ao estudo de caso, foi escolhido o mercado atendido pela indústria de energia elétrica. Este procedimento passou inicialmente por uma investigação a nível nacional com a intenção de: (i) observar aquelas técnicas e indicadores utilizados regularmente III pelas concessionárias; (ii) constatar e comparar situações que afetam a qualidade das previsões, a exemplo do tamanho da equipe e do grau de comunicação com as instituições externas. Em seguida, foi efetuada uma aplicação prática sobre o mercado regional de eletricidade do segmento residencial, na tentativa de validar empiricamente a metodologia proposta. Como particularidades, foram introduzidas as equações simultâneas do lado analítico, e a consulta aos especialistas, os quais foram aplicados na construção do modelo exploratório do lado subjetivo. A interação entre as técnicas resultou em alguns cenários para o mercado analisado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Analisa a relevância e a validade dos modelos específicos para avaliação de bancos encontrados na literatura de finanças. Partindo do objetivo de maximização do valor para o acionista, discute a crescente preocupação dos bancos e dos órgãos reguladores com a estimação e a divulgação do valor de mercado dos ativos e passivos dos bancos. Apresenta os métodos tradicionais de avaliação de empresas e analisa, com mais detalhe, o modelo de fluxo de caixa descontado. Analisa as justificativas encontradas na literatura para a utilização de modelos específicos para avaliação de bancos, assim como os principais aspectos que devem ser considerados nesses modelos. Descreve os modelos específicos para avaliação de bancos encontrados na literatura de finanças e os analisa, usando como parâmetro os principais aspectos que devem ser considerados nesses modelos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho revisa os principais métodos numencos utilizados para reproduzir o comportamento de um índice, implementa quatro desses modelos ao caso brasileiro (Índice Bovespa) e discute a aplicação e os pontos favoráveis e desfavoráveis de cada modelo. Em uma primeira etapa, a vantagem da. administração passiva e a potencialidade de uso de uma carteira espelho são descritas. Em seguida, os modelos de replicação existentes na literatura no tocante a suas respectivas hipóteses, suas derivações matemáticas e suas propriedades teóricas são apresentados. Após essa revisão, os modelos de replicação plena, de carteira de rrururna vanancia global, de Black e de minimização quadrática sem venda a descoberto são implementados. Os resultados são verificados sob os parâmetros de tracking errar, beta, R-quadrado e semelhança de série em relação à média e à variância. A conclusão é de que existem diferentes objetivos ao se replicar um índice e que, para cada um destes objetivos, diferentes abordagens ou ferramentas são adotadas. Por exemplo, o administrador que busca o retorno de um índice de mercado, deve conseguir os melhores resultados utilizando o modelo de replicação plena. Já para aquele que visa arbitragem de índice, através de ativos do mercado à vista, a recomendação é aplicar os modelos que utilizam a otimização quadrática para montar a carteira espelho.