860 resultados para Algoritmos de estimação-maximização


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo entender, no município do Rio de Janeiro, quais características são mais importantes para no mercado de imóveis residenciais novos. A abordagem de preços hedônicos foi utilizada para a elaboração deste estudo, uma vez que analisa o bem como um pacote de atributos para os quais o consumidor tem preferências. Diversos itens relacionados à caracterização do imóvel e do condomínio, bem como da localização na qual ele se insere, foram analisados. Como parte da metodologia, a econometria foi utilizada para que fosse possível compreender de que forma, e em qual proporção, as variáveis mapeadas se relacionam com o preço final do imóvel. O resultado final aponta que as variáveis mais importantes para o equilíbrio do mercado imobiliário no Rio de Janeiro são: o bairro onde o imóvel está localizado, o tamanho, número de quartos, a diferenciação entre ser apartamento ou casa e o número de unidades no condomínio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este texto apresenta a tese de doutorado em Ciência da Computação na linha de pesquisa de Inteligência Artificial, dentro da área de IAD – Inteligência Artificial Distribuída (mais especificamente os Sistemas Multiagentes – SMA). O trabalho aborda a formação de grupos colaborativos em um ambiente multiagente interativo de aprendizagem na web, através da utilização de técnicas de Inteligência Artificial. O trabalho apresenta a definição e implementação de uma arquitetura de agentes modelados com algoritmos genéticos, integrada a um ambiente colaborativo de aprendizagem, o TelEduc. Inicialmente faz-se um breve estudo sobre as áreas envolvidas na tese: Informática na Educação, Educação a Distância, Inteligência Artificial, Inteligência Artificial Distribuída e Inteligência Artificial Aplicada à Educação. Abordam-se, também, as áreas de pesquisa que abrangem os Sistemas Multiagentes e os Algoritmos Genéticos. Após este estudo, apresenta-se um estudo comparativo entre ambientes de ensino e aprendizagem que utilizam a abordagem de agentes e a arquitetura proposta neste trabalho. Apresenta-se, também, a arquitetura de agentes proposta, integrada ao ambiente TelEduc, descrevendo-se o funcionamento de cada um dos agentes e a plataforma de desenvolvimento. Finalizando o trabalho, apresenta-se o foco principal do mesmo, a formação de grupos colaborativos, através da implementação e validação do agente forma grupo colaborativo. Este agente, implementado através de um algoritmo genético, permite a formação de grupos colaborativos seguindo os critérios estabelecidos pelo professor. A validação do trabalho foi realizada através de um estudo de caso, utilizando o agente implementado na formação de grupos colaborativos em quatro turmas de cursos superiores de Informática, na Região Metropolitana de Porto Alegre, em disciplinas que envolvem o ensino de programação de computadores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O mercado de gastronomia em São Paulo é um mercado de altamente competitivo e que atende a um público extremamente exigente. Os fatores que determinam o sucesso ou insucesso de um empreendimento dentro deste mercado vão muito além da execução dos pratos – eles estão ligados ao nível do entendimento sobre um ambiente de atuação bastante específico e às respostas estratégicas construídas em função deste entendimento. Esta dissertação propõe tentar estudar a capacidade dos restaurantes de São Paulo em gerar e capturar valor na cadeia na qual se inserem, considerando suas estratégias (de diferenciação ou redução de custo), gestão de imagem e das diversas decisões tomadas por restaurantes de com diferentes estruturas societárias e distintos modelos de gestão. A análise será conduzida com base em conceitos de estratégia (sobretudo à luz das ideias acerca do modelo de valor - Brandenburger & Stuart (1996) – o que implica na compreensão da cadeia de valor na qual se inserem estes estabelecimentos). Por meio da observação crítica sobre o gerenciamento estratégico deste tipo de negócio, pretendemos distinguir as diferentes formas de atuação dos restaurantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Considerando a teoria do consumo, especialmente a da renda permanente, a maximização da utilidade para o indivíduo ocorre quando ele consegue suavizar o seu consumo ao longo da vida. Dessa forma a estabilidade no consumo é preferida à momentos de expansão precedidos de retração. Estudos aplicados às séries brasileiras encontraram que consumo é impactado de maneira significativa pela renda corrente, não se comportando, portanto, apenas como um passeio aleatório. Uma das hipóteses sugeridas para explicar a dependência do consumo brasileiro à renda corrente seria a possibilidade de restrição à liquidez. O presente trabalho, teve como objetivo verificar se após a expansão creditícia experimentada pela economia brasileira, nos últimos anos, o crédito teria corroborado favoravelmente para a suavização do consumo das famílias. Para tanto, utilizou-se um banco de dados do primeiro trimestre de 1996 (pós implementação do PROER/PROES) até o primeiro trimestre de 2013. No decorrer do período abordado, foi possível identificar duas quebras estruturais no crédito, uma atrelada ao adento do crédito consignado e a outra referente ao impacto da crise financeira internacional. Dessa forma, a regressão considerando o consumo como variável dependente em função da renda, do crédito e da taxa de juros, foi estimada em três períodos distintos. A estimação nos três períodos mostrou que a expansão do crédito se tornou relevante para a regressão do consumo com o passar do tempo. Como exemplo, a variável crédito no primeiro período (1º.tri/96 até 1º.tri/04) não se mostrou significante para a regressão do consumo. Contudo no terceiro período (1º.tri/09 até 10.tri/13) o crédito se mostrou significante. Vale mencionar que o período de maior destaque para o crédito foi o terceiro, o mais recente. Sabidamente, coincidiu com a aceleração do crédito via bancos públicos em decorrência de um comportamento anticíclico (começou como resposta à crise financeira internacional do último trimestre de 2008). Com isso, para suavizar esse movimento anticíclico as regressões foram reestimadas considerando o crédito desagregado, entre privado e público. A conclusão obtida foi a mesma do exercício anterior. Assim, as estimações sugerem que o crédito (agregado e desagregado) ajudou na suavização do consumo das famílias brasileiras, especialmente no passado recente (terceiro período), quando a renda não foi significativa para a estimação do consumo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. Em geral, a atribuição do tratamento aos potenciais participantes não é aleatória, o que pode causar viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, existem na literatura estimadores semiparamétricos do efeito médio do tratamento que são consistentes e capazes de atingir, assintoticamente, o limite de e ciência semiparamétrico. Entretanto, nas amostras freqüentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho busca-se investigar empiricamente, no caso brasileiro, o comportamento da medida de risco de Foster e Hart, sua capacidade de estimação de retornos e se ela pode ser usada como indicador do momento do mercado. Esta medida é de fácil assimilação e cálculo, respeita axiomas de coerência, sendo indiferente a aversão ao risco dos agentes e mensurada na mesma unidade dos retornos. Encontram-se evidências de que o risco reage a momentos de estresse do mercado e da existência de um relacionamento positivo com retornos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Por definição as empresas startups estão expostas a mais riscos e vulnerabilidades que empresas maduras e já estabelecidas no mercado. O objetivo do presente estudo é identificar, aplicar e testar uma possível metodologia para calcular prêmio de risco adicional para startups. Para tanto este trabalho desenvolve um estudo de caso no qual a conhecida metodologia para cálculo de prêmio de risco de tamanho da Morningstar é aplicada a uma startup americana. A aderência da metodologia proposta neste estudo é testada pela metodologia do filtro de Kalman, que calcula o prêmio de risco por tamanho variando ao longo do tempo. Os resultados encontrados são similares em ambas as metodologias. De forma que é possível concluir que a metodologia da Morningstar, quando aplicada para calcular prêmio por tamanho variante ao longo do tempo é robusta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho foi, face ao grau de integração da economia brasileira, testar o poder explicativo do Modelo Goldman Sachs sobre os retornos esperados por um investidor estrangeiro no mercado nacional, ao longo do período 2004-2013. Em um primeiro momento, foi testado o grau de integração da economia brasileira para o período 2004-2013, buscando entender o contexto em que o Modelo Goldman Sachs foi empregado. Posteriormente, para o teste do modelo, calcularam-se os betas dos fatores de risco dos ativos analisados (risco de mercado e risco país) e procedeu-se à regressão com dados em painel dos retornos esperados sobre os betas desses ativos. Verificou-se que o risco país não se mostrou estatisticamente significante para a explicação dos retornos esperados, o que indica que é adicionado de maneira ad hoc pelos praticantes de mercado para o cálculo do custo de capital próprio de acordo com o Modelo Goldman Sachs. Assim, embora haja evidências de uma relação positiva e significante entre risco sistemático e retorno, os resultados para o risco país demonstram que o Modelo Goldman Sachs não se mostrou satisfatório para a explicação dos retornos esperados no mercado brasileiro ao longo dos últimos dez anos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe um novo modelo para avaliação, em tempo discreto, do desconto de reequilíbrio em contratos de concessão rodoviária, a partir de conceitos da Teoria Clássica de Finanças e da Teoria de Opções Reais. O modelo desenvolvido permitiu incorporar flexibilidades decorrentes de incertezas nas situações reais, como decisões gerenciais, vieses de comportamento e componentes políticos, comumente presentes em contratos de concessões rodoviária. Os resultados obtidos, utilizando-se como estudo de caso a BR-262, sinalizaram que há espaço para uma melhor intervenção regulatória com relação ao mecanismo do desconto de reequilíbrio, no sentido de prover melhores incentivos aos concessionários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comentarista: Luciana Gross Cunha (Direito SP- Escola de Direito de São Paulo)