21 resultados para Pesos

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta diferentes metodologias de construção de indicadores antecedentes compostos de atividade econômica comparando os resultados obtidos por cada de acordo com seu poder de antecipação dos movimentos cíclicos da indústria brasileira. Entre as metodologias testadas incluem-se: i) a tradicional, proposta pelo National Bureau of Economic Research (NBER) na década de 60, adaptada e melhorada ao longo dos anos por instituições como a OCDE, The Conference Board e outros; ii) a seleção de variáveis por meio de testes de causalidade de Granger, e iii) seleção e pesos determinados por meio de regressão múltipla. A qualidade dos indicadores antecedentes compostos criados foi avaliada fora da amostra, com base na sua capacidade em antecipar, de forma regular e estável, os pontos de reversão do ciclo de crescimento da indústria brasileira e levando em consideração a conformidade cíclica geral em relação à variável de referência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As relações entre os atributos presentes em uma oferta e o desempenho das empresas são de considerável interesse para os pesquisadores de marketing. Esta dissertação investiga os atributos motivadores de uma escolha no mercado de telefonia celular, cujas ofertas pressupõem a aquisição simultânea de um bem (aparelho celular) com a contratação de um serviço. Dados foram coletados a partir de um survey com 302 entrevistados na cidade do Rio de Janeiro e foram analisados à luz da análise conjunta. Objetivou-se responder qual a relevância dos atributos na escolha do consumidor e evidenciar, a partir destes pesos relativos, a importância do bem (aparelho celular) e do serviço em uma situação de compra conjunta. Resultados demonstraram que as importâncias relativas dos atributos referentes ao componente aparelho (marca do fabricante, preço e funcionalidades) obtiveram valores significamente maiores do que as importâncias relativas do componente serviço (marca da prestadora, preço e funcionalidades) Ao constituir-se o ranking dos atributos para cada um dos componentes constataram-se também diferenças quanto as suas colocações. Os resultados indicam também a forte influência do preço do aparelho celular sobre a escolha do consumidor, tendo este atributo o maior peso relativo absoluto. O autor desta dissertação sugere que o resultado é justificado pela compra do aparelho representar um desembolso imediato enquanto o preço do serviço, embora sistemático, não ocorra no momento da efetivação da compra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho trata dos aspectos institucionais relacionado às tecnologias de medição. Aborda principalmente os impactos gerados pelas mudanças nas relações econômicas e nos padrões de gestão de organizações privadas e públicas no Brasil, dos anos noventa. Analisa o papel do Inmetro, as diretrizes do Plano Nacional de Metrologia e a participação da comunidade metrológica neste cenário. Aponta as oportunidades e os riscos do novo quadro de relações entre o Estado e o mercado, e suas implicações no que tange à política metrológica nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é, com base em índices já utilizados em estratégia e empreendedorismo, verificar as dimensões do desempenho de pequenas e médias empresas e analisar o peso dado por um painel de juízes a cada dimensão do desempenho. Para isto, efetuou-se uma revisão bibliográfica visando avaliar o que já havia sido discutido em relação a indicadores de desempenho em empreendedorismo e estratégia empresarial. Esta revisão resultou em um conjunto de 27 indicadores testados na base de empresas inscritas no Prêmio Empreendedor de Sucesso 2009. As respostas às 27 questões foram submetidas a uma análise fatorial exploratória e a uma análise fatorial confirmatória para verificar as dimensões propostas. Esta análise confirmou a existência de seis dimensões para o desempenho de PMEs, sendo elas: Crescimento, Lucratividade, Clientes/Mercado, Pessoas, Sociedade e Meio Ambiente. Esta resposta corrobora a teoria dos stakeholders, na qual todos os atores ligados a uma organização, que colocam seus recursos em prol dela, devem buscar algum tipo de compensação. A análise dos pesos do painel de juízes revelou que as dimensões econômico-finaceiras Lucratividade e Crescimento têm os maiores pesos, com 17% e 26%, respectivamente, mostrando a grande preocupação na satisfação dos investidores. A dimensão Clientes também possui um peso alto e representa 26% na percepção dos entrevistados, demonstrando a necessidade de que a empresa que satisfaça as necessidades de seus clientes. A dimensão Pessoas tem um peso ainda alto, representando 17%. Isto demonstra a importância que os empregados têm para o sucesso de uma organização. Em último lugar, com apenas 6% cada uma, aparecem as dimensões Sociedade e Meio Ambiente. Espera-se que a equação resultante destes pesos possa ser útil para empreendedores se guiarem na condução de seus negócios, bancos realizarem análise de crédito e investidores (venture capitalists) realizarem a avaliação de empresas (due dilligence).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A globalização e o desenvolvimento da tecnologia da informação ajudaram a intensificar a rivalidade entre empresas, tanto na busca de mercado para seus produtos quanto de recursos para sua produção. Paralelamente, houve uma mudança nas atividades econômicas: da produção de bens para a prestação de serviços. Como conseqüência, o PIB das principais economias passou a ser dominado por serviços e o capital intangível das empresas superou o capital tangível, tanto em valor quanto em importância estratégica. O sucesso empresarial passou, então, a depender menos da alocação estratégica de recursos físicos e financeiros e mais da gestão estratégica do Capital Intelectual. O problema é que enquanto os gestores dependem cada vez mais de indicadores não financeiros, para alocar os recursos de maneira consistente com sua estratégia, a contabilidade financeira não fornece informações suficientes e nem adequadas para a gestão eficiente do Capital Intelectual. Em empresas de prestação de serviços este problema é ainda mais relevante. O objetivo desta Dissertação é explorar o Capital Intelectual em empresas de serviço de auto-atendimento bancário, identificando seus principais direcionadores intangíveis de valor e avaliando-os sob dois aspectos: a sua importância relativa na geração de valor, ou seja, seus pesos; e o seu potencial individual como fonte de vantagem competitiva sustentável. A análise destas informações permite identificar direcionadores que estejam sub ou sobreutilizados, o que pode indicar oportunidades de melhoria no uso do Capital Intelectual da organização. Para atingir esses objetivos será realizado um estudo de caso em uma empresa de auto-atendimento bancário. Espera-se que o resultado possa contribuir para melhorar a gestão em empresas deste segmento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O comércio e as normas formam uma relação simbiótica desde os tempos antigos. Com o fim da economia agrária o desenvolvimento do comércio levou a uma intensiva necessidade de trocas. Das trocas surgem os padrões, decorrentes da necessidade de mensurar pesos, quantidades e intensidades, decorrem normas para definir os procedimentos de trocas justas e necessárias para viabilizar transações entre indivíduos, cidades e nações. Após a II Guerra cria-se a ISO – International Organization for Standardization, e com ela todo o arcabouço de padrões que hoje sistematizam os protocolos comerciais e viabilizam o comércio global. A globalização também popularizou as normas gerenciais que têm origem na qualidade com a série 9000 e depois com a série ambiental e, mais recentemente, a norma social. Este trabalho discute inicialmente alguns motivos que sustentam o sucesso das normas internacionais de gestão, como o despertar de uma consciência socioambiental planetária e as transformações ocorridas no âmbito do comércio internacional. Depois, discute as demandas e influencias que estiveram presentes desde o final do século XX e o aparecimento da economia do conhecimento. Neste contexto buscamos base empírica na forma de dados estatísticos que possam explicar a diferença de comportamento entre países desenvolvidos e em desenvolvimento quanto ao uso de normas internacionais de gestão sobre responsabilidade socioambiental. Verificou-se que os países em desenvolvimento, que antes viam essas normas como barreiras técnicas ao comércio, agora passaram a defendê-las nos comitês técnicos da ISO e usá-las para legitimar a sua produção no comércio internacional. Os principais países ricos que antes defendiam e exigiam tais normas, agora se mostram resistentes e até contrários a elas. Uma possível explicação resultante da análise estaria no fato destes últimos países terem concentrados seus esforços na produção de conhecimentos, deslocando para os demais a fabricação de bens tangíveis buscando legislações ambientais menos rigorosas e mão-de-obra mais barata que ajude a reduzir os custos internacionais e manter metas de inflação reduzidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Brasil é um país onde os 50% mais pobres se apropriam aproximadamente de 10% da renda agregada, e os 10% mais ricos detêm quase 50% deste mesmo. O colorário desse alto grau de desigualdade é que se uma pessoa está somente preocupada em maximizar o nível de GPD, a função de bem–estar social implícita adotada devota parte do seu peso ao bem-estar de 10% da população. Em outras palavras, a concentração brasileira de renda cria uma anomalia dentro da perspectiva de agente representativo implícito na análise macroeconômica aonde as pessoas valem aquilo que ganham. A análise da pobreza inverte esse peso estrutural da população, estipulando zero de peso para o segmento não pobre da sociedade e atribuindo pesos aos indivíduos que aumentam com suas necessidades insatisfeitas. Esse projeto estuda as conexões entre a evolução macroeconômica Brasileira recente e da pobreza. A análise é dividida em duas partes: A primeira parte descreve a evolução da pobreza brasileira e seus principais determinantes macroeconômicos durante os últimos 15 anos. A segunda parte tira proveito das mudanças da pobreza e desigualdades medidas durante o período 1993-96 para estudar seus principais determinantes macroeconômicos. Dado a maior importância do Plano Real, uma especial atenção foi dada a análise dos impactos da desinflação no nível e na distribuição de renda e a possível sinergia entre essas duas dimensões de determinação da pobreza. A terceira parte do projeto decompõe as mudanças dos diversos índices de pobreza através dos diferentes grupos dado pelas características dos chefes de família (i.e.; sexo, anos de estudo, raça, classe trabalhadora, setores de atividades, região, densidade populacional). Depois essa decomposição é avançada um passo desatrelando as mudanças nessa diferentes células de pobreza em termos de suas respectivas mudanças em termos de desigualdade da renda per capita. Esse perfil de pobreza ajuda a mapear as diferentes fontes de mudança da pobreza na análise histórica e fornece consistência interna para os exercícios de análises contra-factuais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo teve como objetivo agrupar os testes da Bateria DAT-Forma A em compósitos, procurando dar a esta Bateria um melhor valor preditivo do êxito profissional. Os testes foram aplicados a adolescentes, alunos da 8ª série do 1º grau, das escolas da Rede Oficial do antigo Estado da Guanabara. Através do emprego da Análise Fatorial, utilizando o método dos eixos principais, foram determinados três fatores. Após duas rotações ortogonais (Varimax e Equamax) e urna oblíqua (Oblimin), constatou-se que os testes poderiam formar três variáveis compósitas, que classificamos como: Acadêmica, Burocrática e Verbal. Os pesos de cada teste dos compósitos foram obtidos pela utilização do método de regressão múltipla. A correlação múltipla dos testes com as variáveis compósitas revelou que, realmente, os testes reunidos, têm um valor preditivo melhor do que quando isolados. Este trabalho procurou ser mais uma contribuição da Psicometria, aos psicólogos que fazem Orientação Vocacional baseados em resultados de testes psicológicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar a contribuição dos conteúdos programáticos dos cursos de Administração para a implementação da cultura da excelência em empresas vencedoras do prêmio Qualidade RS. Este prêmio reconhece as organizações que mais se destacam na busca pela melhoria contínua do seu sistema de gestão, com base no Modelo de Excelência da Gestão (MEG). O que se propõe é a construção de um projeto político-pedagógico que esteja baseado no MEG, visando à formação de um profissional qualificado para empresas “classe mundial”. Para tanto, foram elaborados questionários, com base nos critérios e itens do MEG, para empresários e coordenadores de cursos. Foram obtidos resultados que levaram a uma nova proposta de pontuação para o método de avaliação do modelo, alterando-se os pesos relativos dos critérios. Por fim, foi proposto um novo modelo de currículo para os cursos de graduação em Administração, que permita que o aluno desenvolva a capacidade de compreensão da cultura da excelência, fundamental para o alcance da Classe Mundial nas organizações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mercado brasileiro de ofertas públicas iniciais a partir de 2004 passou por um reaquecimento. O período até 2008, segundo a Agência Brasileira de Desenvolvimento Industrial – ABDI (2009) foi marcado pela aceleração das saídas de investidores em Private Equity e Venture Capital (PE/VC) via mercado de ações. Esses fundos são bem ativos nas empresas investidas e buscam ter acesso e influenciar as decisões dos administradores, exigem um volume grande de informações gerenciais, se preocupam com a profissionalização da gestão da empresa além de impor práticas de governança e transparência. Por serem investidores ativos espera-se que as empresas que tiveram participação desses veículos de investimento no momento anterior a abertura do capital apresentem retornos melhores do que outras sem essa participação. Assim objetivo desse estudo é verificar se há evidencias de que a presença de fundos de private equitiy ou venture capital no capital social da empresa antes de seu lançamento afeta o desempenho de longo prazo de suas ações, no presente estudo estabelecido como até 3 anos. Foi utilizada a metodologia de estudo de eventos para a investigação dos retornos de uma amostra de 126 IPOs ocorridos entre 2004 e 2011 no Brasil. A metodologia empregada tem como base o trabalho de Ritter (1991) com as recomendações de Khotari e Warner (2006), Ahern (2009) e Mackinlay (1997). Para o cálculo dos retronos anormais acumulados, ou cummulative abnormal returns – CAR utilizou-se o retorno ajustado pelo mercado, ou Market Adjusted Returns Equaly Wheighted, MAREW, utilizando como benchmark o Ibovespa e tendo como base um portifólio com pesos iguais. Verificou-se que há um retorno anormal médio de 3,47% no dia do lançamento que com o passar do tempo o retorno se torna negativo, sendo -15,27% no final do primeiro ano, -37,32% no final do segundo ano e chegando a -36,20% no final do terceiro ano. Para verificar o que influencia o CAR no longo prazo, foram relizadas regressões para os períodos de 1, 6, 12, 24 e 36 com as variáveis de controle Tamanho da Empresa, Tamanho da Oferta, Proporção da Oferta Primária, Idade, Quantidade de Investidores e Underprice para medir qual a influência de um fundo de Private Equity no retorno excedente acumulado das ações. A presença de um fundo de Private Equity ou Venture Capital se mostrou significativa apenas depois de seis meses do lançamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pesquisas de opinião freqüentemente utilizam questionários com muitos itens para avaliar um serviço ou produto. Nestas pesquisas, cada respondente, além de avaliar os itens segundo seu grau de satisfação ou concordância, deve também atribuir um grau de importância ao item. Com estas duas informações disponíveis para cada item, é possível criar uma medida resumo, na forma de um escore total, composto pela avaliação dos itens ponderada pela sua importância. O objetivo desta pesquisa é comparar os métodos de obtenção de importância mais utilizados na literatura, sob vários aspectos. A comparação dos métodos mostra que, quando se utiliza escalas comparativas, há maior discriminação dos itens em relação às importâncias obtidas, mas os questionários que aplicam estes métodos são mais confusos e cansativos para o respondente. A escala de diferencial semântico, por outro lado, é a de melhor entendimento por parte dos entrevistados mas o resultado é pouco discriminatório.