6 resultados para automatically generated meta classifiers with large levels

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

User-generated content – conteúdo gerado por usuários – cresceu consideravelmente na Internet nos cinco últimos anos, levando a grandes mudanças nas práticas de marketing. A força do e-word-of mouth, está aumentando e tem uma influência muito forte na percepção da marca pelos consumidores (Allsop, Basset & Hoskins, 2007). Todos os novos instrumentos fornecidos pela Internet permitiram a criação de comunidades de marca online, impactando o compromisso e a lealdade dos consumidores para com a marca (De Valk, Van Bruggen, Wierenga 2009). Todas essas interações criadas entre os consumidores e a marca são relativamente novas e incomuns para as empresas que devem adaptar suas práticas de marketing a essas mudanças. Dadas as especificidades que aplicam as marcas de luxo nas suas políticas de marketing (Kapferer and Bastien, 2009), a questão da adaptação das suas estratégias ao fenômeno de user-generated content é particularmente complicada. As marcas de luxo costumam ter habitualmente uma relação muito reservada com os seus consumidores, baseada em princípios de exclusividade e raridade (Kapferer, 1997). Esta dissertação busca proporcionar algumas pistas de entendimento sobre como as marcas de cosméticos de luxo podem adaptar suas estratégias de marketing em relação à expansão do conteúdo gerado por usuários na Internet. Esta pesquisa qualitativa sugere meios de controlar o conteúdo gerado por usuários, como o incentivar positivamente com certas práticas de marketing e como tirar proveito dele. A seguinte análise mostra que o conteúdo gerado por usuários tem duas facetas: pode atuar como um mídia digital para as empresas de luxo e como uma fonte de informação, inspiração e criação para o desenho dos novos produtos. Sendo um meio de comunicação, as empresas de cosméticos de luxo podem contar com a nova potência do “e-word-of-mouth” a fim de promover sua imagem de marca e seus produtos através do conteúdo gerado por usuários. Sendo uma fonte de inspiração, o conteúdo gerado por usuários pode conduzir a ótimos processos de co-criação e cooperação entre as marcas de cosméticos de luxo e seus consumidores com o objetivo de projetar produtos perfeitamente ajustados ao pedido dos consumidores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Differences-in-Differences (DID) is one of the most widely used identification strategies in applied economics. However, how to draw inferences in DID models when there are few treated groups remains an open question. We show that the usual inference methods used in DID models might not perform well when there are few treated groups and errors are heteroskedastic. In particular, we show that when there is variation in the number of observations per group, inference methods designed to work when there are few treated groups tend to (under-) over-reject the null hypothesis when the treated groups are (large) small relative to the control groups. This happens because larger groups tend to have lower variance, generating heteroskedasticity in the group x time aggregate DID model. We provide evidence from Monte Carlo simulations and from placebo DID regressions with the American Community Survey (ACS) and the Current Population Survey (CPS) datasets to show that this problem is relevant even in datasets with large numbers of observations per group. We then derive an alternative inference method that provides accurate hypothesis testing in situations where there are few treated groups (or even just one) and many control groups in the presence of heteroskedasticity. Our method assumes that we know how the heteroskedasticity is generated, which is the case when it is generated by variation in the number of observations per group. With many pre-treatment periods, we show that this assumption can be relaxed. Instead, we provide an alternative application of our method that relies on assumptions about stationarity and convergence of the moments of the time series. Finally, we consider two recent alternatives to DID when there are many pre-treatment groups. We extend our inference method to linear factor models when there are few treated groups. We also propose a permutation test for the synthetic control estimator that provided a better heteroskedasticity correction in our simulations than the test suggested by Abadie et al. (2010).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo examinou o apelo ecológico utilizado na propaganda como influenciador na atitude de compra do consumidor, tendo em vista que nas duas últimas décadas houve um crescimento nos anúncios que utilizam este tipo de apelo, demonstrando que, pelo surgimento de um novo nicho de mercado, empresas têm se valido do marketing verde e da influência normativa na sua estratégia de marketing. Buscou-se investigar se efetivamente o uso do apelo ecológico na propaganda influencia positivamente na intenção de compra do consumidor. A fundamentação teórica sobre o tema foi desenvolvida a partir dos estudos sobre comportamento do consumidor, atitudes em relação à propaganda, psicologia social e outros ligados ao tema. Esta fundamentação gerou algumas propostas conceituais, traduzidas em um conjunto de hipóteses, que, por se tratar de uma pesquisa causal, foram testadas por meio de metodologia experimental entre sujeitos, com oito níveis de manipulação, uma amostra não probabilística, formada por 215 estudantes de pós-graduação na cidade de Curitiba, e aplicação de questionário estruturado, constituído de perguntas fechadas e respostas escalonadas não-comparativas, intervalar do tipo diferencial semântico, com sete categorias. Os resultados obtidos indicaram que o apelo ecológico utilizado na propaganda como argumento de venda não gerou uma resposta significativamente mais favorável na intenção de compra; contudo, em relação à intenção de compra, o apelo ecológico na propaganda gerou uma atitude significativamente mais favorável do que a atitude em relação à marca, e uma atitude menos favorável do que a atitude em relação ao preço. Os resultados também indicaram que o consumidor não está disposto a pagar um preço maior por um produto anunciado com apelo ecológico de venda. Sugestões de pesquisa futura são comentadas à luz da teoria de marketing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The paper provides evidence on what affects at the margin the cost and availability of bank credit for firms in Argentina. We study in particular how banks use different pieces of private and public information to screen firms and overcome informational asymmetries in the credit market. Some private information is transferable, like balance sheet data. Private information generated in relationships is not. To capture the closeness of bank relationships, we resort to the concentration of bank credit and the number of credit lines in a bank. We also consider public information available in the Central de Deudores. The cost of credit is measured using overdrafts, the most expensive line of credit, at the bank that charges the highest rate for overdrafts. We find that the cost of credit is smaller for a firm with a close relationship to the marginal bank. Firms with large assets, a high sales/assets ratio, and a low debt/assets ratio pay a lower interest rate at the margin. A good credit history (no debt arrears and no bounced checks) and collateral also reduce the marginal interest rate. The availability of credit is measured by unused credit lines as a proportion of total liabilities with the main bank. The availability of credit depends positively on a close relationship with the main bank. Large assets, a high return over assets, a high sales/assets ratio, a low debt/assets ratio, a good credit history, and collateral lead to higher credit availability. Our measure of unused credit lines is less ambiguous than traditional measures like leverage, which may indicate financial distress rather than availability of credit.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Differences-in-Differences (DID) is one of the most widely used identification strategies in applied economics. However, how to draw inferences in DID models when there are few treated groups remains an open question. We show that the usual inference methods used in DID models might not perform well when there are few treated groups and errors are heteroskedastic. In particular, we show that when there is variation in the number of observations per group, inference methods designed to work when there are few treated groups tend to (under-) over-reject the null hypothesis when the treated groups are (large) small relative to the control groups. This happens because larger groups tend to have lower variance, generating heteroskedasticity in the group x time aggregate DID model. We provide evidence from Monte Carlo simulations and from placebo DID regressions with the American Community Survey (ACS) and the Current Population Survey (CPS) datasets to show that this problem is relevant even in datasets with large numbers of observations per group. We then derive an alternative inference method that provides accurate hypothesis testing in situations where there are few treated groups (or even just one) and many control groups in the presence of heteroskedasticity. Our method assumes that we can model the heteroskedasticity of a linear combination of the errors. We show that this assumption can be satisfied without imposing strong assumptions on the errors in common DID applications. With many pre-treatment periods, we show that this assumption can be relaxed. Instead, we provide an alternative inference method that relies on strict stationarity and ergodicity of the time series. Finally, we consider two recent alternatives to DID when there are many pre-treatment periods. We extend our inference methods to linear factor models when there are few treated groups. We also derive conditions under which a permutation test for the synthetic control estimator proposed by Abadie et al. (2010) is robust to heteroskedasticity and propose a modification on the test statistic that provided a better heteroskedasticity correction in our simulations.