35 resultados para Sample selection model


Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this study, we verify the existence of predictability in the Brazilian equity market. Unlike other studies in the same sense, which evaluate original series for each stock, we evaluate synthetic series created on the basis of linear models of stocks. Following Burgess (1999), we use the “stepwise regression” model for the formation of models of each stock. We then use the variance ratio profile together with a Monte Carlo simulation for the selection of models with potential predictability. Unlike Burgess (1999), we carry out White’s Reality Check (2000) in order to verify the existence of positive returns for the period outside the sample. We use the strategies proposed by Sullivan, Timmermann & White (1999) and Hsu & Kuan (2005) amounting to 26,410 simulated strategies. Finally, using the bootstrap methodology, with 1,000 simulations, we find strong evidence of predictability in the models, including transaction costs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em modelos de competição de preços, somente um custo de procura positivo por parte do consumidor não gera equilíbrio com dispersão de preços. Já modelos dinâmicos de switching cost consistentemente geram este fenômeno bastante documentado para preços no varejo. Embora ambas as literaturas sejam vastas, poucos modelos tentaram combinar as duas fricções em um só modelo. Este trabalho apresenta um modelo dinâmico de competição de preços em que consumidores idênticos enfrentam custos de procura e de switching. O equilíbrio gera dispersão nos preços. Ainda, como os consumidores são obrigados a se comprometer com uma amostra fixa de firmas antes dos preços serem definidos, somente dois preços serão considerados antes de cada compra. Este resultado independe do tamanho do custo de procura individual do consumidor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The thesis introduces a system dynamics Taylor rule model of new Keynesian nature for monetary policy feedback in Brazil. The nonlinear Taylor rule for interest rate changes con-siders gaps and dynamics of GDP growth and inflation. The model closely tracks the 2004 to 2011 business cycle and outlines the endogenous feedback between the real interest rate, GDP growth and inflation. The model identifies a high degree of endogenous feedback for monetary policy and inflation, while GDP growth remains highly exposed to exogenous eco-nomic conditions. The results also show that the majority of the monetary policy moves during the sample period was related to GDP growth, despite higher coefficients of inflation parameters in the Taylor rule. This observation challenges the intuition that inflation target-ing leads to a dominance of monetary policy moves with respect to inflation. Furthermore, the results suggest that backward looking price-setting with respect to GDP growth has been the dominant driver of inflation. Moreover, simulation exercises highlight the effects of the new BCB strategy initiated in August 2011 and also consider recession and inflation avoid-ance versions of the Taylor rule. In methodological terms, the Taylor rule model highlights the advantages of system dynamics with respect to nonlinear policies and to the stock-and-flow approach. In total, the strong historical fit and some counterintuitive observations of the Taylor rule model call for an application of the model to other economies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente tese engloba três artigos sobre diferencial de salários e estimação de demanda no Brasil. O primeiro artigo investiga o diferencial de salários entre os trabalhadores dos setores público e privado. A principal contribuição deste estudo é a estimação de um modelo de regressão com mudança endógena (endogenous switching regression model), que corrige o viés de seleção no processo de escolha setorial realizada pelos trabalhadores e permite a identificação de fatores determinantes na entrada do trabalhador no mercado de trabalho do setor público. O objetivo do segundo trabalho é calcular a elasticidade-preço e a elasticidade-despesa de 25 produtos alimentares das famílias residentes nas áreas rurais e urbanas do Brasil. Para tanto, foram estimados dois sistemas de equações de demanda por alimentos, um referente às famílias residentes nas áreas rurais do país e o outro sistema associado às famílias residentes nas áreas urbanas. O terceiro artigo busca testar a validade do modelo unitário para solteiros(as) e a validade do modelo de racionalidade coletiva de Browning e Chiappori (1998) para casais no Brasil. Para tanto, foi estimado um sistema de demanda do consumo brasileiro com base no modelo QUAIDS, que apresenta uma estrutura de preferências flexível o suficiente para permitir curvas de Engel quadráticas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Local provision of public services has the positive effect of increasing the efficiency because each locality has its idiosyncrasies that determine a particular demand for public services. This dissertation addresses different aspects of the local demand for public goods and services and their relationship with political incentives. The text is divided in three essays. The first essay aims to test the existence of yardstick competition in education spending using panel data from Brazilian municipalities. The essay estimates two-regime spatial Durbin models with time and spatial fixed effects using maximum likelihood, where the regimes represent different electoral and educational accountability institutional settings. First, it is investigated whether the lame duck incumbents tend to engage in less strategic interaction as a result of the impossibility of reelection, which lowers the incentives for them to signal their type (good or bad) to the voters by mimicking their neighbors’ expenditures. Additionally, it is evaluated whether the lack of electorate support faced by the minority governments causes the incumbents to mimic the neighbors’ spending to a greater extent to increase their odds of reelection. Next, the essay estimates the effects of the institutional change introduced by the disclosure on April 2007 of the Basic Education Development Index (known as IDEB) and its goals on the strategic interaction at the municipality level. This institutional change potentially increased the incentives for incumbents to follow the national best practices in an attempt to signal their type to voters, thus reducing the importance of local information spillover. The same model is also tested using school inputs that are believed to improve students’ performance in place of education spending. The results show evidence for yardstick competition in education spending. Spatial auto-correlation is lower among the lame ducks and higher among the incumbents with minority support (a smaller vote margin). In addition, the institutional change introduced by the IDEB reduced the spatial interaction in education spending and input-setting, thus diminishing the importance of local information spillover. The second essay investigates the role played by the geographic distance between the poor and non-poor in the local demand for income redistribution. In particular, the study provides an empirical test of the geographically limited altruism model proposed in Pauly (1973), incorporating the possibility of participation costs associated with the provision of transfers (Van de Wale, 1998). First, the discussion is motivated by allowing for an “iceberg cost” of participation in the programs for the poor individuals in Pauly’s original model. Next, using data from the 2000 Brazilian Census and a panel of municipalities based on the National Household Sample Survey (PNAD) from 2001 to 2007, all the distance-related explanatory variables indicate that an increased proximity between poor and non-poor is associated with better targeting of the programs (demand for redistribution). For instance, a 1-hour increase in the time spent commuting by the poor reduces the targeting by 3.158 percentage points. This result is similar to that of Ashworth, Heyndels and Smolders (2002) but is definitely not due to the program leakages. To empirically disentangle participation costs and spatially restricted altruism effects, an additional test is conducted using unique panel data based on the 2004 and 2006 PNAD, which assess the number of benefits and the average benefit value received by beneficiaries. The estimates suggest that both cost and altruism play important roles in targeting determination in Brazil, and thus, in the determination of the demand for redistribution. Lastly, the results indicate that ‘size matters’; i.e., the budget for redistribution has a positive impact on targeting. The third essay aims to empirically test the validity of the median voter model for the Brazilian case. Information on municipalities are obtained from the Population Census and the Brazilian Supreme Electoral Court for the year 2000. First, the median voter demand for local public services is estimated. The bundles of services offered by reelection candidates are identified as the expenditures realized during incumbents’ first term in office. The assumption of perfect information of candidates concerning the median demand is relaxed and a weaker hypothesis, of rational expectation, is imposed. Thus, incumbents make mistakes about the median demand that are referred to as misperception errors. Thus, at a given point in time, incumbents can provide a bundle (given by the amount of expenditures per capita) that differs from median voter’s demand for public services by a multiplicative error term, which is included in the residuals of the demand equation. Next, it is estimated the impact of the module of this misperception error on the electoral performance of incumbents using a selection models. The result suggests that the median voter model is valid for the case of Brazilian municipalities.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tese apresenta três ensaios empíricos sobre os padrões decisórios de magistrados no Brasil, elaborados à partir de bases de dados inéditas e de larga escala, que contém detalhes de dezenas de milhares de processos judiciais na primeira e na segunda instância. As bases de dados são coletadas pelo próprio autor através de programas-robô de coleta em massa de informações, aplicados aos "links" de acompanhamento processual de tribunais estaduais no Brasil (Paraná, Minas Gerais e Santa Catarina). O primeiro artigo avalia - com base em modelo estatístico - a importância de fatores extra-legais sobre os resultados de ações judiciais, na Justiça Estadual do Paraná. Isto é, se os juízes favorecem sistematicamente a parte hipossuficiente (beneficiária de Assistência Judiciária Gratuita). No segundo artigo, estuda-se a relação entre a duração de ações cíveis no primeiro grau e a probabilidade de reforma da sentença, utilizando-se dados da Justiça Estadual de Minas Gerais. O objetivo é avaliar se existe um dilema entre a duração e a qualidade das sentenças. Dito de outra forma, se existe um dilema entre a observância do direito ao devido processo legal e a celeridade processual. O último artigo teste a hipótese - no âmbito de apelações criminais e incidentes recursais no Tribunal de Justiça de Santa Catarina - de que as origens profissionais dos desembargadores influenciam seus padrões decisórios. Isto é, testa-se a hipótese de que desembargadores/relatores oriundos da carreira da advocacia são mais "garantistas" ( e desembargadores oriundos da carreira do Ministério Público são menos "garantistas") relativamente aos seus pares oriundos da carreira da magistratura. Testam-se as hipóteses com base em um modelo estatístico que explica a probabilidade de uma decisão recursal favorável ao réu, em função da origem de carreira do relator do recurso, além de um conjunto de características do processo e do órgão julgador.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Over the last decades, the analysis of the transmissions of international nancial events has become the subject of many academic studies focused on multivariate volatility models volatility. The goal of this study is to evaluate the nancial contagion between stock market returns. The econometric approach employed was originally presented by Pelletier (2006), named Regime Switching Dynamic Correlation (RSDC). This methodology involves the combination of Constant Conditional Correlation Model (CCC) proposed by Bollerslev (1990) with Markov Regime Switching Model suggested by Hamilton and Susmel (1994). A modi cation was made in the original RSDC model, the introduction of the GJR-GARCH model formulated in Glosten, Jagannathan e Runkle (1993), on the equation of the conditional univariate variances to allow asymmetric e ects in volatility be captured. The database was built with the series of daily closing stock market indices in the United States (SP500), United Kingdom (FTSE100), Brazil (IBOVESPA) and South Korea (KOSPI) for the period from 02/01/2003 to 09/20/2012. Throughout the work the methodology was compared with others most widespread in the literature, and the model RSDC with two regimes was de ned as the most appropriate for the selected sample. The set of results provide evidence for the existence of nancial contagion between markets of the four countries considering the de nition of nancial contagion from the World Bank called very restrictive. Such a conclusion should be evaluated carefully considering the wide diversity of de nitions of contagion in the literature.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os resultados obtidos possibilitam afirmar que as indústrias que mais investiram em Tecnologia de Informação (TI), no período de 2001 a 2011, obtiveram maior crescimento da sua receita operacional e resultados operacionais mais eficazes, comparadas com as indústrias que investiram menos no período. De acordo com o modelo proposto, para as empresas estudadas foi possível encontrar, no prazo de dois anos, um crescimento de 7% no resultado operacional para cada 1% a mais de investimentos em TI. Destaca-se o objetivo da pesquisa de identificar e analisar os impactos dos gastos e investimentos em tecnologia de informação no desempenho financeiro das indústrias brasileiras, para alcançá-lo, adotou-se um modelo de pesquisa que utilizou métricas contábeis-financeiras e indicadores de uso TI, bem como a combinação de técnicas estatísticas para as análises. O trabalho aprofunda e amplia as discussões existentes sobre a avaliação dos investimentos em TI e como aferir o impacto desta sobre o desempenho organizacional. O universo do estudo foi composto pelas companhias brasileiras, de capital aberto, do ramo industrial, com ações ativas na BOVESPA, totalizando 119 companhias. Por meio de uma survey obteve-se os dados complementares referentes aos gastos e investimentos em TI; os questionários semiestruturados foram encaminhados diretamente ao Gerente de TI (Chief Information Officer). Estes esforços na coleta de dados primários possibilitaram a obtenção de uma amostra bastante significativa, com 63 indústrias, ou seja, 53% da população estudada. Após coleta, a análise dos dados foi desenvolvida em três etapas: (1) Análise Fatorial (AF) para seleção de fatores de desempenho que resultou no final do processo em doze variáveis para o modelo da pesquisa; (2) Análise de Cluster (AC) que evidenciou três agrupamentos distintos de indústrias por suas características e desempenho e (3) Regressão Múltipla que adotou um modelo econométrico dinâmico, estimado pelo Método dos Momentos Generalizado (GMM), satisfazendo as condições do modelo de Arellano-Bond (1991). Salienta-se que o modelo proposto permitiu tratar de forma adequada metodologicamente as correlações espúrias, possibilitando identificar que os gastos e investimentos em TI, (IGTI t-2), de dois períodos anteriores impactaram no Resultado Operacional Atual, (ROPt), evidenciando o efeito tardio, ou lag effect. Além disso, foi constatado que outras variáveis de rentabilidade e liquidez impactam neste resultado, também adotando defasagem das variáveis. A principal variável de TI da pesquisa, o IGTI, é calculada pela soma de gastos e investimentos em TI anuais (OPEX/CAPEX), dividida pela Receita Operacional Líquida anual. Para pesquisas futuras, há a possibilidade de buscar medidas de avaliação por tipos (categorias) de investimento em TI, visando ao aprofundamento da análise destes impactos no desempenho setorizado (ligado a cada investimento) e da análise de clusters, adotando o modelo de análise da pesquisa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O documento analisa como investidores de impacto selecionar suas companhias de portfólio na América Latina e que critérios são avaliados no processo. Uma vez que praticamente ne-nhuma pesquisa sobre isso foi con conduzidos até à data, e desde que o modelo de processo de seleção aplicados em capital de risco não é dissemelhantes, foi adotado essa abordagem. Os resultados revelam que os investidores de impacto originar e avaliar negócios de uma for-ma semelhante a capitalistas de risco , mas que alguns critérios são ajustados e outros adicio-nados a fim de refletir o duplo objectivo de investimento de impacto. Os investidores de im-pacto podem originar ofertas passivamente, mas eles preferem procurar empreendimentos sociais de forma proativa: contatos pessoais, o acesso a redes e eventos do setor são cruciais neste contexto. Impacto Investidores considerando um investimento em pesquisa para a Amé-rica Latina inteira, empreendedores sociais honestos e confiáveis comprometidos com impacto social; empreendimentos sociais elegíveis devem ser rentáveis com potencial de escalabilidade; o produto deve ter um impacto social, ou seja, criar valor para o consumidor individual e para a comunidade em geral; tamanho do mercado e crescimento do mercado são fatores externos cruciais; e as características de negócio dependem de atitude de risco do investidor e as perspectivas de uma saída bem sucedida, tanto em termos financeiros e sociais. Os investi-dores de impacto também estão dispostos a dar apoio não financeiro antes de um investimen-to, se um empreendimento social, mostra alto potencial para atingir o seu objectivo dual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We construct a dynamic equilibrium model to quantitatively study sovereign debt with contingent services and country risk spreads such that the benefits of defaulting are tempered by higher interest rates in the future. For a wide range of parameters, the only equilibrium of the model is one in which the sovereign defaults in all states, unless defaulting incurs additional costs. Due to the adverse selection problem, some countries choose to delay default in order to reduce reputation loss. Although equilibria with no default imply in greater welfare levels, they are not sustainable in the highly indebted and volatile countries.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o aumento do número de gestores especializados em um número cada vez maior de possibilidades de investimentos na indústria de fundos brasileira, os fundos Multigestor se tornaram uma alternativa para os investidores que procuram diversificar seus investimentos e delegam às instituições financeiras o trabalho de alocar os recursos dentro das diferentes estratégias e fundos existentes no mercado. O intuito deste estudo é avaliar a capacidade de gerar retornos anormais (alfa) dos fundos de fundos da indústria brasileira, classificados como Fundos Multimercados Multigestor. Para isso foi estudada uma amostra com 1.421 fundos Multigestor com tributação de Longo Prazo no período de janeiro de 2005 a dezembro de 2011. A análise dos resultados encontrados através de regressões de modelos de vários fatores, derivados do modelo de Jensen (1968), sugere que apenas 3,03% dos fundos estudados conseguem adicionar valor a seus cotistas. Foram estudadas ainda as três principais fontes potenciais de geração de alfa dos fundos de fundos, a escolha das estratégias que compõe a carteira do fundo (alocação estratégica), a antecipação de movimentos de mercado (market timing) e a capacidade selecionar os melhores fundos dentro de cada estratégia (seleção de fundos). A partir da inclusão de termos quadráticos, conforme proposto pelos modelos de Treynor e Mazuy (1966) pode-se verificar que os fundos Multigestor, em média, não conseguem adicionar valor tentando antecipar movimentos de mercado (market timing). Através da construção de uma variável explicativa com a composição estratégica de cada fundo da amostra em cada período de tempo, pode-se verificar que os gestores de fundos de fundos, em média, também fracassam ao tentar selecionar os melhores fundos/gestores da indústria. Já a escolha das estratégias que compõe a carteira do fundo (alocação estratégica) mostrou contribuir positivamente para o retorno dos fundos. Ainda foi avaliada a capacidade de gerar alfa antes dos custos, o que elevou o percentual de fundos com alfa positivo para 6,39% dos fundos estudados, mas foi incapaz de alterar o sinal do alfa médio, que permaneceu negativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Choosing properly and efficiently a supplier has been challenging practitioners and academics since 1960’s. Since then, countless studies had been performed and relevant changes in the business scenario were considered such as global sourcing, quality-orientation, just-in-time practices. It is almost consensus that quality should be the selection driver, however, some polemical findings questioned this general agreement. Therefore, one of the objectives of the study was to identify the supplier selection criteria and bring this discussion back again. Moreover, Dickson (1966) suggested existing business relationship as selection criterion, then it was reviewed the importance of business relationship for the company and noted a set of potential negative effects that could rise from it. By considering these side effects of relationship, this research aimed to investigate how the relationship could influence the supplier selection and how its harmful effects could affect the selection process. The impact of this phenomenon was investigated cross-nationally. The research strategy adopted was a controlled experiment via vignette combined with discrete choice analysis. The data collections were performed in China and Brazil. By examining the results, it could be drawn five major findings. First, when purchasers were asked to declare their supplier selection priorities, quality was stated as the most important independently of country and relationship. This result was consistent with diverse studies since 60’s. However, when purchasers were exposed to a multi-criteria trade-off situation, their actual selection priorities deviate from what they had declared. In the actual decision-making without influence of buyer-supplier relationship, Brazilian purchasers focused on price and Chinese buyers prioritized delivery then price. This observation reinforced some controversial prior studies of Verma & Pullman (1998) and Hirakubo & Kublin (1998). Second, through the introduction of the buyer-supplier relationship (operationalized via relational capital) in the supplier selection process, this research extended the existing studies and found that Brazilian buyers still focused on price. The relationship became just another criterion for supplier selection such as quality and delivery. However, from the Chinese sample, the results suggested that quality was totally discarded and the decision was majorly made through price and relationship. The third finding suggested that relational capital could legitimate the quality and sustainability of the supplier and replaces these selection criteria and made the decisional task less complex. Additionally, with the relational capital, the decision-makings were associated to few biases such as availability cognition, commitment, confirmatory and perceived biases. By analyzing the purchasers’ behavior, relational capital inducted buyers of both countries to relax in their purchasing requirements (quality, delivery and sustainability) leading to potential negative effects. In the Brazilian sample, the phenomenon of willing to pay a higher price for a lower quality offer demonstrated to be a potential counterproductive and suboptimal decision. Finally, the last finding was associated to the cultural effect on the buyers’ decisions. From the outcome, it is possible to observe that if a purchaser’s cultural background is more relation-oriented, the more he will tend to use relational capital as a decision heuristic, thus, the purchaser will be more susceptible to the potential relationship’s side effects