107 resultados para Sinal esperado
Resumo:
Contaminação da confiança é um caso especial de incerteza Knightiana ou ambiguidade na qual o tomador de decisões está diante de não apenas uma única distribuição de probabilidades, mas sim de um conjunto de distribuições de probabilidades. A primeira parte desta tese tem o propósito de fornecer uma caracterização da contaminação da confiança e então apresentar um conjunto de axiomas comportamentais simples sob os quais as preferências de um tomador de decisões é representada pela utilidade esperada de Choquet com contaminação da confiança. A segunda parte desta tese apresenta duas aplicações econômicas de contaminação da confiança: a primeira delas generaliza o teorema de existência de equilíbrio de Nash de Dow e Werlang (o que permite apresentar uma solução explícita para o paradoxo segundo o qual os jogadores de um jogo do dilema dos prisioneiros com um número infinito de repetições não agem de acordo com o esperado pelo procedimento da indução retroativa) e a outra estuda o impacto da contaminação da confiança na escolha de portfolio.
Resumo:
O problema a ser tratado por essa dissertação de mestrado é a seleção de projetos, de qualquer natureza, a serem executados por uma empresa ou uma área/departamento de uma empresa, considerando o portfólio de projetos existente e o orçamento disponível para tal. O objetivo é ordenar os projetos ou grupos de projetos de forma a identificar os projetos mais relevantes e/ou prioritários para a empresa. Essa relevância é identificada através de critérios que são avaliados por especialistas da empresa ou departamento em questão. Esses critérios são definidos pelos especialistas da empresa e oriundos tanto do plano estratégico e dos objetivos estratégicos da empresa ou departamento, quanto da experiência desses especialistas. São identificados e discutidos previamente às atividades de ordenação dos projetos. Uma vez que esses projetos ou grupos de projetos estejam ordenados, basta seguir essa seqüência para definir quais projetos são comportados pelo orçamento da empresa ou do departamento. Após essa decisão os projetos selecionados deverão ser executados de forma a produzir o resultado esperado.
Resumo:
Este estudo focou na indústria de supermercados e teve como objetivo examinar o quanto os fatores referentes à existência de um programa de fidelidade em um supermercado, a fidelidade do cliente com esse programa e a percepção de valor que o cliente tem da loja, influenciam na sua lealdade à loja. Como muitas empresas têm feito um grande investimento nos Programas de Fidelidade, é certamente relevante que seja medida a efetividade desse tipo de programa. A metodologia usada foi a análise de regressão linear. Nesta análise de regressão foram consideradas as seguintes variáveis independentes: Valor percebido do programa, a Lealdade ao cartão de fidelidade da loja, o valor percebido da loja. Como variável dependente foi considerada a Lealdade à loja. A análise concluiu que os programas de lealdade em supermercados não estão funcionando como instrumentos efetivos de fidelidade e não têm relação com o Valor Percebido da Loja. O investimento das empresas nessa ferramenta não está trazendo o retorno esperado de desenvolver fidelidade no cliente.
Resumo:
O trabalho tem como objetivo descrever um processo de transmis são de choques na correlação da taxa de câmbio do Brasil, Chile, Euro e México com base no modelo de correlação dinâmica de [Engle, 2002]. O modelo é estendido para capturar efeitos assi métricos na volatilidade e na correlação. A trajetória estimada da correlação mostra-se com desvios significativos em relação a correla ção incondicional, a amplitude da correlação condicional é elevada e há inclusive alteração de sinal quando a correlação é feita em relação ao Euro. Num calculo de valor em risco, o modelo com correlação dinâmica tem uma performance muito superior a um modelo com correlação constante, levando-se em conta os mesmos processos de volatilidade.
Resumo:
Este documento constitui-se em uma dissertação de mestrado, requisito parcial para a obtenção do grau de Mestre em Gestão Empresaria e Pública. Este estudo procura mostrar que a adoção dessa nova tecnologia através de projetos de implantação de sistema de ERP não só mudam processos administrativos como também produtos, serviços e estruturas organizacionais e que a sua implantação se constitui em um grande projeto que envolve um número considerável de recursos e tempo das organizações. Este estudo procurar mostrar também que os impactos que tais projetos trazem, são mais fortemente sentidos ou não pela organização de acordo com uma série de fatores, entre eles, a resistência à mudança e o quanto a organização está preparada para enfrentar essas mudanças, o medo da perda do emprego pela adoção de uma nova tecnologia, problemas com a falta de comunicação das mudanças, questões relacionadas à cultura organizacional vigente, a falta de envolvimento da alta administração, entre outras. Para gerenciar todas essas variáveis, as organizações modernas adotam técnicas para garantir o sucesso da implantação dessas novas tecnologias. o estudo aqui proposto tem como objetivo determinar até que ponto a utilização de metodologias e de técnicas de Project Management é o suficiente para que esses projetos alcancem o sucesso esperado pelas organizações. A quantidade de variáveis que influenciam o resultado de um projeto são muitas e cada uma delas possui um papel importante que deve ser avaliado. As conclusões desta pesquisa demonstram que o sucesso de um projeto nem sempre se resume a atingir os objetivos inicialmente propostos, relativos ao cumprimento do prazo, escopo e custo de um projeto, conforme define a metodologia de Project Management. Outros aspectos considerados por essa metodologia, se melhor ou pior aplicados, também contribuem para o sucesso ou fracasso de um projeto de implantação de um sistema de ERP sendo o seu fracasso traduzido ou não, no cumprimento do prazo, do escopo inicialmente previsto ou no custo inicialmente calculado. Outros aspectos que não apenas a aplicação correta da metodologia de Project Management contribuem para os resultados alcançados pelo projeto.
Resumo:
Desafios para implementação do global reporting initiative nas empresas sucroenergéticas no Brasil A pesquisa pretende avaliar o grau de maturidade necessário para elaboração e publicação de um Relatório de Sustentabilidade Integrado. O setor sucroenergético brasileiro foi escolhido para a pesquisa por aderir ao padrão da Global Reporting Initiative para relatórios de sustentabi-lidade e por ser um setor com exposição nacional e internacional, que vem passando por grandes transformações com entrada de novos players nacionais e internacionais, profissionalização da gestão, alterações de práticas operacionais visando atender exigências ambientais e sociais. Para se entender o grau de maturidade das organizações foi preciso definir seis fundamentos de supor-te à realização de um relatório integrado: processos, estrutura, pessoas, sistemas, políticas e pro-cedimentos e cultura organizacional. A seguir, foram estabelecidos três graus de maturidade – alto, médio e baixo. Assim, para cada um desses fundamentos foi atribuído um grau de maturida-de. Na prática de elaborar relatórios de desempenho as organizações podem estar em diferentes estágios de um processo evolutivo. Elas têm por fim a publicação de um relatório integrando os aspectos econômicos, ambientais e sociais, denominado triple bottom line. Nesse processo evolu-tivo, existem as empresas que reportam seu desempenho econômico financeiro e há as que repor-tam o relatório anual da administração mais completo e que pode conter o relatório de sustentabi-lidade. Os dois estágios requerem a aplicação dos fundamentos descritos acima, mas em graus de complexidades diferentes. Para elaborar e publicar um relatório integrado, o grau de utilização dos fundamentos deverá ser muito maior. Esse grau de maturidade na aplicação dos fundamentos será determinante para o processo de interação com os stakeholders, criar um relatório transpa-rente e que seja também útil às suas interpretações e decisões. A pesquisa detectou que as empre-sas do setor, como o esperado, têm o grau de maturidade alto quando se trata de reportar o de-sempenho econômico-financeiro. Quando se trata dos indicadores ambientais, já se nota uma evolução em relação ao tema; há um esforço maior a ser empreendido quando o assunto é o re-porte dos aspectos sociais. Independentemente do grau de maturidade, a iniciativa das empresas do setor sucroenergético brasileiro (na região Centro-Sul), na evolução dos Relatórios de Susten-tabilidade, deverá reverter em prol do desafio global para o meio ambiente.
Resumo:
O objetivo deste estudo foi descrever os desafios e oportunidades enfrentadas por centros de pesquisa voltados para a agroenergia. Focalizamos o estudo na estruturação de um centro financiado pela iniciativa privada, de forma cooperativa e propomos que seu modelo seja considerado por outros segmentos envolvidos com agroenergia, ou que possam beneficiar-se de experiências semelhantes. A pesquisa em agroenergia apresenta uma gama enorme de alternativas de desenvolvimento. Ao contrário de outros segmentos, a agroenergia pode ser pesquisada no desenvolver de uma longa cadeia que pode se iniciar na localização mais propícia para implantação de empreendimento, e seguir todas as etapas agrícolas e industriais até chegar à qualidade do produto final. A gestão do centro de pesquisas nesta área tem como seu principal desafio o de identificar quais dos diversos elos dessa enorme cadeia devem ser priorizados. Define-se um processo de análise técnica e econômica para cada potencial projeto a ser avaliado, determinar seu risco, prazo de maturação, retorno esperado para chegar-se a um portfólio de projetos satisfatórios com entregas a curto, médio e longo prazo. Durante todo o processo, prestar conta dos resultados de forma participativa e transparente.
Resumo:
Baseado no referencial teórico existente se pode constatar que as principais funções da TI que são comumente terceirizadas são: as operações de infraestrutura; o desenvolvimento e a manutenção de aplicações (fábrica de software); e o gerenciamento de redes e computadores (service desk). Dentre as funções comumente terceirizadas, uma que parece ter menor potencial de contribuição diferencial quanto ao seu valor para o negócio é a de infraestrutura, uma atividade bastante estruturada que normalmente é uma das primeiras a serem terceirizadas, parecendo ser corriqueiro que empresas optem por essa terceirização. Este trabalho teve como principal objetivo identificar a associação que pode existir entre o anúncio de terceirização da TI, especialmente infraestrutura, e o valor de mercado das empresas, e para tanto teve como foco empresas brasileiras de capital aberto. Já é sabido que investidores levam em consideração tanto as informações financeiras como não financeiras das empresas que pretendem investir, o que resulta em menor ou maior valorização dessas empresas. O valor da ação no mercado representa o retorno superior esperado em certos momentos, como reflexo da expectativa futura de desempenho que a empresa possa ter. Neste estudo queremos verificar se o anúncio da terceirização da TI levando a essa expectativa de desempenho superior, ou geração de valor futuro, leva também a alguma alteração no valor da ação no mercado. Isto foi feito por meio da comparação da variação do valor de mercado de algumas empresas antes e após o anúncio da realização da terceirização da TI. A metodologia utilizada foi o Estudo de Eventos e, para mensuração dos retornos normais e anormais, utilizamos um modelo de retornos ajustados ao risco e ao mercado, adotando o Capital Asset Pricing Model (CAPM) como modelo econômico para precificação de ativos. O tratamento dos dados das 11 empresas que compuseram a nossa amostra apontou que o anúncio da terceirização da TI parece ter afetado o comportamento das ações dessas empresas. Tomando por base a amostra escolhida, pudemos identificar que houve um impacto positivo no valor de mercado das empresas estudadas, o que pode ter ocorrido em função dos anúncios publicados.
Resumo:
O racional teórico das finanças comportamentais se sustenta em dois grandes pilares: limites de arbitragem e irracionalidade dos investidores. Dentre os desvios de racionalidade conhecidos, um foi de particular interesse para este estudo: o viés da disponibilidade. Este viés acontece nas situações em que as pessoas estimam a frequência de uma classe ou a probabilidade de um evento pela facilidade com que instâncias ou ocorrências podem ser lembradas. O advento da internet permitiu a verificação do viés de disponibilidade em larga escala por meio da análise dos dados de buscas realizadas. I.e., se uma determinada ação é mais procurada que outras, podemos inferir que ela está mais disponível na memória coletiva dos investidores. Por outro lado, a literatura das finanças comportamentais tem um braço mais pragmático, que estuda estratégias capazes de fornecer retornos anormais, acima do esperado pela hipótese do mercado eficiente. Para os fins deste estudo, destaca-se o efeito momento, no qual o grupo de ações de melhor resultado nos últimos J meses tende a fornecer melhores resultados pelos próximos K meses. O propósito deste estudo foi verificar a possibilidade de se obter retornos acima dos identificados pelo efeito momento segmentando-se as carteiras de maior e menor viés de disponibilidade. Os resultados obtidos foram positivos e estatisticamente significativos na amostra selecionada. A estratégia cruzada entre efeito momento e disponibilidade produziu, para J=6 e K=6, retornos médios mensais de 2,82% com estatística t de 3,14. Já a estratégia só de efeito momento, para o mesmo período de formação e prazo de manutenção, gerou retornos médios mensais de apenas 1,40% com estatística t de 1,22.
Resumo:
Após o surgimento e a expansão exponencial, a internet evoluiu para uma tecnologia que extrapolou os contornos acadêmicos em que foi criada, desenvolvendo diversas e simultâneas vocações, entre elas, fonte de educação e lazer, armazenamento de informações, rede de computadores, meio de comunicação individual e veículo de mídia de massa. É esta vocação, de veículo de mídia, que provocou o interesse pela pesquisa objeto desta dissertação. A entrada da internet no ambiente de mídia tem renovado o interesse na questão do consumo de mídia. Particularmente, a crescente popularidade como novo meio de comunicação resultou em mudanças nos usos dos meios tradicionais, como teorizado na Teoria do Nicho aplicada à indústria de mídia. O declínio da audiência das grandes redes de TV aberta mostra como o setor vem reagindo à concorrência de novos canais, à emergência de novas plataformas de acesso à programação televisiva e à mudança nos hábitos de consumo de mídia. Esta investigação faz uma revisão da literatura e compara o panorama internacional e especialmente a situação do Brasil, onde as principais emissoras de sinal aberto tentam resistir ao processo de fragmentação do público que se registra mundialmente. Para melhor compreender o que significam tais mudanças, é primordial entender quais as variáveis relevantes no universo dos veículos de mídia. A principal delas é a audiência, que representa o número de pessoas que acessam, veem, leem, ouvem ou consomem determinado meio de comunicação em determinado espaço de tempo. O objetivo deste estudo foi desenvolver um modelo preditivo sobre o tempo despendido pelas pessoas na internet, a partir de informações sociodemográficas e do comportamento dessas pessoas enquanto audiência dos meios de comunicação tradicionais, particularmente a televisão. Como os dados secundários analisados apresentam respostas em categorias ordinais, foi escolhido a regressão logística ordinal como o modelo de probabilidades para realizar esse estudo.
Resumo:
A gasolina e o etanol são os principais combustíveis para veículos leves no Brasil e o estudo da sua demanda fornece importantes indicadores a respeito do comportamento dos consumidores. Vários pesquisadores no mundo tentaram estimar as elasticidades de preço e renda da gasolina e em menor número do etanol. Esta dissertação faz um estudo desse tipo, levando em consideração as características específicas do mercado de combustíveis no Brasil e contribuindo em alguns pontos em relação às pesquisas realizadas anteriormente. Um estudo econométrico em dois estágios foi realizado com dados mensais da ANP para as unidades federativas do Brasil, utilizando variáveis instrumentais para controlar a endogeneidade na análise da demanda. Além disso, levou-se em consideração o fato de que nem todos os estados brasileiros têm preço relativo etanol-gasolina numa faixa próxima ao valor crítico de 70%, o que pode dificultar a mensuração das elasticidades-preço nessas regiões. Assim sendo, os estados cujo preço relativo álcool-gasolina costuma estar numa faixa distante do valor crítico de 70% foram analisados separadamente. Por fim, a análise foi feita separadamente para dois períodos distintos, pois é esperado que o crescimento da frota de veículos com motores flex-fuel altere o comportamento dos consumidores. Os resultados das regressões confirmam um aumento das elasticidades-preço própria e cruzada do consumo de gasolina e etanol no Brasil. Contudo, não foi confirmada a hipótese de que as elasticidades estimadas seriam maiores nos estados próximos a paridade. Adicionalmente, as estimações sugerem que no período mais recente o etanol apresenta em módulo uma elasticidade-preço significativamente maior que a gasolina.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.
Resumo:
O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.
Resumo:
A entrada da mulher no mercado de trabalho gerou uma série de mudanças nas organizações, entretanto, a carreira da mulher executiva ainda apresenta disparidades em relação à carreira dos seus colegas homens. Essa disparidade pode decorrer da incongruência entre o papel social da mulher e o papel esperado de um líder. No entanto, este fenômeno parece está passando por mudanças, dado o empowerment das mulheres tanto no cenário corporativo como político. Neste sentido, surge a problemática desta pesquisa: qual o real comportamento da mulher ao assumir papeis de liderança? O quadro teórico que cerca esta pesquisa envolve a teoria do papel social (EAGLY, 1987), que postula que cada indivíduo tem um papel socialmente aceito, no qual se inclui o papel de líder, formado através de protótipos de como deve ou deveria se comportar, e também papeis gênero, no qual são definidos os comportamentos socialmente aceitos para homens e para mulheres. Nesta direção, para fazer a comparação dos papeis socialmente esperados de ambos os sexos e os papeis requeridos ao líder é utilizada a teoria de congruência de papeis (EAGLY e KARAU, 2002). Dado este quadro teórico, para atender ao objetivo desta pesquisa, são realizados quatro estudos que utilizam metodologias qualitativas, experimentais e quantitativas. No primeiro estudo, são testadas as relações entre sexo do líder e as dimensões agênticas e comunais do protótipo de liderança por meio de análise de conteúdo de descrições de mulheres e homens líderes. Já no segundo estudo, é testada, por meio de um experimento, a congruência da avaliação de líderes masculino e feminino com o comportamento agêntico e comunal. No terceiro estudo, são examinados quatro perfis de liderança e como estes estão associados entre si a partir de dados coletados por meio de questionários estruturados. São analisadas as características do líder em geral e do líder eficaz com as características do líder masculino e da líder feminina. Estas análises também são realizadas considerando o perfil sexual do respondente (BEM, 1974). Por fim, no quarto estudo são analisadas entrevistas em profundidade a fim de identificar como ocorrem e quais as causas destes acontecimentos supracitados. Os resultados demonstraram que ao assumir um papel de liderança, a mulher tende a assumir características agênticas do protótipo de liderança (como força, masculinidade e tirania), ou seja, tende a masculinizar-se para ser aceita pelas outras pessoas. Os resultados revelam também poucas diferenças entre os líderes homens e mulheres, o que corrobora a primeira conclusão. Por outro lado, as características comunais do líder (como sensibilidade) revelam-se como as mais críticas para a aceitação do líder pelos seus subordinados, mas não para a sua eficácia. Dessa forma, este trabalho busca contribuir para compreender melhor o fenômeno da liderança feminina, lançando luz sobre as eventuais incongruências entre os papeis sociais e gerenciais da mulher na sociedade brasileira contemporânea.