953 resultados para Supercondutividade de alta temperatura


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto do trem de alta velocidade que fará o transporte de passageiros entre as duas maiores metrópoles do país é um dos principais investimentos do Plano de Aceleração do Crescimento (PAC). Depois do insucesso apresentado no primeiro processo de licitação, devido à falta de proposta de investidores privados, o Governo Federal decidiu alterar a sua participação no plano de investimentos, adicionalmente, nesta segunda tentativa, prevista para ocorrer em setembro de 2013, o Governo informou que reduzirá o valor mínimo da outorga a ser pago pelo concessionário vencedor em 3,2%, o que aumentará o investimento do Estado em cerca de R$ 900 milhões. O setor público busca através das medidas destacadas, aumentar a atratividade do projeto e divulgou que poderá aumentar a sua participação acionária no projeto, de 45% das cotas da SPE que controlará o TAV para cerca de 80%. O presente estudo discute a concessão de uma garantia de demanda mínima de passageiros, os resultados obtidos através da metodologia de opções reais indicam que elas podem gerar um aumento do VPL de 22,2% e um custo para os cofres públicos de apenas 2,86% do total investido no projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação dedeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador dedeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador dedeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A G6PD é expressa em todos os tecidos, onde catalisa a primeira etapa da via das pentoses-fosfato. O NADPH produzido pela ação da G6PD serve como doador de elétrons na biossíntese redutora. Pelo fato de os glóbulos vermelhos não terem mitocôndria, a via das pentoses-fosfato é a única fonte de NADPH e essencial para sua proteção contra o stress oxidativo. A deficiência da G6PD é classificada como anemia hemolítica hereditária ligada ao cromossomo X, associada a manifestações clínicas heterogêneas. O gene da G6PD possui cerca de 140 variantes moleculares já descritas, muitas dessas associadas à enzimopatia. Considerando-se a alta freqüência populacional da deficiência de G6PD, a constituição da população do Rio Grande do Sul e as dificuldades diagnósticas desta deficiência, este trabalho teve como objetivo caracterizar os aspectos laboratoriais do diagnóstico da deficiência de G6PD em nosso meio. Para a quantificação da atividade da G6PD, foi utilizado o método enzimáticocolorimétrico com normalização da hemoglobina (kit intercientífica) e para as análises moleculares foram investigadas as mutações 202, 376 e 563 por PCR/RFLP. O presente estudo revelou uma prevalência combinada de 7,9% das duas formas de deficiência de G6PD (completa e parcial) no Rio Grande do Sul, com alta prevalência de pacientes parcialmente deficientes e sem correlação com origem étnica. Usando técnicas bioquímicas e moleculares, foi caracterizada a deficiência de G6PD em amostras de Porto Alegre como sendo principalmente devida às mutações G202A e A376G, representando a variante G6PD A-, confirmando uma distribuição homogênea do padrão G6PD A- no Brasil. Os resultados apresentados aqui demonstraram que as condições de estocagem (temperatura principalmente) desempenham um papel fundamental na atividade da G6PD, especialmente nas coletas em papel filtro. Na avaliação da acurácia do método enzimático de medida da atividade da G6PD as sensibilidades e especificidades calculadas para os valores de cut-off estabelecido em uma população normal foram: para 2,9 U/gHb ( 11,4% e 100%), para 8 U/g Hb (77,1% e 94,7%) e para 11,5 U/g hb (97,1% e 76,3%). Estima-se que a deficiência de ambas as formas combinadas de G6PD seja de aproximadamente 8% numa amostra do RS. A partir de uma probabilidade pré-teste de 8,0%, após a realização do ensaio enzimático, a probabilidade pós-teste de uma pessoa ser deficiente de G6PD com nível enzimático inferior a 8 U/g Hb passa a ser 55,9%. Ao passo que para níveis superiores a 11,5 U/gHb esta probabilidade de deficiência diminui para 0,37%. Pode-se concluir que o método empregado (kit Intercientífica) foi adequado para avaliar a atividade enzimática de G6PD em amostras de sangue total. É um método capaz de detectar a deficiência de G6PD, demonstrando de forma satisfatória o grau de deficiência em indivíduos que possuem mutações que causam deficiência enzimática menos severa, inclusive mulheres heterozigotas. A análise molecular pode identificar o tipo de variante mas não pode indicar o risco real para as mulheres portadoras, que é diretamente estimado pelo nível de atividade enzimática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vários estudos têm sugerido que seres vivos podem ser suscetíveis aos campos eletromagnéticos (CEMs). Os supostos efeitos dos Campos Eletromagnéticos de Ultra Alta Freqüência (CEMUAFs) em sistemas biológicos são pouco conhecidos. Os relatos de um possível efeito biológico dependente da alteração de estados de oxidação entre pares de radicais sugerem um mecanismo de transdução orgânica para os campos. Outros trabalhos obtiveram alterações na sinalização celular e defesas antioxidantes após a exposição CEMUAFs e, tais alterações, poderiam ser um agente causador de doenças como, por exemplo, a leucemia infantil, esta já correlacionada com a exposição aos CEMs. Desta forma o objetivo deste estudo foi investigar se o CEMUAF (834 MHz) poderia interferir com o balanço oxidativo de planárias e ratos, assim como, estudar a participação de enzimas responsáveis pela hidrólise de nucleotídeos, enzimas estas reconhecidas por serem influenciadas pela ação de radicais livres. As planárias foram expostas por 1, 3 e 6 dias (8 h/dia). Após a exposição foi feito um homogenato de todo o corpo de cada animal. Foi encontrado um aumento na atividade da superóxido desmutase (SOD) e um decréscimo na atividade da catalase (CAT) e na defesa antioxidante não-enzimática (TRAP) após 6 dias de exposição. Adicionalmente, houve um aumento na freqüência de micronúcleos (MN) após 3 e 6 dias de exposição. Não houve alteração nos parâmetros de dano oxidativo a lipídios (TBARS) e proteínas (Carbonil) em nenhum dos tempos de exposição. Estes resultados sugerem um aumento nos níveis de radicais livres e de danos aos ácidos nucléicos. Estudos posteriores deverão determinar se estes efeitos apresentam ou não associações do tipo causa e efeito. Foram utilizados três modelos com ratos. No primeiro modelo, animais com idades de 30, 80 e 210 dias foram expostos por 6 dias (7:30 h/dia). Não foram encontradas mudanças nos parâmetros de TRAP, TBARS e Carbonil em nenhuma das idades expostas ao CEMUAF. Estes resultados sugerem que os tempos de exposição utilizados não foram suficientes para causar alguma mudança perceptível nos parâmetros de estresse oxidativo. No segundo modelo, utilizou-se o sangue e fígado dos neonatos expostos ao CEMUAF ainda no útero de suas mães durante todo o seu desenvolvimento embrionário (8:30 h/dia). Não foram encontradas mudanças em nenhum parâmetro oxidativo. Foi encontrado um aumento na freqüência de MN nas hemácias, sugerindo um efeito genotóxico da irradiação do celular afetando o tecido hematopoiético dos fetos. No terceiro modelo, utilizou-se o sangue de ratos adultos (180 dias) expostos por 12 dias (8:30 h/dia). Os níveis da hidrólise de ATP e ADP estavam aumentados no grupo irradiado. Nenhum efeito foi observado nas atividades da SOD e da CAT, sugerindo nenhuma participação de radicais livres nestes resultados. Ainda são necessários muitíssimos estudos para determinar quais os mecanismos transdutores dos CEMUAFs em sistemas biológicos e de que forma esta interação ocorre, porém estes resultados sugerem: (a) um papel para os radicais livres sobre, pelo menos, alguns dos efeitos atribuídos aos CEMUAFs e (b) que os organismos em fase de formação podem ser mais sensíveis aos campos. Por fim, sugerimos que sistemas biológicos podem sofrer a ação da irradiação com uma quantidade de energia muito menor do que a esperada para promover algum efeito no metabolismo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta o histórico da radioterapia desde o surgimento dos raios-X até os dias atuais, no contexto das ações e controle de combate ao câncer. Estuda a atual situação dos serviços de radioterapia do pais, com destaque para os municipios de São Paulo e Rio de Janeiro, sob a ótica da Economia da Saúde. A análise foi centrada nos recursos materiais, recursos humanos, recursos financeiros e qualidade assegurada em radioterapia, comparados a paises desenvolvidos e em desenvolvimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em plantas de polimerização, uma das principais propriedades relacionadas à qualidade do produto é o índice de fluidez, ou MI. Esta propriedade é geralmente medida em laboratório, em intervalos de algumas horas. Por outro lado, as variáveis de processo estão disponíveis continuamente e são controladas com o objetivo de atingir as propriedades desejadas do produto. O desenvolvimento de um analisador virtual, que permita a estimação do MI de forma contínua, com base nestas variáveis medidas, pode levar a um melhor controle da qualidade do produto final. Este trabalho desenvolve um analisador virtual de MI para uma planta de polietileno de alta densidade (PEAD). Existem vários tipos de modelos que podem ser utilizados na implementação de um analisador virtual, assim como várias formas de correção on-line das suas estimativas. Este trabalho direciona especial atenção aos modelos semi-empíricos, e ao uso de um filtro de Kalman estendido (EKF) na correção das estimativas e dos parâmetros do modelo. O objeto de estudo desse trabalho foi um conjunto de produtos, cuja produção é realizada em dois reatores em série. Foram usados 21 conjuntos de dados representando diferentes períodos de operação da planta. Estes conjuntos de dados continham as principais variáveis de planta e os resultados de MI medidos em laboratório. A partir destes dados, foram estimados os parâmetros do modelo para cada reator. Também foi proposta e testada uma metodologia para a sintonia dos parâmetros do EKF. De posse dos modelos, do filtro e de seus respectivos parâmetros, foram gerados os resultados do analisador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente produção de resíduos sólidos urbanos e a escassez de áreas para uma destinação final tecnicamente adequada, via implantação de aterros sanitários, faz com que tome importância a técnica de tratamento de resíduos sólidos orgânicos através das compostagem/vermicompostagem. Nesta pesquisa, foi realizada a avaliação destes processos, tendo sido observadas principalmente a influência da aeração e da umidade no desempenho destas técnicas de tratamento, em leiras de pequenos e grandes volumes. Nos experimentos, com leiras de pequenos volumes, realizados no IPH (Instituto de Pesquisas Hidráulicas) da UFRGS, utilizou-se resíduos sólidos de poda (resíduos verdes, com alta concentração de carbono) codispostos (misturados em peso) com resíduos vegetais da CEASA (Companhia Estadual de Abastecimento Sociedade Anônima) e lodos provenientes de estações de tratamento de esgotos sanitários. Nos experimentos, com leiras de grandes volumes, realizados na UTC – Unidade de Triagem e Compostagem de Porto Alegre, utilizou-se resíduos orgânicos domiciliares codispostos com os mesmos resíduos utilizados nos primeiros experimentos. Paralelamente aos experimentos de compostagem, avaliou-se os lixiviados produzidos nos sistemas. Na compostagem de grandes volumes, também foi observado o desempenho de banhados construídos de fluxo subsuperficial para o tratamento desses efluentes líquidos. com teores de resíduos verdes menores que 35 %, o que se justifica pela maior concentração de resíduos de característica facilmente biodegradável e de maior palatabilidade para os vermes. Em todos os experimentos de compostagem, verificou-se que o controle efetivo do processo pode ser realizado através da avaliação sistemática das temperatura e umidade das leiras. Evidenciou-se também que para regiões de clima similar ao de Porto Alegre, com elevadas precipitações principalmente no inverno, é necessário adotar dimensões adequadas ao sistema de compostagem “windrow” para áreas descobertas. Comprovou-se também a necessidade de manutenção da umidade na faixa entre 50% e 70 %, inclusive com reposição desta, mesmo na situação de inverno. A avaliação dos lixiviados da compostagem demonstrou que, com os substratos utilizados nos experimentos, as concentrações de DBO5, DQO e de outras variáveis são elevadas ao início do processo de decomposição, devido à solubilização dos compostos orgânicos e inorgânicos presentes na matéria orgânica. Os lixiviados da compostagem possuem baixas concentrações de condutividade, DBO5, NH4 +, entre outros, quando comparados aos lixiviados de aterros sanitários. tratamento destes efluentes. Os resultados obtidos nos banhados construídos para baixas cargas hidráulicas (1cm/d) e concentrações de DBO5 do afluente abaixo de 150 mg/L apontaram uma eficiência média de remoção de 52,02%. No que se refere a nitrogênio (todas as formas), fósforo, metais, potencial redox e sólidos totais, as eficiências foram variáveis, com melhores resultados para nitrogênio amoniacal e fósforo. A compostagem pode ser considerada uma alternativa viável de tratamento de resíduos orgânicos, utilizando-se o processo “windrow” com revolvimento mecânico, mesmo em pátios descobertos em climas subtropicais. Neste caso, sugere-se que os lixiviados gerados nos primeiros dias de compostagem (30 dias aproximandamente) sejam recirculados e o excedente tratado em ETE. Pode-se, também, utilizar o sistema de banhados construídos como complementação, principalmente para a remoção de nitrogênio e fósforo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Peumus boldus Molina (Monimiaceae) é uma árvore comum e abundante no Chile, e suas folhas são amplamente empregadas pela medicina tradicional para o tratamento de uma variedade de afecções do sistema digestivo e hepatobiliar. Seus principais constituintes químicos são alcalóides do tipo aporfínicos, sendo a boldina seu maior e mais característico representante, cujas propriedades antioxidantes são extensivamente relatadas na literatura, servindo desta forma como marcador químico para a espécie. Com o objetivo de contribuir com parâmetros de controle de qualidade, um estudo botânico macro e microscópico das folhas e do pó da espécie foi realizado. Características morfológicas, identificadas pela análise macroscópica, como pilosidade, tipologia dos tricomas, proeminência ao redor da base dos tricomas e aparência do bordo, e características microscópicas como estômatos anomocíticos, folha hipoestomática e ocorrência de cristais de oxalato de cálcio denotam valor taxonômico. Parâmetros farmacopéicos como cinzas totais e perda por dessecação foram determinados, e um método de quantificação da boldina foi desenvolvido e validado utilizando a CLAE. O limite mínimo de boldina observado na análise de 10 amostras adquiridas foi de aproximadamente 0,016%. A fim de avaliarse o comportamento de seus constituintes químicos frente a variações de temperatura e umidade, realizou-se estudo de estabilidade acelerada (40ºC ± 2ºC / 75% ± 5% U.R.). A degradação máxima de boldina foi observada após 90 dias em câmara climática chegando a aproximadamente 52%. A reação de degradação sugerida foi de segunda ordem, e o tempo de vida útil e meia-vida calculados foram de aproximadamente 18 dias e 165 dias, respectivamente. Por fim, realizou-se a quantificação de alguns metais pesados nas folhas da espécie, que decresceram na ordem de Fe> Mn> Cu> Ni, sendo que Pb, Cr e Co tiveram níveis abaixo do limite de detecção de 5 μg/g.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cloridrato de epinastina é um agente não sedativo, antagonista H1 da histamina, utilizado no tratamento da asma ou como anti-histamínico, comercializado no Brasil na forma farmacêutica comprimido revestido com o nome de Talerc ®. Embora, seja um medicamento amplamente comercializado não há referências relativas aos métodos de análise da forma farmacêutica. Este trabalho teve como objetivos o desenvolvimento e a validação de métodos analíticos para o controle de qualidade do cloridrato de epinastina nos comprimidos revestidos, bem como a realização de estudos preliminares de estabilidade térmica e de fotoestabilidade e determinação da cinética de reação do anti-histamínico em estudo.A análise qualitativa do cloridrato de epinastina foi realizada por ressonância magnética nuclear de próto n, determinação da faixa de fusão, espectrofotometria na região do infravermelho e do ultravioleta, cromatografia em camada delgada e por cromatografia a líquido de alta eficiência. Para análise quantitativa, foram validados os métodos por espectrofotometria na região do ultravioleta derivada de primeira ordem e por cromatografia a líquido de alta eficiência. A validação foi efetuada de acordo com as guias de validação disponíveis na literatura. No estudo preliminar de estabilidade térmica utilizou-se a forma farmacêutica submetida a temperatura de 80 °C por 10 dias. A fotoestabilidade foi realizada em câmara de luz ultravioleta de 254 nm por um período de 18 horas. Os métodos qualitativos foram úteis para identificação do cloridrato de epinastina. Os métodos quantitativos propostos foram validados de acordo com os parâmetros analíticos preconizados, podendo ser perfeitamente intercambiáveis. O estudo preliminar de estabilidade térmica não apresentou degradação da amostra nas condições de análise empregadas. O estudo de fotoestabilidade apresentou degradação intensa obedecendo uma cinética de reação de primeira ordem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para onde quer que se olhe, as perspectivas para a economia brasileira neste começo de ano são preocupantes. De fato, desde a edição anterior deste Boletim, em março, não se registrou nenhum fato econômico novo positivo. Pelo contrário, se acumularam novidades negativas, como o rebaixamento do crédito soberano do país pela S&P e uma piora nas condições de suprimento de energia elétrica — com custos crescentes e incertos para consumidores finais, empresas distribuidoras de energia e contas públicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tomada de decisão estratégica é um tema utilizado ao longo dos anos para auxiliar homens e mulheres, principalmente nas organizações, a pensarem de forma estruturada sobre como decidir e quais raciocínios adotarem nestes momentos. Com o ingresso da mulher no mercado de trabalho, a teoria de tomada de decisão se expandiu para analisar não apenas os processos de tomada de decisão em si, mas também comportamentos utilizados por homens e mulheres nestes momentos. O objetivo principal deste estudo foi investigar o que as teorias de tomada de decisão por gênero mencionam e verificar se estas teorias se relacionam com a realidade de homens e mulheres que se encontram em posições de gerência e diretoria e, com base nisto, confrontar se estas teorias se confirmam quando homens e mulheres se encontram em posições de alta gestão. Além disto, buscou-se investigar também se a teoria sobre empowerment possui alguma relação com as teorias de tomada de tomada de decisão por gênero, bem como se o nível de empowerment entregue para gerentes e diretores nas organizações influencia as características de tomada de decisão utilizadas por estes homens e mulheres. Para tanto, foi realizada uma pesquisa semiestruturada com vinte e quatro profissionais em posições de gerência e diretoria, de empresas localizadas no Estado do Rio de Janeiro. Como resultado, a pesquisa concluiu que a maneira como homens e mulheres tomam decisões estratégicas nas organizações não têm relação direta com as teorias de tomada de decisão por gênero quando estes se encontram em posições de gerência e diretoria, todavia, a maneira como homens e mulheres de alta gestão decidem possui uma relação íntima com o nível de empowerment que os mesmos possuem dentro das empresas que atuam.