905 resultados para Métodos de mensuração de desempenho
Resumo:
O primeiro capítulo desta tese tem por objetivo classificar as várias abordagens sobre produtividade, de tal sorte que se tenha uma idéia mais detalhada das metodologias que embasam as diferentes análises empíricas. O segundo capítulo trata de identificar, dentre as várias abordagens disponíveis, aquelas de uso mais freqüente na mensuração da produtividade agregada e comparar resultados, vantagens e desvantagens metodológicas, procurando evitar comparações inadequadas entre metodologias muito díspares. Uma conclusão a que se chega nesse ponto do trabalho é a de que os métodos que pressupõem eficiência técnica e alocativa não dão conta de esclarecer as razões econômicas por trás das diferenças de produtividade entre nações. Os métodos que relaxam a hipótese de eficiência, chamados de métodos de fronteiras de produção, têm o mérito de separar os efeitos do progresso técnico dos ganhos de eficiência técnica, estes últimos freqüentemente interpretados como difusão tecnológica e aprendizado – isto é, como um efeito de alcance. Em razão disso, parecem ser adequados para discutir várias das questões levantadas na literatura de crescimento econômico. No capítulo três, apresenta-se uma alternativa pouco explorada na literatura de crescimento econômico para mensuração da produtividade usando fronteiras estocásticas de produção. Essa abordagem permite uma posterior decomposição das variações da produtividade em partes que apresentam interpretação econômica intuitiva. O capítulo quatro usa as estimativas obtidas no capítulo anterior para efetuar a decomposição da taxa de crescimento da produtividade da forma mais detalhada que o estado das artes parece permitir. Isso é feito para um subconjunto de países da amostra (por questões de disponibilidade de dados) que ainda assim mantém um razoável grau de heterogeneidade. Os resultados permitem, então, que se avalie as contribuições da acumulação de fatores, da produtividade (como um todo) e de seus componentes no comportamento da taxa de crescimento do produto por trabalhador. O trabalho desenvolvido nos capítulos anteriores permite, por fim, que se trace algumas conclusões. De forma geral, a mais importante conclusão do trabalho é a de que a eficiência alocativa importa, e muito, para o estudo comparativo do desempenho econômico das nações. As diferenças de padrão de vida medido pelo produto por trabalhador entre grupos de países (desenvolvidos e em desenvolvimento) guardam grande relação com as diferenças de produtividade nesses países. O progresso técnico, juntamente com a eficiência técnica são os principais responsáveis pela variação dessa produtividade. Nos países em desenvolvimento o efeito da eficiência alocativa é ainda mais importante e contribui fortemente para redução da produtividade. A eficiência alocativa é ainda o componente da produtividade de maior peso na explicação das diferenças entre países ricos e pobres quanto à evolução do produto por trabalhador. Os resultados revelam ainda um efeito de alcance da fronteira (variações na eficiência técnica) que ocorre tanto para países em desenvolvimento quanto para os desenvolvidos.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
O objetivo deste trabalho é avaliar o desempenho de diferentes métodos de extração da volatilidade do Índice da Bolsa de Valores de São Paulo (IBOVESPA) tendo como referência a volatilidade realizada. Comparamos modelos da família GARCH com estimadores alternativos baseados em cotações de abertura, fechamento, máximo e mínimo. Os resultados indicam que os estimadores alternativos são tão precisos quanto os modelos do tipo GARCH, apesar de serem muito mais econômicos em termos computacionais.
Resumo:
A sociedade pós-moderna introduziu elementos de complexidade e turbulência em todos os domínios da existência humana. No cotidiano laboral, há um incessante crescimento do número de fatores tensionantes e potencializadores de rupturas e sofrimento. No contexto comercial, a despeito da maior disponibilidade de produtos com maior qualidade e ofertados numa gama crescente de canais de vendas, as experiências de consumo estão se degradando e os incidentes, nas intermediações mercadológicas, aumentando. O vendedor, ator coadjuvante e imprescindível destas relações, enfrenta em escala crescente, adversidades que dificultam o exercício da sua atividade. Desta forma, com a perspectiva do consumo como um processo de resolução de problemas, investigamos qual seria a competência essencial do vendedor para lidar com conflitos, atender aos anseios dos clientes com a plena satisfação de suas necessidades, e assim, maximizar a eficiência e eficácia da organização. Por razões que serão delineadas neste relatório, capturamos o atributo da resiliência, aplicando um dos atuais mecanismos de mensuração - o Quociente de Adversidade (QA). Do confronto de inúmeros conceitos, adotamos que resiliência é a capacidade de o indivíduo lidar com problemas, superar obstáculos ou resistir à pressão de situações adversas, aperfeiçoandose com as experiências vivenciadas. Desta forma, munidos com o QA de 99 consultores de vendas de automóveis da cidade do Rio de Janeiro, verificamos, através de regressões múltiplas, a sua correlação com a média do volume de vendas mensal e com a avaliação funcional realizada por seus supervisores diretos. Encontramos positiva correlação com duas das dimensões do QA, controle e resistência, indicando que a medição do quociente de adversidade pode contribuir com a análise dos candidatos durante a fase de seleção de novos funcionários e o seu incremento pode melhorar a qualidade de vida dos empregados, melhorar o clima organizacional, aumentar a eficiência das negociações mercadológicas e assim estabelecer uma notável vantagem estratégica organizacional
Resumo:
No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.
Resumo:
A vantagem competitiva é tema central do campo de estratégia, a principal hipótese para explicar a heterogeneidade do desempenho entre as empresas. No entanto, a vantagem competitiva é frequentemente empregada como um termo auto-explicativo, fonte de diferentes interpretações teóricas e tratada empiricamente como rentabilidade superior. Tais aspectos que trazem suspeitas e indagações sobre a robustez do construto. Sob este prisma, este trabalho desenvolve uma análise teórica e empírica sobre a vantagem competitiva, suas definições e perspectivas de análise, sua relação e seus efeitos sobre o desempenho organizacional. A partir de uma pesquisa conceitual, a vantagem competitiva é primeiramente definida como criação de valor. Nas fronteiras da criação de valor está a capacidade de desenvolvimento de recursos e de superação dos concorrentes. Nas interfaces com parceiros econômicos e stakeholders, a criação de valor traz diferentes implicações para o desempenho organizacional, isto é impactos financeiros, operacionais e para a eficácia organizacional. O estudo destas interfaces provê o desenvolvimento de um modelo multinível para a mensuração da vantagem competitiva por meio dos seus efeitos no desempenho financeiro, uma combinação das curvas de lucratividade e de crescimento de mercado pelas empresas. O modelo é aplicado a amostras de empresas americanas (COMPUSTAT), em quatro intervalos de tempo ao longo do período de 1990 a 2009. Os resultados permitem identificar a existência de vantagem competitiva em diferentes setores, e a estabilidade da sua manifestação ao longo dos 20 anos observados. A análise dos resultados também permite verificar a dinâmica da competitividade e a capacidade de manter a vantagem competitiva no tempo. Por fim, o estudo das empresas longevas traz nova perspectiva sobre o desempenho no tempo e a sobrevivência das organizações.
Resumo:
Os acidentes viários são apontados como uma das principais causas de morte no mundo. Visando minimizar os impactos negativos destes acidentes na sociedade, organizações do setor público, privado e do Terceiro Setor realizam ações voltadas para a melhoria das condições de segurança, seja por introdução de programas de fiscalização, de conscientização e educação populacional ou por soluções de engenharia aplicadas a vias e veículos. Porém, não se pode determinar com precisão o impacto dos efeitos derivados destas ações. A mensuração destes efeitos pode ser feita através de medidas de avaliação de desempenho. Este trabalho se propõe a explicitar a forma como os indicadores de desempenho inserem-se no processo de gerenciamento da segurança viária e aplicar estes conhecimentos a um estudo de caso. Para atingir este objetivo, a pesquisa é composta por duas etapas. A primeira é constituída por um estudo exploratório, no qual se analisa o processo de implementação de sistemas de avaliação de desempenho e a forma como estes se inserem no contexto da segurança viária. A segunda etapa consta da análise das ações de uma organização não governamental de segurança viária, no caso a Fundação Thiago de Moraes Gonzaga, e da proposição de indicadores de desempenho para mensurar o alcance dos seus objetivos. A principal contribuição deste trabalho está pautada na determinação dos critérios e procedimentos para a concepção de indicadores de segurança viária.
Resumo:
O objetivo essencial da presente tese de doutorado é reunir, em um só trabalho, uma perspectiva sobre a evolução dos estudos sobre corrupção na literatura. Ao abordar a questão de mensuração, e os impactos de características das políticas públicas, de características institucionais dos municípios e de programas de capacitação de agentes públicos sobre a incidência de corrupção, busco apresentar, através de exame e observação minuciosos, um retrato sobre a questão no Brasil. Os resultados obtidos me permitem conjecturar sobre algumas questões. Primeiramente, a mensuração da corrupção é imprescindível para que se possam desenhar políticas públicas eficazes e menos sujeitas às práticas corruptas. Em segundo lugar, destaco a necessidade de se buscar associações entre as características de desenho das políticas públicas, características municipais e o fenômeno da corrupção. Dessa forma, mesmo que não sejam identificadas relações causais claras, a indicação de algum grau de correlação entre essas características e a incidência da corrupção pode auxiliar os agentes públicos no desempenho de suas funções e na proposição de políticas públicas menos suscetíveis à ocorrência de fraudes. Finalmente, evidencio a manifesta relação entre a capacitação de agentes públicos e a incidência de corrupção: de acordo com os resultados aqui obtidos, capacitar agentes da administração pública, no que tange a legislação e a conformidade na aplicação de recursos públicos, produz efeitos positivos sobre a gestão pública, com impacto direto sobre o número de constatações associadas à corrupção. De posse de todos esses resultados, espero estimular pesquisas ainda mais detalhadas acerca do fenômeno da corrupção no Brasil, idealmente contribuindo para que a gestão de recursos públicos no país se torne cada vez mais alinhada aos objetivos de desenvolvimento econômico e social.
Resumo:
O experimento foi conduzido no município de Cachoeira do Sul de out/2001 a out/2002, objetivando avaliar a dinâmica vegetacional e o desempenho animal (31/05/02 a 16/09/02), em uma pastagem nativa submetida a diferentes métodos de controle de plantas indesejáveis. O local corresponde à região fisiográfica denominada Serra do Sudeste, com predominância das espécies Paspalum notatum (grama forquilha), Andropogon lateralis (capim caninha), além de Arachis burkartii e Desmodium incanum. Como plantas classificadas como indesejáveis encontram-se Baccharis trimera (carqueja), Vernonia nudiflora (alecrim) e Psidium luridum (araçá do campo). O delineamento experimental utilizado foi um fatorial em blocos (4 x 2), com duas repetições de campo. Os tratamentos foram os seguintes: testemunha (T); roçada de primavera (P); roçada de primavera + outono (O) e roçada de primavera + controle químico (Q), todos em duas ofertas de forragem, média (8%) e alta (14%). Os animais testes foram três novilhas por repetição, mantidas em pastejo contínuo com lotação variável. A massa de forragem foi obtida através de avaliações visuais usando padrões de referência, o acúmulo de forragem através do uso de gaiolas de exclusão e a composição botânica pelo método do ponto. Avaliaram-se os parâmetros de desempenho individual, carga animal, ganho de peso vivo por área e a dinâmica vegetacional. Os dados foram submetidos a análise de variância através do pacote estatístico SAS. O nível alto de oferta permitiu uma menor perda de peso vivo por área. Os tratamentos P e Q proporcionaram um melhor desempenho individual e menor perda de peso vivo por área, quando comparados a T. Os tratamentos P, O e Q foram eficientes no controle de Baccharis trimera. A. burkartii e Eriyngium horridum foram incrementados pela média intensidade de pastejo. Aristida laevis teve sua participação aumentada pela interação tratamento Q e baixa intensidade de pastejo.
Resumo:
O objetivo central desta pesquisa foi o de explorar, descrever e discutir de que forma e em que extensão as empresas se utilizam das informações contábeis tratadas por mecanismos que considerem os reflexos das variações no poder aquisitivo da moeda (Inflação) e das flutuações específicas de preços sobre os resultado e patrimônio empresarial, nos seus sistemas de controles internos e, consequentemente, em seus processos de tomada de decisão, avaliação de desempenho e fixação de tendências para o empreendimento. Em função dos objetivos propostos, a operacionalização desta pesquisa foi desenvolvida em duas etapas. A primeira fase, de caráter qualitativo, constituiu-se no levantamento dos dados básicos necessários ao atingimento dos objetivos desejados, através da aplicação de questionários em 12 (doze) empresas. Através dos dados levantados, foi possível inferir-se que o sistema contábil configura-se na base primária dos relatórios gerenciais das empresas pesquisadas. o modelo da Correção Integral teve sua validade conceitual confirmada, não obstante algumas simpliflcações metodológicas adotadas e o problema da lnadequacidade do padrão monetário utilizado principalmente em 1990. Em que pese ter havido consenso na indicação das distorções provocadas pelo problema do indexador, apenas duas empresas adotaram mecanismos tendentes a anular seus efeitos. Uma importante constatação também, foi o fato de que nas empresas em que se utilizavam sistemas contábeis baseados na metodologia da Lei Societária, como fonte primária, para geração de relatórios gerenciais, as suas adminlstrações não utilizavam tais relatórios como suporte aos seus processos de tomada de decisão, como por exemplo, no processo de estabelecimento de preços. Ressalte-se, também, que o pouco conhecimento da filosofia conceitual e vantagens informativas do modelo da Contabilidade a Custo Corrente Corrigido, tem impedido a sua implantação de forma mais ampla. Saliente-se que 60% das empresas da amostra já se utilizam de mecanismos de avaliação de ativos não monetários, com base em valores correntes (captaçao dos efeitos das flutuações especificas de preços), só que restritos aos itens circulantes (estoques) . Este é, certamente, o caminho para a aplicação plena do modelo, principalmente no âmbito gerencial. A segunda fase, cujo enfoque direcionou-se aos aspectos quantitativos, através do cálculo de indicadores econômicos-financeiros extraídos das demonstrações contábeis das empresas pesquisadas, relativos ao exercício de 1990, e elaborados em consonân ia com as metodologias da Correção Integral e da Lei Societária, buscou-se , mediante análise comparativa, avaliar as pricipais distorções encolvidas, que corroboram, de certa forma, os comentários feitos no parágrafo anterior. A natureza exploratória deste assunto, com deslocamento da ênfase da análise quantitativa, e com enfoque estritamente gerencial, é que o diferencia dos demais desenvolvidos em tempos recentes. Além disso, apresenta como caraterística acessória a busca por informações sugestivas para o desenvolvimento de pesquisas futuras.
Resumo:
A presente investigação teve como objetivo responder a questão de como ocorre a criação de valor em uma díade, investigando como os mecanismos de governança atuam sobre o valor criado, como esse fenômeno ocorre ao longo do tempo e testando a aplicabilidade do modelo derivado da noção de valor econômico (BRANDENBURGER; STUART, 1996) para medir o valor criado em díades. Também foram testados os impactos das fontes de vantagem relacional segundo a perspectiva da visão relacional sobre o valor criado para as organizações envolvidas. Ao integrar a literatura sobre relacionamentos do campo de Operações e Cadeias de Suprimentos com o debate sobre criação de valor e vantagem competitiva nas áreas de Estratégia e Marketing, a pesquisa propôs um modelo integrativo para se avaliar a criação de valor em relacionamentos e seu desenvolvimento ao longo do tempo. As principais correntes teóricas usadas foram a Teoria de Custo de Transação, a Visão Relacional da estratégia e Teoria das Transações Sociais. A pesquisa empírica qualitativa, tomando um caráter dedutivo (BARRATT; CHOI, 2011), com entrevistas com 28 gestores responsáveis pelos relacionamentos em díades dos setores de Alimentos e Bebidas (A&B) e Higiene Pessoal, Perfumaria e Cosméticos (HPPEC), tanto em empresas compradoras como fornecedoras, forneceu evidências de que, nos segmentos investigados, os fornecedores adotam um comportamento mais propenso a colaboração do que as empresas compradoras, mas que esse comprometimento não é garantia de exclusividade ou aumento de participação na relação e que mecanismos de governança relacional são mais comuns em situações que envolvem riscos para as empresas compradoras e quando há assimetria de tamanho e poder entre as partes. As entrevistas forneceram evidências que o modelo de valor econômico de Brandenburger e Stuart (1996) pode ser usado para avaliar o valor criado nos relacionamentos, considerando-se a diferença entre disposição a pagar da empresa compradora e o custo de oportunidade do fornecedor. Adicionalmente, os resultados sugerem que a avaliação dos ganhos em relacionamentos deve ser feita longitudinalmente, visto que há alternância de ganhos entre as partes. Por fim, a etapa qualitativa permitiu identificar três tipos distintos de criação de valor em díades: valor situacional, incremental e relacional. Em paralelo, foi testado um modelo para avaliar a influência das quatro fontes de vantagem relacional no valor criado para empresas compradoras e fornecedores, com base em 76 respostas de empresas fornecedoras. A análise dos modelos de mensuração sugere que os construtos de mecanismos de governança relacional e complementaridade de recursos podem ser agrupados em uma variável latente representando o alinhamento intraorganizacional - fit (CHEUG; MYERS; MENTZER, 2010; SAXTON, 1997). O modelo de mensuração para valor criado, representado por cinco dimensões de primeira ordem, denominadas benefícios para a relação, benefícios para o fornecedor, benefícios para o comprador, custos de troca para a empresa compradora e custos de oportunidade para o fornecedor se mostrou adequado e com bons ajustes. A partir dos modelos validados, as relações causais entre os recursos relacionais e as várias formas de operacionalizar valor foram testadas, utilizando-se regressão linear múltipla. Os resultados forneceram indícios de que diferentes fontes da vantagem relacional têm impacto sobre distintos aspectos do valor criado. Enquanto o alinhamento interorganizacional explica a variação de benefícios para o fornecedor e para o comprador, é o compartilhamento de conhecimento que influencia o benefício para a relação. A especificidade de ativos tem impacto no custo de oportunidade para o fornecedor, enquanto o custo de troca para o comprador não é afetado por esses mecanismos nessa situação. A análise de agrupamentos permitiu ainda constatar a existência de dois grupos distintos entre os respondentes: díades relacionais e díades não relacionais, sendo que o primeiro apresenta desempenho significativamente diferente do outro.
Resumo:
Neste trabalho analisamos o efeito da contratação de sistemas de ensino para métodos estruturados sobre a evolução e dispersão do desempenho dos alunos das escolas públicas municipais do estado de São Paulo. O objetivo da análise é avaliar se os métodos estruturados de ensino, além de aumentar o desempenho médio dos alunos nos municípios contratantes, também servem com meio para homogeneizar a nota dos alunos em um nível mais elevado. Para este fim utilizamos os dados dos exames de português e matemática dos anos de 2005, 2007 e 2009 da Prova Brasil e, pelo método de estimação de diferenças em diferenças com, efeito fixo por município, avaliamos o incremento no desempenho médio e no desvio padrão do desempenho dos municípios devido à posse de contrato para método estruturado em relação àqueles que não o possuem. Os resultados obtidos revelaram que os métodos estruturados de ensino contribuem para o aumento do desempenho médio dos municípios, e que não foi observado benefício diferenciado a alunos com maior ou menor desempenho inicial. Sobre o efeito da contratação de sistemas de ensino sobre o desvio padrão do desempenho, os resultados não apresentaram robustez suficiente que nos permitissem afirmar que os métodos contribuem para a homogeneização do desempenho.
Resumo:
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.