52 resultados para Precisão do teste


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho tem por objetivo mostrar uma técnica de depuração de circuitos integrados VLSI, utilizando um microscópio eletrônico de varredura (MEV) aliado ao fenômeno de contraste por tensão. São abordadas a descrição da ferramenta, técnicas de observação e depuração dos circuitos, bem como, são sugeridas estratégias de concepção visando facilitar a depuração dos circuitos. Embora tenham sido utilizados circuitos NMOS para realizar as experiências, a técnica é aplicável a circuitos MOS em geral. Resultados experimentais, utilizando circuitos projetados no PGCC, são apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A atividade de teste constitui uma fase de grande importância no processo de desenvolvimento de software, tendo como objetivo garantir um alto grau de confiabilidade nos produtos desenvolvidos. O paradigma da Orientação a Objetos (OO) surgiu com o objetivo de melhorar a qualidade bem como a produtividade no desenvolvimento de aplicações. Entretanto, apesar do aumento constante de aceitação do paradigma OO pela indústria de software, a presença de algumas de suas características torna a atividade de teste de programas neste paradigma mais complexa do que o teste de sistemas tradicionais. Entre estas características cita-se a herança, o encapsulamento, o polimorfismo e a ligação dinâmica [EIS 97] [PRE 95] [UNG 97]. Algumas técnicas estão sendo implementadas para auxiliarem a atividade de teste através do uso da tecnologia de reflexão computacional [HER 99]. Estas técnicas permitem a realização de análises de aspectos dinâmicos dos programas, sem a necessidade de instrumentar o código-fonte das aplicações que estão sendo monitoradas. Com o objetivo de auxiliar o processo de teste de programas orientados a objetos, este trabalho aborda o desenvolvimento de uma ferramenta, a qual automatiza parcialmente o teste de programas escritos em Java. A ferramenta evidencia o teste de estados fazendo uso da tecnologia de reflexão computacional. Através da especificação de asserções, feitas pelo usuário da ferramenta, na forma de invariantes de classe, pré e pós-condições de métodos, é possível verificar a integridade dos estados dos objetos durante a execução do programa em teste. A ferramenta possibilita também, armazenar a seqüência de métodos chamados pelos objetos da aplicação em teste, tornando possível ao testador, visualizar o histórico das interações entre os objetos criados no nível-base.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo, implementação e simulação de geradores de sinais analógicos usando-se circuitos digitais, em forma de CORE, integrando-se este com o microprocessador Risco. As principais características procuradas no gerador de sinais são: facilidade de implementação em silício, programabilidade tanto em freqüência quanto em amplitude, qualidade do sinal e facilidade de integração com um microprocessador genérico. Foi feito um estudo sobre a geração convencional de sinais analógicos, dando-se ênfase em alguns tipos específicos de circuitos como circuitos osciladores sintonizados, multivibradores, geradores de sinais triangulares e síntese de freqüência digital direta. Foi feito também um estudo sobre conversão digital-analógica, onde foram mostrados alguns tipos básicos de conversores D/A. Além disso foram abordadas questões como a precisão desses conversores, tipos digitais de conversores digitalanalógico, circuitos geradores de sinais e as fontes mais comuns de erros na conversão D/A. Dando-se ênfase a um tipo específico de conversor D/A, o qual foi utilizado nesse trabalho, abordou-se a questão da conversão sigma-delta, concentrando-se principalmente no ciclo de formatação de ruído. Dentro desse assunto foram abordados o laço sigma-delta, as estruturas de realimentação do erro, estruturas em cascata, e também o laço quantizador. Foram abordados vários circuitos digitais capazes de gerar sinais analógicos, principalmente senóides. Além de geradores de senóides simples, também se abordou a geração de sinais multi-tom, geração de outros tipos de sinais baseando-se no gerador de senóides e também foi apresentado um gerador de funções. Foram mostradas implementações e resultados dessas. Iniciando-se pelo microprocessador Risco, depois o gerador de sinais, o teste deste, a integração do microprocessador com o gerador de sinais e finalmente a implementação standard-cell do leiaute desse sistema. Por fim foram apresentadas conclusões, comentários e sugestões de trabalhos futuros baseando-se no que foi visto e implementado nesse trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A avaliação do potencial genotóxico é um importante índice da ação do homem sobre os corpos d’água, complementando os critérios legalmente exigidos na avaliação da qualidade de águas. A bacia do Lago Guaíba é a mais importante do Rio Grande do Sul em termos sócio- econômicos, concentrando em suas margens mais da metade da população e 86% da produção do estado. Esse estudo avaliou o potencial mutagênico de amostras não concentradas das águas superficiais dos rios que compõem a bacia hidrográfica do Guaíba, e do próprio Lago Guaíba, pelo ensaio Salmonella/Microssoma. Paralelamente foi analisada a presença de hidrocarbonetos aromáticos policíclicos (criseno e benzo[a]pireno), de pesticidas (pentaclorofenol, organofosforados e carbamatos), e de elementos inorgânicos, buscando uma possível correlação desses com os efeitos mutagênicos encontrados. As amostras apresentaram fraca atividade mutagênica, sendo detectado um único resultado positivo frente a linhagem TA98, na presença de ativação metabólica em águas coletadas no lago Guaíba próximo a um local de liberação de efluente urbano Foram ainda observados cinco indícios de mutagenicidade, indicando a provável presença de compostos de ação indireta sobre o DNA, que causam mutações do tipo substituição nos pares de bases (detectado pela TA100). Os efeitos tóxicos encontrados foram igualmente pouco intensos, podendo estarem relacionados à presença de elementos inorgânicos detectados acima dos limites permitidos pela resolução número 20 do CONAMA. Além disso, observou-se influência sazonal sobre a resposta mutagênica das amostras de água da bacia do Lago Guaíba. Os resultados nos levam a concluir que os rios que formam a Bacia do Guaíba contribuem com uma parte muito pequena da atividade genotóxica das águas do Lago Guaíba, sendo o grande problema a contaminação por esgoto urbano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: A histamina exerce vários efeitos no desempenho cardíaco em humanos, os quais são mediados por receptores H1e H2. A ocorrência de bradicardia e distúrbio da condução atrioventricular tem sido descrita após a injeção intravenosa de cimetidina ou ranitidina, porém ainda não foi avaliado seu potencial efeito na resposta cronotrópica ao exercício com suas implicações sobre o valor prognóstico e diagnóstico do teste de esforço Objetivo: Testar a hipótese, através de ensaio clinico randomizado, de que a administração de cimetidina altera a resposta cronotrópica ao exercício. Material e Métodos: Foram submetidos a dois testes cardiopulmonares, 20 indivíduos, após uso de placebo e de cimetidina. Os testes foram realizados em esteira rolante, com protocolo de rampa com analises diretas dos gases expirados. Foi avaliada freqüência cardíaca máxima atingida, além da freqüência cardíaca de repouso e no limiar anaeróbio. Resultados: Os indivíduos estudados estavam igualmente distribuídos por sexo, com idade média (± desvio padrão) de 43 ±11 anos. Os exames com placebo e com cimetidina tiveram igual duração (578 ± 90 seg vs 603 ± 131 seg) e igual VO2 pico (35 ± 8 ml/Kg.min vs 35 ± 8 ml/Kg.min). A administração de cimetidina não apresentou efeito significativo na freqüência cardíaca de repouso (75 ± 10 vs 74 ± 8 bpm), no pico do esforço (176 ± 12 vs176±11 bpm) e, da mesma forma, também não houve diferença entre as freqüências cardíacas de pico e de repouso (101 ± 14 vs101 ± 13 bpm). Conclusão: A administração de cimetidina por sete dias não altera a resposta cronotrópica ao exercício.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos principais fatores que determinam o baixo desempenho das avaliações está relacionado à omissão de importantes atributos nos processos avaliatórios. A seleção de bens comparáveis ao imóvel avaliando e o reconhecimento das variáveis que devem participar do modelo avaliatório são fatores determinantes no resultado das avaliações. Falhas na interpretação destes aspectos, bem como o limitado conhecimento quanto à forma de interação dos atributos na formação do valor dos imóveis, tendem a gerar distorções nas estimativas de valor obtidas. Para minimizar os erros e reduzir a imprecisão dos trabalhos, é imprescindível saber quais atributos contribuem para a formação do valor dos imóveis. O presente trabalho objetiva aumentar a compreensão dos atributos que influenciam a decisão de compra dos apartamentos residenciais através da análise das preferências dos consumidores. O estudo visa verificar se parte da imprecisão dos trabalhos avaliatórios é causada pelo desconhecimento parcial destes atributos por parte dos avaliadores Para tanto, realizou-se uma pesquisa de caráter exploratório, cujos instrumentos de levantamento de dados são questionários, aplicados para verificar e comparar a importância atribuída a um extenso número de atributos por dois grupos distintos, formados por avaliadores de imóveis e compradores. Os resultados obtidos indicam que os atributos usualmente empregados na prática avaliatória não são, em sua grande maioria, aqueles que influenciam a decisão de compra no processo de aquisição dos imóveis. Além disso, apesar de existir coerência na interpretação dos avaliadores sobre a contribuição de uma série de atributos para a formação do valor de mercado dos imóveis, foram identificadas distorções na forma como estes profissionais percebem a importância de alguns atributos, havendo, por exemplo, uma supervalorização de aspectos relativos à localização e segurança Por outro lado, os avaliadores não distinguem a elevada influência de alguns atributos no processo de decisão de compra, tais como existência de elevador e gás central, áreas de serviço maiores e idoneidade da empresa que construiu o imóvel. Embora o trabalho não apresente resultados plenamente conclusivos neste sentido, pode-se dizer que há um forte indicativo de que o nível de imprecisão das avaliações imobiliárias possa ser reduzido através de uma maior compreensão das preferências dos consumidores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A prática do jornalismo é afetada, desde o início, pelo aumento da velocidade de produção e veiculação das informações. O fenômeno se aprofunda com a introdução da Internet em escala comercial e a implantação dos webjornais no final do século XX. Esta pesquisa observa a relação entre velocidade e precisão no webjornalismo, tomando como objeto empírico o site UOL Eleições 2002. Fazemos o mapeamento dos erros cometidos entre 02 e 07 de outubro de 2002, período de grande relevância por ser o final do primeiro turno das eleições presidenciais no Brasil. Os erros, classificados como ruídos de linguagem e imprecisão jornalística, embora variáveis na escala de gravidade, comprometem a qualidade da informação e, conseqüentemente, o eixo de sustentação da credibilidade do jornalismo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A preocupação com os ciclos econômicos induzidos por eleições não é meramente uma curiosidade científica. Já se pode dizer que há consenso na literatura que um comportamento ciclicamente endógeno da política econômica contribui para a volatilidade nos países latinoamericanos, de modo que isto tem efeitos significativamente prejudiciais sobre o desenvolvimento destes países. Em particular o ciclo na política fiscal, não estando associado à tentativa de compensar o ciclo econômico, mas sincronizado com o calendário eleitoral leva a uma alocação intertemporal ineficiente dos recursos. Pela importância do ciclo e pela investigação empírica da teoria no país, ao longo deste trabalho, buscou-se avançar na agenda de pesquisa sobre ciclo político no Brasil. Aqui se procurou cobrir a área referente aos efeitos de políticas oportunistas de caráter eleitoral sobre a execução orçamentária nos estados brasileiros. Investigou-se a existência de ciclos eleitorais nas variáveis orçamentárias, visando fornecer uma idéia minimamente clara do comportamento destas ao longo dos mandatos e identificar como algumas características políticoeleitorais dos estados poderiam afetar as receitas e despesas públicas. Para tanto se utilizou um modelo de painel dinâmico, que permitiu que se analisasse uma amostra na sua dimensão temporal capaz de abranger o período 1983-2000. Os resultados da estimação acabaram confirmando de maneira contundente as suposições teóricas, e mesmo do senso comum, que se tinha em relação ao ciclo político nas variáveis orçamentárias. Para a maioria absoluta das variáveis analisadas não se pode negar a existência de um efeito do período eleitoral sobre o seu comportamento, sendo que para aquelas associadas à despesa pública e ao resultado orçamentário, o comportamento no ano eleitoral em particular, confirmou o sugerido pela teoria e pelos resultados de outros trabalhos aplicados a países em desenvolvimento, desenvolvidos e mesmo para Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A confiabilidade de sistemas de processamento digital de sinais é, entre tantos fatores, diretamente proporcional à confiabilidade dos conversores analógico-digitais neles presentes para serem usados como interface com o mundo real. Este trabalho propõe um método novo de teste de conversores analógico-digitais baseado em ruído. O método proposto possibilita a detecção de falhas nos conversores em teste. Além disto, a técnica proposta é capaz de estimar simultaneamente características estáticas e dinâmicas tornando-se, portanto, inovador em relação aos demais métodos presentes na literatura. A proposta, a simulação e a implementação do método são apresentadas ao longo desta dissertação. A comparação dos resultados obtidos com um método padrão de teste de ADCs, o método do histograma, comprovam a eficácia do método.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A performance esportiva de jogadores de futebol pode ser afetada por diversos fatores como a qualidade técnica individual, o nível de condicionamento físico, a motivação, o treinamento, o adversário, o clima e as condições da superfície de jogo. Neste estudo, 20 jogadores da categoria sub-20 (idade média 18,6 anos ± 0,94) foram submetidos a um teste progressivo para investigar a influência da umidade do gramado sobre alguns aspectos do rendimento físico. Os resultados mostraram uma diminuição na duração do teste sobre o gramado molhado, comparado ao resultado do teste sobre o gramado seco. Os parâmetros das freqüências cardíacas e as concentrações finais de lactato sangüíneo foram semelhantes nas situações de gramado seco e de gramado molhado. Entretanto, a percepção subjetiva ao esforço apresentou resultados mais acentuados a partir da segunda metade do teste progressivo sobre o gramado molhado. A umidade do gramado pareceu ter modificado a eficiência mecânica da corrida o que pode ter acelerado a instalação do processo de fadiga nos jogadores investigados.