19 resultados para Sistema de visão computacional

em Universidade Federal do Pará


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Amazônia Tradicional abrange uma área geograficamente considerável da região amazônica. Com o intuito de conhecer melhor essa outra realidade amazônica, o objetivo da pesquisa consistiu em compreender o papel da Produção Familiar na dinâmica do Sistema Agrário da margem esquerda do Baixo Amazonas, tomando como exemplo os municípios de Monte Alegre e Alenquer, considerados representativos da Amazônia tradicional. Ao longo dos anos essa região vêm sofrendo transformações significativas, cujos efeitos colocam em dúvida a sustentabilidade econômica dos sistemas de produção praticados nesse espaço. Mediante essas constatações pretendeu-se verificar se os sistemas de produção tradicionais são viáveis nas condições sócio-econômicas em que a sociedade amazônica está envolvida atualmente. O enfoque de sistema agrário ofereceu uma visão ampla da região e permitiu conhecer melhor a realidade e a sociedade agrária envolvida no espaço estudado. Dessa forma, utilizou-se o método Análise-Diagnóstico de Realidades Agrárias, de maneira a identificar e hierarquizar os fatores condicionantes das escolhas dos produtores e compreender como esses interferem nas transformações da agricultura local como um todo. Os resultados obtidos utilizando-se desse método mostraram, pelo zoneamento histórico da região, que os municípios da área de estudo passaram por 4 períodos históricos determinados pelas transformações ocorridas na economia e nas políticas regionais, essas, muitas vezes, influenciadas pela tendências dos mercados nacional e internacional e pela atuação do governo federal. Esses períodos determinaram também, parcial ou totalmente, as trajetórias de acumulação das famílias locais. Resultante desse processo histórico, o sistema agrário estudado é caracterizado atualmente por 3 zonas agro-ecológicas determinadas a partir do meio físico, do processo de ocupação e da sociedade envolvida: Zona dos Grãos, da Farinha e do Extrativismo. As características das zonas também têm influencia sobre as trajetórias das famílias, mas, em geral, essas se desenvolveram dentro de um padrão: uma fase de instalação, seguida pelo processo de acumulação ou desacumulação, dependendo da situação do mercado. Nessas zonas foram identificados 7 tipos de estabelecimentos familiares, distribuídos conforme as condições disponíveis, sendo três tipos característicos da zona dos Grãos, dois da zona da Farinha e quatro da zona Extrativista. Pelos resultados econômicos obtidos a maioria dos sistemas são relativamente diversificados e sustentáveis economicamente a curto e médio prazo, porém três deles o tipo Ib, da zona da Farinha, e os tipos IV e V, da zona Extrativista apresentam-se pouco diversificados e economicamente pouco sustentáveis podendo-se dizer que, nas condições atuais do meio envolvente, esses possuem uma baixa capacidade de se reproduzir. De uma maneira geral, apesar de sofrer um processo de aceleração nos últimos anos, a dinâmica na área tradicional é mais lenta que na de fronteira, apresentando fortes indicações que não chegará nas mesmas condições daquela, devido às tendências claras de diversificação da agricultura familiar e o objetivo global das famílias em permanecer na terra. Finalmente, o conhecimento mais aprofundado do sistema agrário da margem esquerda possibilitou a identificação e a compreensão das principais restrições e potencialidades da produção familiar local, configurando-se em uma contribuição, não definitiva e suficiente, mas importante para subsidiar discussões e ações futuras de desenvolvimento para a região.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nesta dissertação foi desenvolvido um estudo sobre o comportamento de uma estrutura em concreto armado submetida a elevadas variações térmicas. A estrutura analisada consiste na parede externa de um forno de cozimento de anodo utilizado na produção de Alumínio, e está submetida a variações térmicas de cerca de 125C devido à própria operação do forno. As motivações principais para o estudo foram a ocorrência de grandes deformações e o surgimento de fissuras na estrutura, o que poderia provocar a inutilização do forno. O objetivo do trabalho foi a investigação das causas destas patologias, assim como o estabelecimento de propostas para reforço da estrutura. Para isso, foram realizados estudos experimentais e computacionais do comportamento da estrutura. Inicialmente, a estrutura foi monitorada utilizando-se transdutores de deslocamento e sensores de temperatura (termopares), conectados a um sistema de aquisição de dados para obtenção e armazenamento automática das amostras ao longo do tempo. Em seguida, foram desenvolvidos modelos computacionais em Elementos Finitos com auxilio do programa computacional Algor, para determinação da distribuição de temperatura e as correspondentes tensões e deformações de origem térmica na estrutura. Nestes estudos, foram realizadas análises estacionárias e transientes de condução de calor, seguidas de análises de tensões de origem térmica. Como conclusão do estudo, tem-se que a metodologia proposta para a solução do problema foi bastante satisfatória, solucionando o problema de forma precisa, porém econômica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresenta-se neste trabalho uma análise da qualidade da tensão no Ponto de Acoplamento Comum (PAC) entre uma indústria de alumínio e o sistema interligado nacional, de modo a avaliar o impacto produzido por esta instalação na rede básica no que diz respeito aos fenômenos de flutuação de tensão, desequilíbrio de tensão e distorção harmônica de tensão. Os dados dos distúrbios da qualidade da energia citados anteriormente foram coletados através de uma campanha de medição com duração de 7 dias consecutivos, solicitada pelo Operador Nacional do Sistema Elétrico (ONS) em casos de cargas conectadas à rede básica que apresentem características não-lineares, como é o caso das indústrias de alumínio. Adicionalmente, um estudo computacional visando determinar os valores máximos de distorção harmônica de tensão no PAC é apresentado com o intuito de completar as análises via campanha de medição. Os programas computacionais utilizados para a realização do estudo foram o HarmZs do CEPEL e o Matlab 7.0.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresenta-se neste trabalho uma análise da qualidade da energia do sistema de distribuição de uma indústria de petróleo, de modo a avaliar o impacto da instalação de conversores de frequência no que diz respeito ao fenômeno de distorção harmônica. Os dados de distorção harmônica de tensão foram coletados através de duas medições com duração de sete dias consecutivos, sendo uma realizada antes e outra depois da instalação dos conversores de frequência. Adicionalmente, um estudo computacional utilizando o PTW (Power Tools for Windows) é apresentado com o intuito de simular condições futuras de instalação de novos conversores de frequência e de avaliar a influência dos bancos de capacitores na amplificação da distorção harmônica no sistema de distribuição.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os sequenciadores de nova geração como as plataformas Illumina e SOLiD geram uma grande quantidade de dados, comumente, acima de 10 Gigabytes de arquivos-texto. Particularmente, a plataforma SOLiD permite o sequenciamento de múltiplas amostras em uma única corrida (denominada de corrida multiplex) por meio de um sistema de marcação chamado Barcode. Esta funcionalidade requer um processo computacional para separação dos dados por amostra, pois, o sequenciador fornece a mistura de todas amostras em uma única saída. Este processo deve ser seguro a fim de evitar eventuais embaralhamentos que possam prejudicar as análises posteriores. Neste contexto, o presente trabalho propõe desenvolvimento de um modelo probabilístico capaz de caracterizar sistema de marcação utilizado em sequenciamentos multiplex. Os resultados obtidos corroboraram a suficiência do modelo obtido, o qual permite, dentre outras coisas, identificar faltas em algum passo do processo de sequenciamento; adaptar e desenvolver de novos protocolos para preparação de amostras, além de atribuir um Grau de Confiança aos dados gerados e guiar um processo de filtragem que respeite as características de cada sequenciamento, não descartando sequências úteis de forma arbitrária.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As concessionárias de energia, para garantir que sua rede seja confiável, necessitam realizar um procedimento para estudo e análise baseado em funções de entrega de energia nos pontos de consumo. Este estudo, geralmente chamado de planejamento de sistemas de distribuição de energia elétrica, é essencial para garantir que variações na demanda de energia não afetem o desempenho do sistema, que deverá se manter operando de maneira técnica e economicamente viável. Nestes estudos, geralmente são analisados, demanda, tipologia de curva de carga, fator de carga e outros aspectos das cargas existentes. Considerando então a importância da determinação das tipologias de curvas de cargas para as concessionárias de energia em seu processo de planejamento, a Companhia de Eletricidade do Amapá (CEA) realizou uma campanha de medidas de curvas de carga de transformadores de distribuição para obtenção das tipologias de curvas de carga que caracterizam seus consumidores. Neste trabalho apresentam-se os resultados satisfatórios obtidos a partir da utilização de Mineração de Dados baseada em Inteligência Computacional (Mapas Auto-Organizáveis de Kohonen) para seleção das curvas típicas e determinação das tipologias de curvas de carga de consumidores residenciais e industriais da cidade de Macapá, localizada no estado do Amapá. O mapa auto-organizável de Kohonen é um tipo de Rede Neural Artificial que combina operações de projeção e agrupamento, permitindo a realização de análise exploratória de dados, com o objetivo de produzir descrições sumarizadas de grandes conjuntos de dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O interesse no comportamento dinâmico de estruturas metálicas vem crescendo nas últimas décadas no Brasil, em decorrência de acidentes com colapso total de algumas estruturas devido às vibrações ambientes em diversas regiões do país. Na região amazônica, por exemplo, onde esse tipo de estrutura deve vencer obstáculos como florestas e rios de grande largura, casos de colapso total de estruturas metálicas também são relatados. O foco principal dessa dissertação é o estudo do comportamento modal de estruturas metálicas submetidas às vibrações ambientes cuja magnitude das forças de excitação é desconhecida. Dois estudos de caso são apresentados: no primeiro deles, o comportamento modal de uma torre de linha de transmissão de energia elétrica é investigado; e no segundo caso, tanto o comportamento modal como os níveis de desconforto de uma ponte são estudados. Os estudos realizados neste último caso visam avaliar os níveis de desconforto da ponte quando submetida às excitações ambientes como rajadas de vento e o tráfego de veículo de acordo a norma brasileira NBR 8800 (1986). Em ambos os estudos de caso foram realizadas análises experimentais e computacionais. Na etapa experimental, ambas as estruturas foram monitoradas com emprego de um conjunto de acelerômetros de baixa freqüência e também de um sistema de aquisição apropriados para ensaios de vibração de estruturas civis. Como é muito difícil medir a magnitude das forças de excitação ambientes, foram utilizados os métodos de identificação estocásticos SSI-DATA e SSI-COV para extração de parâmetros modais de estruturas civis a partir somente dos dados de resposta coletados nos ensaios de vibração. Entre as atividades desenvolvidas nessa etapa, destaca-se a criação de um programa computacional com recursos do Graphical User Interface (GUI) da plataforma Matlab®, destinado à identificação modal de estruturas civis com o emprego dos referidos métodos estocásticos. Esse programa é constituído de três módulos: o primeiro é destinado ao processamento e tratamento dos sinais coletados nos ensaios de vibração; o segundo é utilizado para adicionar as informações do posicionamento dos acelerômetros utilizados nos arquivos dos sinais de resposta; e o terceiro e último módulo é destinado à identificação a partir dos arquivos de dados de resposta processados nos dois primeiros módulos. Na etapa das análises teóricas, foram criados modelos numéricos utilizando o método dos elementos finitos para simular o comportamento dinâmico das estruturas analisadas. Comparando os resultados obtidos em ambas as etapas de análise, verifica-se que resultados experimentais e teóricos apresentaram parâmetros bastante próximos entre si nos primeiros modos de vibração. Os resultados experimentais mostraram que ambos os métodos estocásticos foram muito eficientes na identificação das estruturas ensaiadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente pesquisa trata o projeto e análise de uma antena monopolo planar com geometria modificada visando sua utilização para recepção do sinal de TV digital operante no Brasil na faixa de 470 MHz a 806 MHz. Faixa essa contida no espectro de UHF – Ultra High Frequency (300 MHz a 3 GHz). Para desenvolvimento desse trabalho foi tomado como referência à antena denominada “The Hi Monopole”. Que originalmente foi apresentada para operar em sistemas UWB (Ultra Wide Band) em 3,1 a 10,6 GHz. Para o desenvolvimento do trabalho proposto, diferentes técnicas de adequação da antena podem ser utilizadas para operação em banda larga, tais como: modificação na estrutura da antena, carregamento resistivo, chaveamento, utilização de elementos parasitas e estruturas de casamento. O projeto de antenas banda larga pode ser realizado a partir de três abordagens diferentes: domínio do tempo, domínio da frequência e método de expansão por singularidades. O método no domínio da frequência foi empregado neste trabalho para o projeto da antena proposta, algumas das técnicas supracitadas foram analisadas almejando o aumento da largura de banda, sendo confeccionado um protótipo da antena para validar os conceitos empregados. A antena foi então projetada para a faixa de 470 MHz a 890 MHz. O protótipo construído para essa mesma faixa apresentou bons resultados, o que valida à técnica empregada. Aspectos positivos e negativos do uso desta técnica são discutidos ao longo do trabalho. O programa computacional comercial CST® MICROWAVE STUDIO, baseado na Técnica da Integração Finita (FIT), foi usado para simulações no domínio da frequência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desta dissertação é desenvolver uma ferramenta computacional para a análise do potencial de bombeamento de água com base nos valores de velocidades de vento de uma localidade, utilizando um aerogerador de pequeno porte acoplado a um conjunto motobomba convencional, por intermédio de um inversor de frequência. No trabalho são apresentados dois métodos para o cálculo da vazão. O método 1 utiliza um modelo teórico, enquanto que no método 2 o modelamento é feito a partir de dados de bombeamento obtidos em laboratório. Os dois métodos descrevem o funcionamento de um sistema de bombeamento de água envolvendo os equipamentos citados. Utilizando os modelos matemáticos descritos, foi criado um programa em linguagem Delphi®, para a obtenção dos valores de vazão e volume de água bombeada, além do número de pessoas que podem ser atendidas, com base nos dados de velocidade de vento do local, para com isso, ser possível analisar a viabilidade ou não de instalação do sistema. O funcionamento do programa é descrito através de um exemplo, que contém valores reais de velocidade de vento, e cujos resultados são analisados de forma a possibilitar seu entendimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação apresenta a utilização alguns modelos matemáticos disponíveis na literatura para representar as etapas de processamento da energia em um Sistema Fotovoltaico Conectado à Rede Elétrica (SFCR). Além disso, propõem-se dois modelos representativos do comportamento da potência elétrica em situações de limitação de potência do inversor e das perdas elétricas em função do carregamento. Todas as modelagens estão implementadas computacionalmente no ambiente GUIDE do MATLAB, o que permite a análise, auxilia no dimensionamento e viabiliza a simulação da operacionalidade e consequente contribuição energética de SFCRs com diferentes tamanhos relativos. No trabalho ainda é mostrada a interface da ferramenta computacional desenvolvida e a validação dos dados gerados pelo programa com dados medidos experimentalmente de SFCRs, a qual evidencia a eficácia dos modelos utilizados e a melhora na precisão. Ao final são mostradas estimativas energéticas para cinco cidades brasileiras, além de exemplos de análise dos dados gerados pela ferramenta computacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde a incorporação da automação no processo produtivo, a busca por sistemas mais eficientes, objetivando o aumento da produtividade e da qualidade dos produtos e serviços, direcionou os estudos para o planejamento de estratégias que permitissem o monitoramento de sistemas com o intuito principal de torna-los mais autônomos e robustos. Por esse motivo, as pesquisas envolvendo o diagnóstico de faltas em sistemas industriais tornaram-se mais intensivas, visto a necessidade da incorporação de técnicas para monitoramente detalhado de sistemas. Tais técnicas permitem a verificação de perturbações, falta ou mesmo falhas. Em vista disso, essa trabalho investiga técnicas de detecção e diagnostico de faltas e sua aplicação em motores de indução trifásicos, delimitando o seu estudo em duas situações: sistemas livre de faltas, e sobre atuação da falta incipiente do tipo curto-circuitoparcial nas espiras do enrolamento do estator. Para a detecção de faltas, utilizou-se analise paramétrica dos parâmetros de um modelo de tempo discreto, de primeira ordem, na estrutura autoregressivo com entradas exógenas (ARX). Os parâmetros do modelo ARX, que trazem informação sobre a dinâmica dominante do sistema, são obtidos recursivamente pela técnica dos mínimos quadrados recursivos (MQR). Para avaliação da falta, foi desenvolvido um sistema de inferência fuzzy (SIF) intervala do tipo-2, cuja mancha de incerteza ou footprint of uncertainty (FOU), características de sistema fuzzy tipo-2, é ideal como forma de representar ruídos inerentes a sistemas reais e erros numéricos provenientes do processo de estimação paramétrica. Os parâmetros do modelo ARX são entradas para o SIF. Algoritmos genéricos (AG’s) foram utilizados para otimização dos SIF intervalares tipo-2, objetivando reduzir o erro de diagnóstico da falta identificada na saída desses sistemas. Os resultados obtidos em teste de simulação computacional demonstram a efetividade da metodologia proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho visou reunir e disponibilizar informações sobre a ictiofauna da Amazônia segundo vários escritos do século XVI ao XVII. Consultaram-se, fontes documentais de várias bibliotecas e arquivos, e dos documentos selecionados procedeu-se à identificação taxonômica das espécies neles referidas. Também se fizeram observações com base nas referências textuais e iconográficas disponíveis, de forma a acrescentar informações consideradas de relevância zoológica. Constatou-se que, devido à definição então vigente do conceito de "peixe", um estudo da ictiologia do período precisaria incluir também informações sobre espécies de outros táxons aquáticos que não agnatos, elasmobrânquios e teleósteos. No início do período colonial, a idéia de peixe era generalizada simplesmente como pescado, e não havia muita preocupação em inventariar a ictiofauna do Novo Mundo. Mais tarde, alguns dos visitantes da região puseram-se a descrever e ilustrar a ictiofauna de maneira mais específica: nessa fase em que se dava mais detalhamento às espécies de peixes destacavam-se o texto atribuído ao Fr. Cristóvão de Lisboa (1625- 1631), o códice do arquiteto Antonio Giuseppe Landi (1772) e principalmente o manuscrito do Pe. João Daniel (1758-1776) — o qual se revelou um pioneiro do movimento conservacionista da Amazônia. Os visitantes que vieram à região careciam, no geral, de formação acadêmica específica e, servindo a funções várias alheias à Ciência, não seguiam uma metodologia que se pudesse chamar de científica. Devido ao fato de seus manuscritos não terem sido divulgados ou sequer impressos, por vários motivos, o conhecimento neles produzido não foi cumulativo ou analítico, e não teve influência significativa no desenvolvimento da Ictiologia. Por outro lado, os naturalistas que efetivamente não estiveram na Amazônia puderam trazer uma contribuição de maior impacto, consolidando o conhecimento obtido através principalmente da obra de Georg Marcgrave (1648) e de exemplares coletados nas possessões holandesas da América do Sul, e incluindo-o num grande sistema classificatório que mais tarde despertaria o interesse de outros cientistas em conhecer a ictiofauna amazônica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Devido ao auge do crescimento industrial na Região Norte e, em especial, o Pólo Industrial de Manaus (PIM), são necessários obter ferramentas matemáticas que facilitem ao especialista tomar decisões sobre a seleção e dimensionamento dos filtros harmônicos que proporcionam neutralizar os efeitos prejudiciais dos harmônicos gerados pelas cargas não lineares da indústria e alcançar conformidade com os padrões das normas de qualidade de energia correspondentes. Além disso, como os filtros harmônicos passivos têm a capacidade de gerar potência reativa à rede, estes meios são eficazes compensadores de potência reativa e, portanto, podem conseguir uma economia significativa no faturamento de energia elétrica consumida por essas instalações industriais. Esta tese tem como objetivo geral desenvolver um método matemático e uma ferramenta computacional para a seleção da configuração e parâmetros do projeto de um conjunto de filtros harmônicos passivos para sistemas elétricos industriais. Nesta ótica, o problema de otimização da compensação de harmônicos por meio de filtros passivos foi formulado como um problema multiobjetivo que considera tanto os objetivos da redução da distorção harmônica como da efetividade econômica do projeto considerando as características das tarifas brasileiras. Todavia, a formulação apresentada considera as restrições relevantes impostas pelas normas brasileiras e estrangeiras. A solução computacional para este problema foi conseguida, usando o algoritmo genético NSGA-II que determina um conjunto de soluções ótimas de Pareto (Fronteira) que permitem ao projetista escolher as soluções mais adequadas para o problema. Por conseguinte, a ferramenta computacional desenvolvida tem várias novidades como: não só calcula os parâmetros que caracterizam os filtros, como também seleciona o tipo de configuração e o número de ramos do filtro em cada barra candidata de acordo com um conjunto de configurações pré-estabelecidas; têm implementada duas normas para a avaliação das restrições de qualidade de energia (Prodist-Módulo 8 e IEEE 519-92) que podem ser selecionadas pelo usuário; determina soluções com bons indicadores de desempenho para vários cenários característicos e não característicos do sistema que permitem a representação das as variações diárias da carga; das variações dos parâmetros do sistema e dos filtros; avalia o custo das contas de energia numa rede elétrica industrial que tem diferentes condições de operação (cenários característicos); e avalia o efeito econômico de filtros de harmônicos como compensadores de potência reativa. Para desenvolver a ferramenta computacional adequada desta tese, foi empregado um modelo trifásico em coordenadas de fase para redes de energia elétrica industriais e de serviços onde foram feitos vários programas utilizando várias ferramentas computacionais adicionais. Estas ferramentas compreendem um programa de varredura de freqüência, um programa do fluxo de harmônicos por injeção de correntes e um programa de fluxo de potência à freqüência fundamental. Os resultados positivos desta tese, a partir da análise de vários exemplos práticos, mostram as vantagens do método desenvolvido.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.