15 resultados para Classificadores de classe única

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste trabalho foram realizadas classificações utilizando-se as bandas 1 a 5 e 7 dos sensores Landsat 5 TM (1987) e Landsat 7 ETM+ (2000). A caracterização espectral dos materiais foi realizada em laboratório utilizando um espectrorradiômetro, e através das bandas 1 a 5 e 7 dos sensores Landsat 5 TM (1987) e Landsat 7 ETM+ (2000). A transformação dos dados multiespectrais de imagens de sensoriamento remoto é uma maneira de reduzir o volume de dados através da identificação de classes de interesse numa imagem digital. No intuito de verificar condições de melhoramento na classificação de alvos urbanos em imagens digitais, identificados por procedimentos já conhecidos, como a classificação pela Máxima Verossimilhança, escolheu-se um classificador baseado na lógica fuzzy. O classificador utilizado foi o Fuzzy Set Membership classification - Fuzclass, que faz parte de um conjunto de classificadores não-rígidos disponíveis no programa Idrisi 32. Uma vez que informações sobre o desempenho de produtos deste classificador em áreas urbanas são escassas, foram conduzidos ensaios de comparação de resultados obtidos por este classificador com a verdade terrestre, representada por uma imagem de alta resolução espacial do satélite QuickBird. As áreas teste selecionadas desta imagem atendem ao critério de inalterância das condições de ocupação para o intervalo temporal considerado A comparação feita, permite concluir que o classificador apresenta limitações na classificação de áreas urbanas devido ao comportamento espectral semelhante dos materiais que fazem parte dessa cobertura. A utilização de uma classe única para identificar áreas impermeáveis foi a solução adotada para contornar este óbice. O emprego de áreas teste possibilitou acertar a escolha do grau de possibilidade de presença da classe no pixel (PPCP). Uma comparação entre os resultados apresentados na classificação de áreas impermeáveis, com base nos classificadores Máxima Verossimilhança e Fuzclass, demonstrou um desempenho melhor do classificador fuzzy, em função do nível de PPCP ajustado durante a análise comparativa Landsat e Quickbird nas áreas teste. Um procedimento alternativo de estimativa de áreas impermeáveis em bacias urbanas é apresentado no final.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os fenômenos convulsivos despertaram o interesse de estudiosos e pensadores já na Antigüidade, quando aspectos mágicos e sobrenaturais eram a eles associados. No século XIX foram lançadas as bases dos conceitos atuais sobre a desestruturação funcional cerebral na epilepsia, e Berger, em 1929, marcou definitivamente a história com a descoberta dos ritmos cerebrais. Crise epiléptica e epilepsia não são sinônimos, já que o último termo refere-se a crises recorrentes espontâneas. Ela costuma iniciar na infância, daí a preocupação com o risco de repetição do primeiro episódio e com a decisão de instituir tratamento medicamentoso. Fatores prognósticos são apontados, mas não há consenso. No Brasil existem poucas pesquisas nesta linha, tanto de prevalência da epilepsia como de fatores envolvidos na recorrência de crises. Este estudo teve como objetivo geral avaliar aspectos clinicoeletrográficos capazes de auxiliar no prognóstico e no manejo da epilepsia da criança e do adolescente. Foram objetivos específicos determinar a incidência de crise epiléptica não provocada recorrente; identificar fatores remotos implicados na ocorrência de crise epiléptica; relacionar tipo de crise com achados eletrencefalográficos; relacionar tipo de crise, duração da crise, estado vigília/sono no momento da crise e achados eletrencefalográficos com possibilidade de recorrência; e identificar os fatores de risco para epilepsia. Foram acompanhados 109 pacientes com idades entre 1 mês e 16 anos, com primeira crise não-provocada, em média por 24 meses, a intervalos trimestrais, no Hospital de Clínicas de Porto Alegre (HCPA). Foram realizados eletrencefalogramas (EEG) após a primeira crise; depois, solicitados anualmente. Não foram incluídos casos com epilepsia ou síndrome epiléptica bem definida, ou que fizeram uso prévio de drogas antiepilépticas. A média de idade foi 6 anos, com predomínio da faixa etária de 6 a 12 anos. Setenta eram meninos e 39, meninas. Os indivíduos brancos eram 92, e os não-brancos, 17. O nível de escolaridade dos casos esteve de acordo com a distribuição da idade e, entre os responsáveis, predominaram 8 anos de escolaridade. Foi possível concluir que as crises únicas não-provocadas mais freqüentes foram generalizadas, e sem predomínio significativo do tipo de EEG. A incidência de crise não-provocada recorrente foi 51,4%. História de intercorrências pré-natais maternas aumentou em 2 vezes o risco de repetição de crises. Via de nascimento, escore de Apgar no 5º minuto, relação peso ao nascer/idade gestacional, intercorrências no período pós-natal imediato e desenvolvimento neuropsicomotor não tiveram influência na recorrência. História familiar de crises mostrou tendência à significância estatística para repetição dos episódios, com risco de 1,7. Não foi encontrada associação entre tipo de crise e achado eletrencefalográfico. A maioria das crises foi de curta duração (até 5 minutos), mas este dado não esteve relacionado com a recorrência. Estado de vigília teve efeito protetor na recorrência. Se a primeira crise foi parcial, o risco de repetição foi 1,62, com tendência à significância. Quando o primeiro EEG foi alterado, houve relação significativa com primeira crise tanto generalizada como parcial. O primeiro EEG com alterações paroxísticas focais apontou risco de repetição de 2,90. Quando as variáveis envolvidas na repetição de crises foram ajustadas pelo modelo de regressão de Cox, EEG alterado mostrou risco de 2,48, com riscos acumulados de 50%, 60%, 62% e 68%; com EEG normal, os riscos foram 26%, 32%, 34% e 36% em 6, 12, 18 e 24 meses respectivamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo de camada “duplex” em aços para trabalho à quente da classe AISI H13, com enfoque em matrizes de injeção de ligas de alumínio, visando otimizar a vida das matrizes atuando tanto sobre os mecanismos de ataque superficial da matriz pelo alumínio como sobre a formação de trincas por fadiga térmica. O tratamento duplex consistiu em nitretação à plasma, com gás contendo 5% de nitrogênio e diferentes parâmetros de tempos e temperaturas, sendo as amostras posteriormente revestidas com nitreto de titânio (TiN) ou nitreto de cromo (CrN). As camadas nitretadas foram avaliadas através de análises metalográficas, perfis de dureza e difração de raios X, buscando caracterizar e qualificar a camada nitretada. Tendo sido observado na difração de raios X a presença de camada de compostos (nitretos de ferro ε e γ’) mesmo com a utilização de gás pobre em nitrogênio, foram também avaliados substratos nitretados sem a remoção mecânica dos nitretos e com um polimento para remoção destes antes da deposição. A rugosidade dos substratos nitretados com e sem a realização do polimento mecânico também foram determinados, buscando relação deste parâmetro com os resultados obtidos. O conjunto camada nitretada e depósitos (TiN ou CrN) com e sem o polimento mecânico após-nitretação foram avaliados em termos de adesão com ensaios de indentação Rockwell C com análise em microscopia eletrônica de varredura (qualitativamente) e com o teste do risco (quantitativamente) avaliando tanto as cargas críticas para a falha do filme como o modo de falha também em microscopia eletrônica de varredura. Além disso, foram realizados testes de fadiga térmica em banho de alumínio para simulação e avaliação do desempenho da camada “duplex” em condições de trabalho, bem como foram testadas duas condições de nitretação com TiN ou CrN em regime industrial. Os resultados mostram ganhos de adesão crescentes com o aumento dos tempos e das temperaturas de nitretação, além de maiores ganhos com a remoção mecânica (polimento) do substrato nitretado antes da deposição dos filmes. O comportamento, frente às condições de trabalho também foi superior para condições de nitretação com maiores tempos e temperaturas, tanto nos ensaios de laboratório com nos testes em regime industrial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estudar condições necessárias e sufi- cientes sobre um determinado anel R, não necessariamente comutativo, para que suas extensões polinomiais apresentem fatoração única. O estudo de tal propriedade é feito para anéis primos Noetherianos e para anéis primos não necessariamente Noetherianos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os aminoglicosídeos permanecem sendo um dos principais antibióticos no tratamento de infecções causadas por bactérias gram-negativas, apesar do surgimento de novos antibióticos. Na Unidade de Endoscopia Digestiva do Hospital de Clínicas de Porto Alegre os aminoglicosídeos, combinados com antibióticos ß-lactâmicos, têm sido utilizados no tratamento de infecções das vias biliares e como antibiótico profilático em procedimento como a colangiopancreatografia endoscópica retrógrada. O objetivo do presente estudo foi comparar a eficácia terapêutica da dose única total diária com dose fracionada diária de gentamicina no tratamento da infecção das vias biliares, baseando-se na concentração biliar de gentamicina obtida nesses dois regimes terapêuticos e sua relação com a concentração inibitória mínima das principais bactérias isoladas na bile de pacientes com infecção do trato biliar. Os pacientes selecionados foram randomizados para tratamento com gentamicina na dose de 4mg/kg de peso por meio intravenoso sendo divididos em 2 grupos: grupo 1 recebeu dose única diária dividida em 3 horários (8 / 8 horas) e o grupo 2 recebeu o fármaco como dose única total diária. Os resultados do estudo evidenciaram que os níveis biliares de gentamicina nos pacientes tratados com dose única diária de gentamicina (grupo 2) ultrapassaram de 3 a 6 vezes as concentrações inibitórias mínimas das bactérias gram-negativas isoladas, enquanto que os níveis de gentamicina à nível biliar nos pacientes tratados com dose fracionada de gentamicina (grupo 1) conseguiram igualar ou ultrapassar no máximo e 3 vezes, dependendo da bactéria gram-negativa testada, as concentrações inibitórias. Além disto, os níveis biliares de gentamicina dos pacientes tratados com dose única diária permaneceram por intervalo superior a 14 horas acima das concentrações inibitórias mínimas destas bactérias, reforçando ainda mais o efeito pós-antibiótico obtido no intervalo de tempo onde não são detectados mais níveis de gentamicina na bile. Baseado nos efeitos bactericida dependente da concentração e efeito pós-antibiótico dos aminoglicosídeos,os resultados deste estudo sugerem que a dosagem única diária de gentamicina apresenta maior eficácia terapêutica que a dosagem fracionada diária no tratamento da infecção das vias biliares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a abertura do mercado brasileiro e aumento da pressão competitiva, as organizações têm buscado incessantemente a melhoria de desempenho de seus processos produtivos. Dentro deste contexto, surge a Manufatura de Classe Mundial, que se caracteriza pela alta disponibilidade e flexibilidade dos meios de produção. Para o alcance desse estágio na manufatura, a manutenção industrial é um elemento chave, que, adaptada ao ambiente de competição globalizado, caracteriza o que se chama de Manutenção de Classe Mundial (MCM), representando um importante diferencial competitivo. Nas Indústrias de Processamento Contínuo do segmento petroquímico, em particular, a manutenção industrial tem papel ainda mais decisivo, ao assegurar o funcionamento estável e seguro dos equipamentos e instalações a custos otimizados, sem comprometimento da saúde e segurança dos trabalhadores e com respeito ao meio ambiente. Apresenta-se nesta dissertação uma proposta de fundamentos habilitadores para a implantação de um sistema de gerenciamento de manutenção, totalmente integrado com o processo produtivo, desenvolvido e aplicado numa refmaria de petróleo brasileira. Os fundamentos selecionados com base nos princípios da MCM,juntamente com outros temas relevantes como planejamento e gestão estratégica, estrutura e aspectos organizacionais, mapeamento de processo, terceirização, suprimento de materiais e sobressalentes e política de Segurança, Meio Ambiente e Saúde Ocupacional, apresentam-se como decisivos para o sucesso do sistema de manutenção implementado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumo não disponível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dado um sistema dinâmico g : M → M e uma função A : M → R, chamada de observável, uma medida invariante v que satisfaz ƒ Adv = sup{ RAdµ ; µ ´e invariante para g} é chamada uma medida maximizadora. Neste trabalho vamos analisar medidas maximizadoras em duas classes de sistemas dinãmicos que apresentam pontos fixos indiferentes: Na primeira classe analisada, unidimensional, o sistema dinâmico ƒ é dado por um mapa expansor de grau 2 definido em [0, 1], apresentando derivada maior que 1 em todos os pontos com exceção do ponto fixo 0, onde tem derivada 1. O observável A é dado por uma função α-Hölder em cada ramo injetor, monótona em uma pequena vizinhança de zero. Na segunda classe analisada, bidimensional, o sistema dinâmico B é um mapa bijetor definido em [0, 1)×[0, 1) com o auxílio de uma função ƒ da classe anterior, apresentando ponto fixo indiferente na origem. Trata-se de uma variante fracamente hiperbólica da Baker Map. O observável A agora é uma função α-Hölder, e obedece a uma condição semelhante à monotonicidade do caso unidimensional em um vizinhança de (0, 0). Em ambos os casos mostraremos que a medida maximizadora, se for única, será uma medida unicamente ergódica. O passo mais importante nesta direção, que constitui-se em um resultado de interesse próprio, e que tomará a maior parte de nosso tempo, será, nos dois casos, a obtenção e o estudo da regularidade de uma função a valores reais S, chamada de função de subação, que obedecerá a desigualdade S o g ≥ S + A − m. Em ambos os casos mostraremos que S existe e é α-Hölder-contínua.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação apresenta a análise dos classificadores nominais específicos chineses, embasada na Lingüística Cognitiva, tendo como arcabouço teórico a Semântica Cognitiva Experiencialista e a Teoria Prototípica, visando a revelar as motivações semânticas subjacentes e as propriedades de categorização dos classificadores nominais chineses, quando colocados junto a substantivos. Foram analisados todos os classificadores nominais, a partir dos modelos da Semântica Cognitiva Experiencialista, baseados em Lakoff (1987). A amostragem envolveu dados retirados de livros, revistas e internet e da própria experiência vivencial de pesquisadora. Estão descritas as análises de dez classificadores, selecionados pela relevância cultural e potencial de explicitação dos aspectos discutidos. O estudo revela que a combinação de classificadores com substantivos não é arbitrária, como alguns lingüistas chineses acreditam, mas, sim, um reflexo da interação humana com o mundo objetivo, baseada na cognição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma solu c~ao para um problema abstrato de Cauchy. Basicamente, d a-se uma formula c~ao abstrata para certos tipos de equa c~oes diferenciais parciais n~ao lineares de evolu c~ao em espa cos de Nikol'skii, tais espa cos possuem boas propriedades de regularidade e resultados de imers~ao compacta, num certo sentido s~ao intermedi arios entre os espa cos de Holder e os espa cos de Sobolev. Aplicando o m etodo de Galerkin, prova-se resultados de exist^encia global de solu c~oes fracas, como tamb em a exist^encia de solu c~oes fracas com a propriedade de reprodu c~ao. E impondo mais hip oteses sobre os operadores envolvidos demonstra-se unicidade de solu c~oes fracas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A concepção dos sistemas eletrônicos previstos para o futuro próximo implica em uma atividade multidisciplinar, a qual demanda, para o projeto de sistemas eletrônicos, o uso de métodos e técnicas provenientes de diversos domínios do conhecimento humano. Esses domínios podem variar desde a especificação de aplicações, até a realização física de circuitos integrados. A constante evolução dos processos de fabricação de circuitos integrados permite a criação de circuitos bastante complexos, seja em relação ao número de componentes eletrônicos e de suas inter-relações, seja em relação à heterogeneidade funcional presente nas aplicações alvo, previstas para estes sistemas. Para os próximos anos está prevista a possibilidade da inclusão de mais de um bilhão de transistores em uma única pastilha de silício, inaugurando a era da “gigaescala”. Devido a essa situação, a comunidade científica vem demonstrando preocupação em relação às novas técnicas que se fazem necessárias para a concepção dos “gigacircuitos”. Essas técnicas envolvem o uso de diferentes níveis de abstração na concepção e análise das funcionalidades da aplicação alvo, além de abordagens para explorar o grande espaço de busca, inerente à disponibilidade de um grande número de componentes para a implementação da arquitetura alvo, a qual deve ser otimizada para as restrições de projeto. As idéias apresentadas nesse trabalho vão de encontro à necessidade por novas técnicas para a concepção de circuitos eletrônicos complexos. Este trabalho procura contribuir para que esta classe de circuitos possa tornar-se realidade em um futuro próximo, avalizando a disponibilidade de informação, de entretenimento e de serviços para a sociedade. Para tanto, um novo método é proposto, onde um fluxo de projeto considera as ferramentas necessárias para a exploração do espaço de busca em componentes de processamento e de comunicação, visando à sua otimização. As ferramentas seguem os princípios do projeto baseado em plataformas, onde componentes podem ser reutilizadas para aplicações da mesma classe, em diferentes níveis de abstração. Além disso, os princípios da especificação baseada em interface são considerados, visando explicitar a especificação de funcionalidades heterogêneas para componentes arquiteturais, bem como permitir a avaliação dinâmica do comportamento destes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.