959 resultados para Lógica proposicional do quase sempre
Resumo:
El autor sitúa el proceso de creación del Banco del Sur y sus peripecias dentro de la tendencia global a una cooperación monetaria y financiera regional incrementada luego de la crisis asiática de 1997, así como también dentro de las tendencias históricas en América Latina.
Resumo:
América Latina avanza en un sentido histórico progresista, pero la construcción de las nuevas sociedades enfrenta contradicciones socio-económicas, políticas y culturales que marcan un camino de ascensos y retrocesos, los cuales forman parte del gran movimiento de la determinación social de la salud y de la vida sobre el planeta. En ese marco, la expansión a gran escala de formas más agresivas de acumulación de capital en todas las esferas de la vida, incluidas las de la actividad física y el deporte, es el centro y la lógica mayor de una visión empresarial que penetra todos los poros del vivir, negando las potencialidades saludables del esparcimiento deportivo y de la educación física. Una visión crítica de la determinación social se vuelve indispensable para estudiar y confrontar la negación del deporte como lógica de la vida y los mega-espectáculos: cara visible del carácter predatorio y malsano del “big-bussines” deportivo.
Resumo:
La historia reciente de la investigación en salud pública está repleta de casos demostrativos de una colusión entre quienes trabajan para fabricar dudas científicas acerca de estudios epidemiológicos y ambientales que demuestran los impactos de sistemas productivos malsanos, y los que manipulan estudios para diluir evidencias de tales problemas, con el fin de prolongar la impunidad jurídica, desgastar la credibilidad de denuncias ante tales daños y confundir la opinión pública. Esta breve recopilación sobre casos emblemáticos de tales disensos, tendenciosamente construidos, pretende ser un elemento de reflexión en homenaje al trabajo científico de tres entidades científicas de indudable respetabilidad científica del Brasil, la Fundación Oswaldo Cruz –FIOCRUZ-, la Asociación Brasileña de Salud Colectiva –ABRASCO y el Instituto Nacional de Cáncer –INCA, cuyos estudios sobre el impacto masivo del uso irresponsable de agrotóxicos, ha desencadenado la vieja argucia de una ciencia vinculada, que se coloca consciente o inconscientemente al servicio de meganegocios malsanos y la impunidad.
Resumo:
Dissertação apresentada ao Programa de Mestrado em Comunicação da Universidade Municipal de São Caetano do Sul - USCS
Resumo:
A questão dos filhos do pai sempre foi muito discutida desde os primórdios do Direito, o pai antes não tinha o dever de reconhecer o filho, e se reconhecia este sempre era tratado como ilegítimo, incestuoso ou adulterino, o pai só tinha obrigação de alimentar, mas o filho jamais teria algum direito sucessório, a não ser que o pai dispusesse em testamento. Com o passar do tempo, os costumes mudam e com essa mudança a questão da filiação torna-se um foco de muita importância para o Direito.Com o advento da Constituição Federal de 1988, com fundamento no princípio da dignidade da pessoa humana, por se tratar de Direito fundamental, é vetado qualquer tipo de discriminação em relação aos filhos, se havidos ou não na constância do casamento e também impõe que a família, a sociedade e o Estado devem assegurar à criança o direito à vida, á saúde,alimentação, a convivência em família, etc.Após a vigência da nossa Carta Magna, as leis infraconstitucionais foram se adequando, atribuindo assim, todos os no que tange a filiação, de forma irrestrita, podendo os filhos investigar sua paternidade/maternidade, e o pai e a mãe em alguns casos contestá-la.Com a descoberta do exame de DNA, qualquer pessoa pode investigar sua identidade biológica, e o direito passou a dispor de prova em que a paternidade é confirmada com uma porcentagem de erro quase nula.Assim, o Poder Judiciário pode declarar a paternidade ou a maternidade de uma pessoa assegurando todos os direitos tais como: o nome, os alimentos,o direito sucessório, etc e, por outro lado, o legislador faz desaparecer a expressão de que " bastante não sucede".
Resumo:
O objetivo deste trabalho é a proposta de uma arquitetura especial para simulação lógica (AESL). As técnicas e modelos utilizados no processo de simulação lógica são brevemente revistos. É definida uma taxonomia para AESL sob a qual são analisadas diversas propostas de AESL relatadas na literatura. Uma taxonomia já existente é comparada com a proposta. A AESL definida é programável para diferentes algoritmos de simulação lógica. O detalhamento da AESL é, então, incrementado pela implementação de um algoritmo particular. Uma linguagem de simulação discreta é utilizada na construção de um modelo da arquitetura. Os resultados da simulação deste modelo permitem avaliar o desempenho da AESL e otimizar sua estrutura. Uma comparação com outras arquiteturas conclui a análise.
Resumo:
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
Resumo:
O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.
Resumo:
Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.
Resumo:
A tese Lógicas subjacentes à formação do professor para a escolaridade inicial tem origem na experiência profissional do pesquisador enquanto docente formador de professores. É o resultado do trabalho de pesquisa desenvolvido junto a instituições educacionais de nível médio e superior, situadas na Região do Alto Uruguai gaúcho, que atuam na formação de professores para a escolaridade inicial ou, hoje, anos iniciais do ensino fundamental. Parte-se do entendimento de que os processos educacionais institucionalizados correspondem sempre a determinações sócio-políticas hegemônicas, da compreensão das racionalidades orientadoras da formação de professores inseridas no contexto histórico mais amplo que caracterizou a sociedade brasileira ao longo dos últimos cinqüenta anos do século XX. Assim, no quadro de uma contextualização sócio-geográfica da Região, foram coletados e analisados, a partir de entrevistas, reportagens e artigos de jornais e documentos oficiais, dados significativos sobre a história e a atuação dessas escolas, tendo como pano de fundo a situação das Escolas Normais do Rio Grande do Sul e do Brasil no mesmo penodo investigado A pesquisa, de caráter exploratório, teve como foco principal a análise das racionalidadesllógicas que têm presidido a formação de professores nas instituições envolvidas, sem, contudo, ter havido perda da dimensão global mais ampla em que se desenvolvem tais processos. O estudo foi conduzido em duas perspectivas: a histórica, que procura resgatar a trajetória das escolas de formação de professores naquela Região, entre sua criação e os anos noventa. As evidências recolhidas através de depoimentos dos pioneiros e da análise de documentos legais e artigos jomalísticos permitiram identificar o predomínio de racionalidade técnico-instrumental tanto nas concepções de educação, escola, identidade do professor, organização cunlcular quanto nas práticas de ensino e nas próprias condições de trabalho dos professores, assim como a forte presença de um ideário "moralizante" quanto ao papel e aos comportamentos esperados das futuras professoras. Também foi possível registrar o lento declínio da racionalidade técnico-instrumental ao final dos anos oitenta, resultante do avanço e disseminação das teorias críticas da educação e do próprio movimento social em prol da redemocratização do país. Em sua segunda perspectiva, o estudo voltou-se para a investigação da realidade das instituições formadoras da Região, a partir dos anos oitenta, incluindo neste espaço a formação em nível superior, proporcionada pelo Curso de Pedagogia na universidade, no sentido de explorar as possibilidades de incorporação da nova lógica de organização da educação de professores, fundada numa racionalidade emancipatória A análise do conjunto de dados recolhidos nas duas etapas do estudo foi conduzida a partir das seguintes subcategorias: escolha do curso, relação teoriaJprática no processo de formação e nas práticas docentes, fundamentos epistemológicos, desempenho docente, profissionalização e identidade docente. Este processo de análise crítica conduziu a algumas constatações importantes em relação à tese inicialmente proposta, ou seja, como as racionalidades determinaram os pressupostos teóricos e políticos e os rumos da formação profissional em cada momento histórico, traduzindo-se em mecanismos que reproduzem fielmente as grandes tendências sociais, políticas e ideológicas dominantes. Constatou-se, também, a dificuldade das instituições e dos próprios professores em abandonarem visões cristalizadas e assimilarem novos paradigmas de pensamento e ação. Esta perspectiva está demonstrada pelo fato de que, apesar do enfTaquecimento da racionalidade instrumental a partir dos anos oitenta, os educadores e as instituições formadoras dela não conseguiram libertar-se inteiramente neste início de um novo milênio. Por outro lado, foi possível perceber que a formação inicial ou continuada em nível superior, na universidade, possibilita maior e mais consistente aprofundamento teórico, permitindo aos docentes e futuros docentes a visão mais clara do sentido da profissão, do "fazer-se" e do "ser" educador como um agente compromissado no desenvolvimento de uma educação emancipatória, voltada para o desenvolvimento de uma sociedade mais justa para todos os cidadãos.
Resumo:
o ambiente econômico atual tem imposto desafios em atividades como atendimento de pedidos de produção, com lotes e prazos de entrega cada vez menores e garantia de inexistência de erros de qualidade e entrega. Portanto, se faz imperativo um tratamento diferenciado da manutenção dos equipamentos, exigindo o uso de tecnologias que permitam, através da minimização dos tempos envolvidos em reparos, avanços contínuos na direção de "zero-quebra" e "zero-defeito". Embora a busca sempre deva ser de eliminar paradas por quebra, atacando suas causas na raiz, através de ações de melhoramento contínuo das condições das máquinas e instalações, estas ainda persistem. Seja por falta de recursos para a implantação das ações técnicas necessárias ou pela inviabilidade econômica desta implantação, as intervenções corretivas, que em quase sua totalidade estão estruturadas com base na experiência individual dos profissionais da área, continuam sendo requeridas. A empresa fica então na dependência da correta avaliação de profissionais especialistas, os quais são também suscetíveis a erros de diagnóstico, o que coloca em risco a continuidade das operações fabris. Este trabalho revisa o conceito de TPM (Total Productive Management ou Gestão Produtiva Total) aplicado a organizações, processos produtivos e resultados potenciais tangíveis e intangíveis de sua aplicação. A manutenção planejada, um dos pilares do TPM onde são focalizadas as intervenções por quebra-máquina, descreve as divisões de atividades em uma intervenção de conserto. Neste ponto são localizadas as etapas onde o CBR (Case-Based Reasoning) ou Raciocínio Baseado em Casos, pode ser utilizado a fim de minimizar o tempo total da intervenção. Um protótipo de CBR é criado para auxiliar especialistas de manutenção durante o processo de diagnóstico de causas de quebras de máquinas. Este protótipo utiliza CBR como método para armazenamento de casos pregressos de quebras de máquina. A base de casos do CBR fornece ferramentas para recuperação e reutilização destas experiências quando da recorrência da quebra de máquina, auxiliando profissionais da manutenção a executar seu trabalho O pacote de ferramentas CBR Content Navigator, Versão 3.2 desenvolvido pela Inference CorporationTM foi utilizado como: (i) repositório para modelagem e armazenamento do banco de casos, (ii) mecanismo de recuperação (ou busca) de casos na base do sistema e, (iii) ferramentas para apresentar a solução dos problemas de quebra de máquina.
Resumo:
O objetivo do presente trabalho é realizar a concepção de um sistema para a aprendizagem de demonstrações da Geometria Euclidiana Plana e a implementação de um protótipo deste sistema, denominado LEEG - Learning Environment on Euclidean Geometry, desenvolvido para validar as idéias utilizadas em sua especificação. Nos últimos anos, tem-se observado uma crescente evolução dos sistemas de ensino e aprendizagem informatizados. A preocupação com o desenvolvimento de ambientes cada vez mais eficientes, tanto do ponto de vista computacional quanto pedagógico, tem repercutido em um salto de qualidade dos software educacionais. Tais sistemas visam promover, auxiliar e motivar a aprendizagem das mais diversas áreas do conhecimento, utilizando técnicas de Inteligência Artificial para se aproximarem ao máximo do comportamento de um tutor humano que se adapte e atenda às necessidades de cada aluno. A Geometria pode ser vista sob dois aspectos principais: considerada como uma ciência que estuda as representações do plano e do espaço e considerada como uma estrutura lógica, onde a estrutura matemática é representada e tratada no mais alto nível de rigor e formalismo. Entretanto, o ensino da Geometria, nos últimos anos, abandonou quase que totalmente sua abordagem dedutiva. Demonstrações de teoremas geométricos não são mais trabalhadas na maioria das escolas brasileiras, o que repercute em um ensino falho da Matemática, que não valoriza o desenvolvimento de habilidades e competências relacionadas à experimentação, observação e percepção, realização de conjecturas, desenvolvimento de argumentações convincentes, entre outras. Levando-se em conta este cenário, desenvolveu-se o LEEG, um sistema para a aprendizagem de demonstrações geométricas que tem como objetivo auxiliar um aprendiz humano na construção de demonstrações da Geometria Euclidiana Plana. O sistema foi modelado sobre uma adaptação do protocolo de aprendizagem MOSCA, desenvolvido para suportar ambientes de ensino informatizados, cuja aprendizagem é baseada na utilização de exemplos e contra-exemplos. Este protocolo propõe um ambiente de aprendizagem composto por cinco agentes, dentre os quais um deles é o aprendiz e os demais assumem papéis distintos e específicos que completam um quadro de ensino-aprendizagem consistente. A base de conhecimento do sistema, que guarda a estrutura lógica-dedutiva de todas as demonstrações que podem ser submetidas ao Aprendiz, foi implementada através do modelo de autômatos finitos com saída. A utilização de autômatos com saída na aplicação de modelagem de demonstrações dedutivas foi extremamente útil por permitir estruturar os diferentes raciocínios que levam da hipótese à tese da proposição de forma lógica, organizada e direta. As demonstrações oferecidas pelo sistema são as mesmas desenvolvidas por Euclides e referem-se aos Fundamentos da Geometria Plana. São demonstrações que priorizam e valorizam a utilização de objetos geométricos no seu desenvolvimento, fugindo das demonstrações que apelam para a simples manipulação algébrica e que não oferecem uma construção significativa do ponto de vista da Geometria. Porém, mesmo sendo consideradas apenas as demonstrações contidas em Elements, todos os diferentes raciocínios para uma mesma demonstração são aceitos pelo sistema, dando liberdade ao aprendiz no processo de construção da demonstração.
Resumo:
A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.