58 resultados para Redes em chip. Processadores. IPNoSyS. Paralelismo.Software Pipelining. Desempenho
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
Este estudo objetiva analisar as representações sociais da aids produzidas por enfermeiras atuantes em dois níveis distintos de atenção aos sujeitos que vivem com HIV/Aids e suas implicações para o cuidado desenvolvido por esse grupo profissional. Trata-se de um estudo exploratório-descritivo, pautado na abordagem qualitativa, orientado pela Teoria das Representações Sociais, em sua abordagem processual. Os sujeitos do estudo foram enfermeiras, atuantes em instituições públicas de saúde da cidade do Rio de Janeiro, sendo 10 da rede hospitalar e 9 da rede básica. A coleta de dados deu-se por meio de um roteiro de entrevista semi-estruturada e um questionário de caracterização. Para a análise dos dados foi utilizada a técnica de análise lexical, realizada pelo software Alceste 4.10. Na análise do grupo total de sujeitos foram definidas seis categorias: "Memórias sócio profissionais de enfermeiras sobre o HIV/Aids", abordando os atores sociais atingidos pela aids no passado e na atualidade, as memórias das enfermeiras sobre aids e os estereótipos presentes em cada período; "O cuidado relacionado à autoproteção ao HIV/Aids", referindo-se as medidas de proteção ao HIV/Aids adotadas pelas enfermeiras tanto em suas vidas profissionais quanto pessoais; "Dimensões práticas do atendimento e do cuidado", destacando elementos do cotidiano assistencial, com ênfase nas diferentes formas de compreensão do cuidado; "As famílias atingidas pela aids", com conteúdos relativos às vivências das enfermeiras em situações da aids no contexto familiar; "As políticas públicas e instituicionais e a aids", relativa as percepções das enfermeiras sobre as políticas de saúde; "O tratamento medicamentoso do HIV/Aids", com conteúdos relativos às dificuldades percebidas para a adesão ao tratamento medicamentoso por parte dos sujeitos com HIV/Aids. A análise cruzada da variável nível de atenção permitiu observar que a representação da aids no grupo de enfermeiras da rede hospitalar encontra-se ancorada em elementos negativos relativos ao passado, embora apontem também para novos elementos representacionais no presente; enquanto as enfermeiras de rede básica representam a aids a partir de elementos relativos à prática assistencial cotidiana. A representação da aids para o grupo de enfermeiras estudado abarca elementos tais como: sentimento de insegurança em relação ao próprio parceiro, devido a situações que vivenciam, imagem dos sujeitos que vivem com HIV/Aids em transição devido às mudanças ocorridas no perfil epidemiológico; atitudes distintas no campo profissional, relacionadas às formas de contágio e persistência de identificação dos sujeitos que vivem com HIV/Aids como vítimas ou culpados. Apesar de afirmarem inexistir diferenças no cuidado de enfermagem às pessoas que vivem com o HIV/Aids quando comparado ao cuidado aos sujeitos com outras patologias, enfatizam a necessidade de maior cautela devido ao risco de contágio em relação aos primeiros, caracterizando uma contradição no discurso. Conclui-se que existem diferenças nas representações sociais das enfermeiras de acordo com o nível de atenção no qual atuam e que há repercussões singulares na forma que o cuidado de enfermagem é desenvolvido, a partir dessas representações.
Resumo:
O objetivo deste trabalho é conhecer e compreender melhor os imprevistos no fornecimento de energia elétrica, quando ocorrem as variações de tensão de curta duração (VTCD). O banco de dados necessário para os diagnósticos das faltas foi obtido através de simulações de um modelo de alimentador radial através do software PSCAD/EMTDC. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar VTCDs e realizar a estimativa automática da frequência, do ângulo de fase e da amplitude das tensões e correntes da rede elétrica. Nesta pesquisa, desenvolveram-se duas redes neurais artificiais: uma para identificar e outra para localizar as VTCDs ocorridas no sistema de distribuição de energia elétrica. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas desequilibradas, que podem possuir ramais laterais trifásicos, bifásicos e monofásicos. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões e correntes no nó inicial do alimentador e também em alguns pontos esparsos ao longo do alimentador de distribuição. Os desempenhos das arquiteturas das redes neurais foram satisfatórios e demonstram a viabilidade das RNAs na obtenção das generalizações que habilitam o sistema para realizar a classificação de curtos-circuitos.
Resumo:
Redes embutidas (NoC, Network-on-Chip) vêm sendo adotadas como uma solução interessante para o projeto de infraestruturas de comunicação em sistemas embutidos (SoC, System-on-Chip). Estas redes são em geral parametrizadas, podendo assim ser utilizadas em vários projetos de SoCs, cada qual com diferentes quantidades de núcleos. NoCs permitem uma escalabilidade dos sistemas, ao mesmo tempo que balanceiam a comunicação entre núcleos. Projetos baseados em NoC visam a implementação de uma aplicação específica. Neste contexto, ferramentas de auxílio de projeto são essenciais. Estas ferramentas são projetadas para, a partir de uma descrição simples da aplicação, realizar sucessivos processos de otimização que irão modelar as várias características do sistema. Estes algoritmos de otimização são necessários para que a rede atenda a um conjunto de restrições, como área, consumo de energia e tempo de execução. Dentre estas etapas, pode ser incluído o roteamento estático. As rotas através da rede por onde os núcleos irão se comunicar são otimizadas, de forma a minimizar o tempo de comunicação e os atrasos na transmissão de pacotes ocasionados por congestionamentos nas chaves que compõem a NoC. Nesta dissertação, foi utilizada a otimização por colônia de formigas no cálculo dos percursos. Esta é uma meta-heurística interessante para a solução de problemas de busca em grafos, inspirada no comportamento de formigas reais. Para os algoritmos propostos, múltiplas colônias são utilizadas, cada uma encarregada pela otimização do percurso de uma mensagem. Os diferentes testes realizados mostram o roteamento baseado no Elitist Ant System obtendo resultados superiores a outros algoritmos de roteamento.
Resumo:
As sintonias dos Controladores PID existentes em um Sistema de Posicionamento Dinâmico, utilizado em embarcações e plataformas a fim de manter uma posição fixa em alto-mar ou de realizar determinada manobra, sempre tem sido um desafio a ser vencido. Trata-se de uma tarefa demorada, dependente das condições ambientais e com um elevado custo financeiro, uma vez que as horas dedicadas do profissional habilitado são caras. Além disso, a embarcação deve-se manter estabilizada durante o período de tempo no qual determinada função é realizada, como por exemplo, perfuração, abastecimento, ou lançamento de dutos. Foi utilizado um software para simular o posicionamento de uma embarcação em alto-mar sob diversas condições de vento e correnteza, com o qual foi possível verificar a influência da sintonia dos parâmetros PID do Controlador no desempenho do sistema de controle. O Sistema dinâmico abordado possui um comportamento não linear e sujeito a fortes distúrbios não medidos, o que são apenas alguns exemplos de questões avaliadas deste trabalho. Neste contexto, foram projetadas Redes Neurais com o intuito de aprimorar a técnica utilizada para determinar os ganhos de um dos Controladores PID de um Sistema de Posicionamento Dinâmico. Os melhores resultados foram obtidos através da avaliação de desempenho de diversas simulações de Redes Neurais que revelam a viabilidade da implementação da sintonia automática de Controladores em Sistemas de Posicionamento Dinâmico.
Resumo:
Este trabalho de pesquisa tem por objetivo apresentar e investigar a viabilidade de um método numérico que contempla o paralelismo no tempo. Este método numérico está associado a problemas de condição inicial e de contorno para equações diferenciais parciais (evolutivas). Diferentemente do método proposto neste trabalho, a maioria dos métodos numéricos associados a equações diferencias parciais evolutivas e tradicionalmente encontrados, contemplam apenas o paralelismo no espaço. Daí, a motivação em realizar o presente trabalho de pesquisa, buscando não somente um método com paralelismo no tempo mas, sobretudo, um método viável do ponto de vista computacional. Para isso, a implementação do esquema numérico proposto está por conta de um algoritmo paralelo escrito na linguagem C e que utiliza a biblioteca MPI. A análise dos resultados obtidos com os testes de desempenho revelam um método numérico escalável e que exige pouco nível de comunicação entre processadores.
Resumo:
Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.
Resumo:
A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
Deposição é um fenômeno indesejável que ocorre na superfície dos trocadores de calor ao longo de sua operação, ocasionando redução na efetividade térmica e aumento da resistência ao escoamento nestes equipamentos. Estes efeitos trazem grandes consequências econômicas e ambientais, devido ao aumento dos custos operacionais (energia adicional é requerida), aumento dos custos de projeto (demanda por equipamentos de maior área de troca térmica), limitações hidráulicas (que pode levar a uma diminuição da carga processada) e aumento das emissões (aumento da queima de combustíveis fósseis para suprir a energia adicional requerida). Neste contexto, o presente trabalho tem por objetivo fornecer ferramentas computacionais robustas que apliquem técnicas de otimização para o gerenciamento da deposição em redes de trocadores de calor, visando minimizar os seus efeitos negativos. Estas ferramentas foram desenvolvidas utilizando programação matemática no ambiente computacional GAMS, e três abordagens distintas para a resolução do problema da deposição foram pesquisadas. Uma delas consiste na identificação do conjunto ótimo de trocadores de calor a serem limpos durante uma parada para manutenção da planta, visando restaurar a carga térmica nesses equipamentos através da remoção dos depósitos existentes. Já as duas outras abordagens consistem em otimizar a distribuição das vazões das correntes ao longo de ramais paralelos, uma de forma estacionária e a outra de forma dinâmica, visando maximizar a recuperação de energia ao longo da rede. O desempenho destas três abordagens é ilustrado através de um conjunto de exemplos de redes de trocadores de calor, onde os ganhos reais obtidos com estas ferramentas de otimização desenvolvidas são demonstrados
Resumo:
As transformações sociais advindas da popularização de Tecnologias da Informação e Comunicação (TICs) como a Internet são flagrantes. E a regulamentação destas novas práticas deve ser condizente com as peculiaridades das relações jurídicas desenvolvidas neste âmbito. Este trabalho visa analisar o problema da responsabilidade civil por danos à pessoa humana sofridos no âmbito dos sites de redes sociais pela criação e uso de perfis falsos. Assim, primeiramente, faz-se uma análise introdutória do fenômeno da Internet e das visões sobre as possíveis formas de regulamentação jurídica das condutas praticadas por meio da Rede. Posteriormente, adstringe-se à temática dos danos morais, buscando-se conceituá-los sob a ótica civil constitucional, como danos à pessoa humana. Finalmente, chega-se ao estudo dos perfis falsos, enfrentando-se a problemática dos danos morais sofridos por seu manejo. São desdobradas em três subproblemas: se são ou não capazes civilmente os usuários, chegando-se ao estudo dos perfis de menores de idade; se existem ou não as pessoas representadas nos perfis, subdividindo-se a análise nas hipóteses de perfis criados em roubo de identidade e perfis que representem criações intelectuais e; se estão ou não vivas as pessoas descritas nos perfis, trazendo-se à baila a hipótese dos perfis de pessoas falecidas.
Resumo:
O objetivo desta tese é discutir como os moradores de favelas no Rio de Janeiro fazem para experimentar segurança em meio ao cotidiano marcado por inseguranças, violência e vulnerabilidade social. Minha hipótese central é que os moradores destas localidades visualizam nas lealdades primordiais (GEERTZ, 2008 [1973]), nas relações de vizinhança e em redes formadas em torno do pertencimento a instituições religiosas, sobretudo as pentecostais e neopentecostais a base da segurança necessária para organizarem suas vidas, suas rotinas. Busquei responder às questões que me animavam a partir de um investimento etnográfico em duas favelas cariocas, a saber, Santa Marta, localizada no bairro de Botafogo, Zona Sul, e, principalmente, Acari, localizada entre bairros da Zona Norte da cidade. Ao longo da etnografia realizei entrevistas semi-estruturadas com moradores evangélicos, traficantes, homens, mulheres, jovens e idosos, lideranças políticas e culturais. A partir destas entrevistas, assim como das conversas informais com moradores nestas favelas, pude observar a grande dificuldade que os moradores das referidas localidades têm, face à violência, para experimentar constantemente segurança e confiança, mesmo no caso dos moradores que desfrutam de densas redes de solidariedade e proteção baseadas no parentesco e/ou na partilha de identidade religiosa pentecostal. A paranóia, o medo da fofoca e do inimigo à espreita tomam conta do cotidiano de moradores (e também de traficantes). Neste contexto, identifiquei nas suas tentativas de consolidação de vínculos sociais e afetivos, mas também em seus diversos cálculos em termos de evitação da violência suas principais estratégias para viver o dia-a-dia com certa tranqüilidade. O curso da etnografia possibilitou, ainda, refletir sobre a importância da articulação analítica de dois eixos temáticos para o estudo da favela como fenômeno urbano/social hoje: religião e violência. Esta avaliação é fruto da observação das aproximações entre traficantes que passaram, nessas localidades, a experimentar novas formas de expressão de fé. Se, nas décadas de 1980-1990, os traficantes de Acari expunham em seus corpos, em suas casas e nos muros da favela imagens e orações que remetiam ao universo religioso afro-brasileiro, na atualidade, acionam uma gramática pentecostal e pintam nos muros da favela salmos e outras passagens bíblicas. Se antes pediam proteção às mães-de-santo, agora pedem proteção às lideranças evangélicas e à comunidade de irmãos, assim como comemoram seus aniversários em cultos de ação de graça. A interface entre traficantes e evangélicos nas favelas estudadas, com destaque para Acari, vem produzindo, sustento, reequilíbrios de poder no interior do campo político e religioso local e, até, supralocal.
Resumo:
Diferentes organizações públicas e privadas coletam e disponibilizam uma massa de dados sobre a realidade sócio-econômica das diferentes nações. Há hoje, da parte do governo brasileiro, um interesse manifesto de divulgar uma gama diferenciada de informações para os mais diversos perfis de usuários. Persiste, contudo, uma série de limitações para uma divulgação mais massiva e democrática, entre elas, a heterogeneidade das fontes de dados, sua dispersão e formato de apresentação pouco amigável. Devido à complexidade inerente à informação geográfica envolvida, que produz incompatibilidade em vários níveis, o intercâmbio de dados em sistemas de informação geográfica não é problema trivial. Para aplicações desenvolvidas para a Web, uma solução são os Web Services que permitem que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis. Neste sentido, o objetivo do trabalho é mostrar as possibilidades de construção de portais usando software livre, a tecnologia dos Web Services e os padrões do Open Geospatial Consortium (OGC) para a disseminação de dados espaciais. Visando avaliar e testar as tecnologias selecionadas e comprovar sua efetividade foi desenvolvido um exemplo de portal de dados sócio-econômicos, compreendendo informações de um servidor local e de servidores remotos. As contribuições do trabalho são a disponibilização de mapas dinâmicos, a geração de mapas através da composição de mapas disponibilizados em servidores remotos e local e o uso do padrão OGC WMC. Analisando o protótipo de portal construído, verifica-se, contudo, que a localização e requisição de Web Services não são tarefas fáceis para um usuário típico da Internet. Nesta direção, os trabalhos futuros no domínio dos portais de informação geográfica poderiam adotar a tecnologia Representational State Transfer (REST).
Resumo:
Nesta dissertação foi desenvolvido o sistema SAQUA (Sistema para Análise da Qualidade das Águas Fluviais), que permite o acompanhamento dos dados de séries históricas de parâmetros físico-químicos para análise da qualidade de águas fluviais. A alimentação do sistema SAQUA se dá a partir do arquivo tipo texto gerado no Hidroweb, sistema de banco de dados hidrológicos da ANA (Agência Nacional de Águas), disponibilizado na internet. O SAQUA constitui uma interface que permite a análise espaço-temporal de parâmetros de qualidade da água específicos definidos pelo usuário. A interface foi construída utilizando o servidor de mapas Mapserver, as linguagens HTML e PHP, além de consultas SQL e o uso do servidor Web Apache. A utilização de uma linguagem dinâmica como o PHP permitiu usar recursos internos do Mapserver por meio de funções que interagem de forma mais flexível com códigos presentes e futuros, além de interagir com o código HTML. O Sistema apresenta como resultado a representação gráfica da série histórica por parâmetro e, em mapa, a localização das estações em análise também definidas pelo usuário, geralmente associadas a uma determinada região hidrográfica. Tanto na representação gráfica da série temporal quanto em mapa, são destacados a partir de código de cores a estação de monitoramento e a observação em que os limites estabelecidos na resolução CONAMA 357/05 não foi atendido. A classe de uso da resolução CONAMA que será usada na análise também pode ser definida pelo usuário. Como caso de estudo e demonstração das funções do SAQUA foi escolhida a bacia hidrográfica do rio Paraíba do Sul, localizada na região hidrográfica Atlântico Sudeste do Brasil. A aplicação do sistema demonstrou ótimos resultados e o potencial da ferramenta computacional como apoio ao planejamento e à gestão dos recursos hídricos. Ressalta-se ainda, que todo o sistema foi desenvolvido a partir de softwares disponibilizados segundo a licença GPL de software livre, ou seja, sem custo na aquisição de licenças, demonstrando o potencial da aplicação destas ferramentas no campo dos recursos hídricos.