77 resultados para Tráfego veicular
Resumo:
As alterações da qualidade estrutural do solo pelo uso continuado do sistema plantio direto ocorre junto com o processo de sua (re)acidificação. Em algumas circunstâncias, ocorre também compactação superficial devido ao tráfego de máquinas, que necessita ser corrigida pela mobilização do solo. Assim, avaliou-se os efeitos acumulados e a curto prazo de mobilizar ou não o solo por ocasião das reaplicações de calcário sobre os atributos físicos e químicos no perfil do solo e o rendimento de culturas em diferentes preparos de solo. Foi utilizado um experimento de 12 anos no sistema plantio direto (SPD) e preparo convencional (PC) instalado em Argissolo Vermelho Distrófico típico na EEA-UFRGS. Determinou-se os atributos físicos (densidade, porosidade e estabilidade de agregados) e químicos (pH em água, índice SMP, teor de matéria orgânica, cálcio, magnésio e alumínio trocáveis e CTC efetiva) em três camadas (0,0-2,5; 2,5-7,5 e 7,5-15,0 cm) do solo e a produtividade das culturas de milho e aveia + ervilhaca. O SPD por quatro anos após o revolvimento recuperou os atributos físicos do solo à condição original. O revolvimento propiciou condições mais favoráveis de densidade e porosidade do solo, mas diminuiu a estabilidade de agregados, que não retornou à condição original após doze meses. Os atributos físicos do solo foram mais uniformes no PC, mas com menor estabilidade de agregados na camada superficial. O PC propiciou a situação menos desejável para os atributos químicos do solo. O efeito da aplicação superficial de calcário no SPD consolidado (oito e doze anos) atingiu a profundidade de 15 cm em doze meses, nos atributos químicos. As diferenças nos atributos físicos e químicos do solo decorrentes dos sistemas de manejo não foram suficientes para afetar a produtividade das culturas.
Resumo:
O presente trabalho trata do desenvolvimento do projeto mecânico do mecanismo de aplicação de carga do sistema de deslocamento longitudinal do Simulador de Tráfego UFRGS DAERlRS. Esta é uma máquina utilizada para executar teste acelerado em pavimentos rodoviários. O sistema mecânico que executa o deslocamento longitudinal é composto de um chassi tipo carro que se movimenta de forma alternada dentro de uma estrutura metálica ao longo de 12 metros. Neste sistema mecânico deverá estar acop1ado um par de pneus para fazer a aplicação da carga por rolamento sobre a pista que estará sendo testada pelo simulador de tráfego. A cada ciclo completo um atuador hidráulico fará o respectivo carregamento sobre o garfo que guia os pneus, num único sentido, ou seja, no retomo o atuador suspende este mesmo garfo garantindo que não haja contato com a pista. A magnitude da carga aplicada deverá ser mantida constante e devidamente monitorada no decorrer dos ensaios. Para isso, conta-se com a imp1ementação de elementos elásticos e células de carga no conjunto. Para o desenvolvimento deste estudo foi empregada uma metodologia para o processo de projeto que se desdobra em quatro fases principais: Projeto Informacional, Projeto Conceitual, Projeto Preliminar e Projeto Detalhado. Tem-se como resultado deste 1rabalho o projeto mecânico do mecanismo de aplicação de carga do Simulador de Tráfego UFRGS-DAERlRS que poderá ser facilmente fabricado e imp1ementado no equipamento existente. O projeto foi elaborado considerando os itens montagem, manutenção e operação, o que resultará em aumento da sua performance durante sua utilização.
Resumo:
A cada ano, mais de 500.000 pessoas vêm a falecer em acidentes de trânsito no mundo. No Brasil, estima-se entre 30.000 e 50.000 mortos no mesmo período. A velocidade elevada é considerada como um dos principais fatores determinantes dos acidentes e da gravidade dos mesmos. O presente trabalho desenvolve uma análise da consistência geométrica de rodovias de pistas simples no Estado do Rio Grande do Sul, através da elaboração de modelos de previsão da velocidade operacional, em duas etapas distintas. Na primeira etapa, a partir da coleta de dados de velocidades pontuais e de elementos geométricos da rodovia, é elaborado um modelo que permite prever o comportamento do condutor, quanto à velocidade que emprega em seu veículo segundo diferentes condicionantes geométricas. Na segunda etapa, o modelo proposto é aplicado sobre diferentes segmentos viários de rodovias de pista simples do Estado do Rio Grande do Sul, para obtenção das velocidades operacionais previstas e os resultados comparados entre si e com as velocidades de projeto e a velocidade regulamentada. A análise dos resultados para obtenção do modelo conclui como única variável significativa para a elaboração do mesmo, entre as diversas analisadas, o raio planimétrico. Já a análise da consistência geométrica das rodovias, através da aplicação do modelo proposto, indicou que estas apresentam projetos geométricos classificados como bons quanto a sua fluidez, mas classificados como fracos quanto ao dimensionamento dos elementos geométricos de segurança (superelevação, superlargura e distâncias de visibilidade) em decorrência de diferenças superiores a 20 km/h entre a velocidade operacional e a velocidade de projeto. Por fim, observa que as rodovias projetadascom velocidadediretriz de 60 km/h ou inferior são as que apresentam os piores resultados na análise da consistência geométrica e que o condutor brasileiro (observado na elaboração do modelo) não pode ser considerado um velocista, mas sim, um condutor mais "ousado", em situações adversas, se comparado a condutores de outros países, em especial, dos Estados Unidos.
Resumo:
A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.
Resumo:
O presente trabalho é uma análise experimental que procura investigar os efeitos dos fatores carga por eixo, pressão de inflação e tipo de pneu sobre o desempenho de pavimentos. Os dados e informações existentes sobre o quadro de cargas por eixo praticada pela frota de veículos pesados é razoável. A ação conjunta dos referidos fatores é ainda uma questão pouco explorada. Assim, para compensar a escassez de dados sobre pressão de inflação e tipo de construção de pneus utilizados na frota de carga, programou-se uma pesquisa de campo na rodovia estadual RS/240. As informações oriundas da pesquisa demonstram que há um acréscimo generalizado no valor da pressão dos pneus e um aumento de uso dos pneus de fabricação radial em relação aos pneus convencionais. Os dados de campo subsidiaram a programação de um experimento fatorial cruzado executado na Área de Pesquisas e Testes de Pavimentos da UFRGS/DAER. A variação dos níveis dos fatores deu-se através de um simulador linear de tráfego atuando sobre uma pista experimental com 20 m de comprimento por 3,5 m de largura. Tendo como resposta estrutural do pavimento a máxima deflexão superficial recuperável medida com uma viga Benkelmam, determinou-se como significantes os efeitos dos fatores carga por eixo e pressão de enchimento dos pneus. Os cálculos estatísticos indicam também que não há diferenças significativas entre os pneus tipo 9.00R20 e 9.00x20 e que todas interações não exercem efeitos significativos sobre a variável de resposta. Em seqüência, determinaram-se as áreas de contato do rodado duplo do simulador de tráfego com a superfície do pavimento ensaiado para as combinações dos níveis dos fatores. Pode-se, então, comparar área de contato medida com área circular calculada, considerada em muitos modelos de dimensionamento de pavimentos. Relacionou-se a variação da pressão de contato com a deflexão recuperável e procedeu-se uma comparação da mesma com a pressão de inflação nominal dos pneus. Apresenta-se um modelo de análise do desempenho do pavimento em função da carga por eixo e da pressão de inflação, nos limites do experimento. Os dados decorrentes do experimento viabilizaram a determinação dos Fatores de Equivalência de Cargas para os níveis dos fatores, considerando-se o pavimento ensaiado. Avaliou-se, via evolução das deflexões e dos Fatores de Equivalência de Cargas, a redução da vida do pavimento, obtendo-se, para a combinação de níveis mais críticos de carregamento, resultados significativos de até 88 % de redução. Propõe-se, por último, uma formulação para o Fator de Equivalência de Cargas que considere também a ação da pressão de inflação.
Resumo:
O presente trabalho propõe um processo de monitoramento de medidas visando a redução de acidentes de tráfego aplicadas em vias rurais e urbanas. O monitoramento é definido como um conjunto de técnicas que são aplicadas seqüencialmente para a caracterização do desempenho de medidas mitigadoras. O processo de monitoramento é apresentado passo a passo no que se refere às várias técnicas e ações contempladas. Do processo de monitoramento participam técnicas que incorporam, entre outras, o fenômeno de regressão à média, o fenômeno de migração de acidentes e a análise de conflitos de tráfego.
Resumo:
Neste trabalho, são apresentados os resultados obtidos em estudos realizados com o propósito de compreender e quantificar o desempenho de estruturas de pavimentos flexíveis em concreto asfáltico submetidas a ensaios acelerados em escala real com um simulador linear de tráfego. Para tornar possível o monitoramento evolutivo da degradação oferecida por pavimentos flexíveis ao longo do tempo, em termos dos mecanismos principais que condicionam a vida de serviço deste tipo de estrutura, foram construídas e instrumentadas seis seções experimentais, das quais duas foram submetidas aos esforços das cargas do tráfego durante o desenvolvimento deste trabalho. O monitoramento das condições funcional e estrutural das pistas experimentais permitiu o estabelecimento de modelos de regressão que reproduzem o desempenho dos pavimentos em termos da evolução do trincamento do revestimento asfáltico, ocorrência de afundamentos em trilha de roda e evolução das tensões verticais no subleito Os pavimentos foram instrumentados com medidores de tensões e deformações instalados em diferentes pontos no seu interior. Analisam-se processos para cálculo de tensões e deformações em estruturas de pavimentos flexíveis com base na interpretação da instrumentação instalada nas pistas experimentais. Foram investigados aspectos relativos à previsão do desempenho estrutural das seções avaliadas, visando trazer subsídios para a estruturação de modelos de previsão de desempenho. Foi confirmada uma tendência logarítmica de crescimento dos afundamentos em trilha de roda com o tráfego acumulado. Conclui-se pela necessidade da identificação de fatores de correção para determinação de tensões através de células de tensão total em solos. Os resultados das avaliações realizadas revelam que os módulos de elasticidade retroanalisados do FWD e da viga eletrônica se mostraram adequados à interpretação do desempenho estrutural dos pavimentos experimentais. Em contrapartida, os módulos de elasticidade derivados de ensaios laboratoriais, realizados em diferentes épocas, não refletiram as condições apresentadas pelos pavimentos no campo.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
Resumo:
No Brasil, a idéia original era de se utilizar o gás natural como substituto do óleo diesel para o uso na frota de veículos pesados nos centros urbanos. Esta idéia deu lugar a uma maior difusão do uso de gás natural na frota de veículos leves, em função de algumas dificuldades inerentes ao mercado do gás natural como substituto do óleo diesel, tais como a pequena diferença de preços entre o óleo diesel e o gás natural. Com a liberação do uso de gás natural para veículos a gasolina, a partir de 1992, e o crescimento de postos de abastecimento, tem-se notado um grande aumento de veículos convertidos, nas cidades onde o combustível encontra-se disponível, como Porto Alegre. Devido ao aumento de veículos convertidos, decidiu-se elaborar um trabalho que descreve os principais componentes dos “Kits” de conversão encontrados atualmente no mercado para os veículos equipados com carburador e injeção eletrônica, assim como procedimentos para a correta instalação destes componentes. Simultaneamente efetuou-se testes em veículos convertidos para o uso do gás natural, com a obtenção de curvas de potência as quais estabelecem um comparativo entre a utilização de gasolina e gás natural. Também foram feitas análises quanto a emissões de gases tóxicos dos veículos convertidos e a verificação do fator Lambda responsável pela máxima potência ao utilizar-se gás natural como combustível Sendo assim, tem-se como objetivos neste trabalho, a análise do desempenho de veículos adaptados para o uso do gás natural em relação a veículos alimentados com combustíveis líquidos, descrevendo detalhadamente os elementos necessários para a conversão de um veículo, procedimentos básicos para uma conversão eficiente e segura, e vários testes de veículos relacionando o uso do gás natural comparativamente ao uso de combustível líquido. O trabalho é concluído com a indicação dos “Kits” de conversão mais eficientes além da demonstração de algumas técnicas de regulagem baseadas nos resultados obtidos nos testes com os veículos convertidos, as quais visam a redução da perda demasiada de potência, a redução do consumo de combustível gás e a redução das emissões de gases tóxicos.
Resumo:
Acredita-se que no futuro as redes de telecomunicação e dados serão integradas em uma só rede, baseada na comutação de pacotes IP. Esta rede deverá oferecer serviços com qualidade (QoS) para as aplicações atuais e futuras. Uma das tecnologias que deverá ser adotada no núcleo desta nova rede é MPLS. MPLS introduz o conceito de switching (comutação) no ambiente IP e também permite que seja implementada a Engenharia de Tráfego, otimizando sua utilização através do roteamento baseado em restrições. Junto com MPLS outras arquiteturas para fornecimento de QoS, como Serviços Integrados e Serviços Diferenciados, serão utilizadas. Entretanto, como nenhuma delas atende a todos os requisitos para garantia de QoS fim a fim e levando-se em consideração o fato de a Internet ser uma rede heterogênea, surge a necessidade de um framework que permita a interoperabilidade das diferentes arquiteturas existentes. Neste trabalho é proposto um modelo de integração que fornece garantias de QoS fim a fim para redes que utilizam tanto Serviços Integrados como Serviços Diferenciados através do emprego de uma infra-estrutura baseada em MPLS e Serviços Diferenciados. A aplicabilidade do modelo foi testada no simulador ns2 e os resultados são apresentados neste trabalho.
Resumo:
A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos de vídeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.
Resumo:
Monitorar significa, de forma genérica, acompanhar e avaliar dados fornecidos por aparelhagem técnica. Quando se fala em monitoramento de uma rede, não se está fugindo desta idéia. Para monitorar a rede são utilizados mecanismos para coletar dados da mesma, sendo estes dados posteriormente avaliados. O monitoramento da rede é, sob o ponto de vista da administração da mesma, uma atividade indispensável. Através desta operação é possível obter conclusões sobre a “saúde” da rede. A busca e análise dos dados da rede podem ser feitas com vários enfoques, cada um buscando cercar uma situação específica, onde entre outros, destacam-se a segurança e a carga da rede. A proposta de fazer uso de algum recurso que permita monitorar a rede fica cada vez mais importante, à medida que as redes têm crescido em tamanho e importância para as organizações. Atualmente, é comum se falar em redes locais com centenas e até milhares de computadores conectados. Associada a esta realidade existe ainda a conexão com a Internet, que faz com que o número de máquinas em contato, suba para valores gigantescos. Os usuários de computador que estão conectados a uma rede, podem estar, fisicamente, muito longe dos olhos do administrador da mesma. Com isso, este sente-se obrigado a utilizar ferramentas que permita monitorar a rede, uma vez que não tem controle sobre os usuários. Sob o ponto de vista da segurança, a preocupação está em verificar a possível ocorrência de ataques ou detectar problemas nas configurações dos mecanismos de segurança implementados. Já quanto à carga da rede, o enfoque é monitorar os tipos de acessos e serviços utilizados, a fim de identificar atividades supérfluas que possam estar sobrecarregando a rede. O presente trabalho tem por objetivo estudar meios para construir uma ferramenta que permita verificar, de forma on-line, as conexões TCP/IP que estão ativas na rede local, seja uma conexão entre duas máquinas da rede local, ou com a Internet, possibilitando visualizar os serviços que estão sendo acessados e a quantidade de tráfego gerada pelos computadores. Ao final será construído um protótipo a fim de validar o estudo feito. O estudo parte da análise do padrão de rede Ethernet, que é ambiente a ser utilizado neste estudo. Na seqüência serão estudadas as características dos principais protocolos da família TCP/IP, que é o conjunto de protocolo utilizado pela grande maioria das redes, inclusive pela maior delas, que é a Internet. Em uma fase posterior, serão estudadas as formas de se fazer o monitoramento em uma rede Ethernet e as ferramentas de monitoramento existentes. Na seqüência, os detalhes do protótipo para monitorar conexões TCP/IP são apresentados bem como os resultados dos testes de validação do mesmo.
Resumo:
o presente trabalho apresenta dados referentes a um levantamento dos níveis de pressão sonora equivalente (Leq),para as 24 horas de um dia típico de semana, em diversos pontos da cidade de Porto Alegre, no Rio Grande do Sul. As informações são processadas através de diferentes análises estatísticas, comparadas com dados de trabalhos anteriores e com resultados de equações de predição de ruído urbano. A metodologia adotada é semelhante à utilizada por García & Faus (1991), em trabalho realizado em cidades da Espanha. O levantamento dos dados de ruído urbano, em período de 24 horas, permite um maior nível de detalhes para a geração de modelos de predição de níveis de pressão sonora e auxilia na visualização da curva de padrões de ruídos horários, para um determinado espaço urbano. Quatorze pontos da cidade foram monitorados, em áreas com características diferenciadas (densidade, população, fluxo de veículos), o que possibilitou verificar os diferentes padrões de ruído associados para cada situação.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
Este trabalho tem como finalidade apresentar uma visão geral dos assuntos relacionados à definição, configuração e gerenciamento dos serviços habilitados pela arquitetura de Serviços Diferenciados em relação à priorização de tráfego. Nele, descrevemos as necessidades por QoS nas redes atuais e futuras, bem como o direcionamento da Internet 2 em relação ao QoS, mais especificamente voltada ao mecanismo DiffServ. Também são destacados os mecanismos de QoS para redes IP do fornecedor Cisco Systems, o qual possui a maior gama de mecanismos já implantados pelos fornecedores. Por fim, identificamos as características necessárias para participar do QBone, um testbed para Serviços Diferenciados.