993 resultados para Controle em tempo real
Resumo:
Resumo: Foram realizadas biópsias retais de 140 búfalos, machos e fêmeas, das raças Murrah e mestiços de Murrah com Mediterrâneo, com idade acima de três anos, em uma propriedade no município de São Mateus, Maranhão, Brasil. Adicionalmente foram realizadas necropsias de 11 búfalos, para realizar um estudo comparativo entre os achados das biópsias retais e de tecidos de íleo e linfonodo mesentérico. A propriedade apresentava histórico de animais com emagrecimento progressivo e diarreia não responsiva a antimicrobianos. Os búfalos apresentavam sinais clínicos caracterizados por diarreia, estado nutricional regular a ruim, desidratação e edema submandibular. Nas biópsias retais seis búfalos apresentaram lesões sugestivas da paratuberculose na Hematoxilina-Eosina (HE), sendo estas caracterizadas por inflamação granulomatosa multifocal moderada na lâmina própria com macrófagos epitelioides. Em quatro animais foram observadas adicionalmente células gigantes do tipo Langhans. Em 15 búfalos foi observado infiltrado linfocitário multifocal leve na lâmina própria. Pela coloração de Ziehl-Neelsen (ZN), 4,3% (6/140) apresentaram bacilos álcool-ácido resistentes (BAAR) e na PCR em tempo real (qPCR), 5,71% (7/140) tiveram amplificação do material genético. Foram necropsiados 11 búfalos, à necropsia foram observados aumento de linfonodos mesentéricos com áreas esbranquiçadas na superfície de corte; intestino delgado e grosso com dobras transversais evidentes, mucosa espessada e irregular, de aspecto reticulado, placas de Peyer evidentes e conteúdo líquido e marrom. Ainda se viam áreas espessadas em torno da válvula ileocecal e vasos linfáticos evidentes. As lesões histológicas localizadas no intestino delgado e linfonodos mesentéricos de quatro búfalos foram compatíveis com lesões já descritas na literatura, e apresentaram BAAR e amplificação de material genético na qPCR. A concordância entre a biópsia retal e a análise dos tecidos de íleo e linfonodo mesentérico, segundo o teste Kappa (K=0,792), foi alta. A biópsia retal realizada demonstrou ser promissora e pode ser empregada, juntamente com outras técnicas, para auxiliar no diagnóstico ante mortem em búfalos de rebanhos com suspeita de paratuberculose; pela mesma foi possível detectar animais positivos através da coloração de ZN e qPCR. Os resultados obtidos podem ser utilizados no controle da enfermidade para selecionar e eliminar animais positivos do rebanho, diminuindo gradualmente, a disseminação do agente no ambiente, e a consequente contaminação de outros animais.
Resumo:
INTRODUÇÃO: A qualidade da diálise oferecida aos pacientes em diálise pode ser mensurada pelo Kt/V, o qual pode ser calculado de diversas maneiras. OBJETIVO: Comparar os resultados de Kt/V obtidos por meio das fórmulas de Lowrie (L) e de Daugirdas (D) com os resultados mensurados pelo monitor de clearence on-line - Online Clearence Monitor (OCM). MÉTODO: Estudo observacional transversal com 59 pacientes em hemodiálise (HD). Os dados foram coletados na mesma sessão de diálise: (ureia pré-diálise e pós-diálise) e o resultado de Kt/V foi obtido pelo OCM da máquina Fresenius 4008S (Fresenius Medical Care AG, Bad Homburg, Alemanha). RESULTADO: Foram analisadas 95 sessões, em que prevaleceu o sexo masculino, 56% (33), com idade média de 57 + 14 anos. A hipertensão arterial com 42% (25), diabetes com 12% (7) e glomerulonefrite com 8% (5) foram as causas mais frequentes da doença renal crônica (DRC). O Kt/V médio obtido pela fórmula de L, de D e pelo OCM foi de 1,31; 1,41 e 1,32, respectivamente. A comparação entre as fórmulas de L e D mostra que há diferença estatística p = 0,008 com a correlação de Pearson de 0,950. Entre D e OCM a diferença também é significativa: p = 0,011 e r = 0,346, provavelmente devido a perda convectiva, avaliada pela equação de D e não observadas por OCM e L. A comparação entre L e OCM não foi significativa p = 0,999 e r = 0,577. CONCLUSÃO: Os dados sugerem que o OCM pode ser utilizado como um norteador para ajuste da dose de diálise em tempo real.
Resumo:
Os insetos podem atuar como pragas agrícolas e vetores de patógenos causadores de doenças ao homem e outros animais. Investigações a respeito do sistema imunológico de Ae. aegypti e Cx. quinquefasciatus poderão contribuir para o desenvolvimento de métodos de controle das doenças veiculadas por estes insetos, principalmente a dengue, enfermidade causadora de sério problema de saúde pública no mundo. Apesar de Ae. aegypti ser a única espécie vetora confirmada na transmissão do vírus Dengue no Brasil, considera-se também importante um melhor entendimento dos mecanismos imunológicos de Cx. quinquefasciatus tido como refratário ao vírus. Neste estudo foram utilizadas linhagens de Ae. aegypti e Cx. quinquefasciatus mantidas no Insetário do Departamento de Entomologia do CPqAM/FIOCRUZ. Três grupos experimentais de fêmeas com 10 dias de idade foram formados para cada espécie. Grupo I, composto por fêmeas alimentadas com solução sacarose (10 por cento); grupo II, fêmeas alimentadas com sangue limpo e grupo III, fêmeas alimentadas com sangue infectado com o sorotipo DENV-1. De cada grupo foram obtidos hemolinfa, glândula salivar, intestino médio e corpo gorduroso para avaliação da expressão dos antimicrobianos defensina e transferrina. Essa avaliação foi realizada através de PCR em Tempo Real utilizando o kit QuantiFast SYBR Green - One-Step qRT-PCR. A avaliação da hemodinâmica foi realizada utilizando 10 microlitros de hemolinfa de cada grupo, através da contagem das células em câmara de Neubauer. Nossos resultados demonstraram que o Cx. quinquefasciatus tem um maior aumento da expressão de defensina e um maior número total de hemócitos quando infectados com DENV-1 em relação ao Ae. aegypti e a transferrina teve sua expressão alterada somente no Ae. aegypti. Em ambas as espécies estudadas, apenas a alimentação sanguínea não interfere na produção de hemócitos ou quanto na indução de defensina e transferrina. Esses dados sugerem que fêmeas de Cx. quinquefasciatus parecem apresentar uma resposta imune celular e humoral mais intensa do que Ae. aegypti quando infectados com DENV-1
Resumo:
A leishmaniose visceral (LV) é uma doença infecto-parasitária causada por protozoários do gênero Leishmania. O trabalho teve como objetivo avaliar estratégias para o aprimoramento do diagnóstico molecular na LV, que compreenderam a avaliação da eficiência de diferentes métodos de extração de DNA em amostras de urina; a análise do uso da Reação em Cadeia da Polimerase quantitativa em tempo real (qPCR) como ferramenta para a detecção do DNA de Leishmania infantum na referida amostra; e a padronização de uma reação duplex qPCR para a detecção simultânea do DNA de L. infantum e do gene G3PD (controle endógeno). Depois da escolha do protocolo de extração de DNA mais apropriado, e após a otimização e a análise de reprodutibilidade, uma qPCR em urina foi padronizada. Em paralelo, após o desenho e a síntese de sondas TaqMan® compatíveis com os sistemas LINF 1B e G3PD1, após otimização e análise de reprodutibilidade, uma duplex qPCR em sangue também foi padronizada. Para avaliação dos protocolos desenvolvidos foram utilizadas técnicas de estatística descritiva. Para análise comparativa com técnicas clássicas de diagnóstico da LV utilizou-se Teste Qui Quadrado de independência ou Teste Exato de Fisher (p<0,05 e p<0,01, respectivamente). Como resultados, após otimização, o limite de detecção alcançado pela qPCR em urina utilizando o protocolo de extração selecionado (kit comercial) foi de 5 fg/microlitros de amostra 0,034 parasitos) A duplex qPCR em sangue alcançou um limite de detecção de 2x102 fg/microlitros de amostra 1,4 (ou ~ 1,4 parasito), após a otimização. A partir dos dados estatísticos obtidos, pôde-se analisar alta concordância percentual entre a qPCR e urina e o conjunto de critérios diagnósticos (sorologia rK39 + qPCR em sangue), bem como entre a duplex qPCR em sangue e a qPCR em sangue, para os Grupos 01 (pacientes com suspeita de LV) e 02 (pacientes HIV positivos co-infectados ou não). Como um conjunto de critérios, os dois novos ensaios obtiveram excelentes concordâncias com o conjunto de técnicas clássicas: 88,89 por cento e 94,74 por cento para os Grupos 01 e 02, respectivamente. Não houve diferenças estatísticas significativas entre os testes. Pôde-se concluir que ambos os ensaios mostraram bom potencial para a incorporação, após validação, ao diagnóstico da LV; em conjunto ou individualmente (quando necessário), trazendo mais conforto, praticidade, confiabilidade e rapidez ao diagnóstico definitivo da patologia
Resumo:
A tuberculose (TB) é uma doença infecto-contagiosa causada pelo bacilo Mycobacterium tuberculosis e que permanece como um importante problema de saúde pública mundial, sendo a TB pulmonar a forma mais comum de apresentação da doença. O diagnóstico precoce e tratamento adequado são essenciais para a eficácia dos programas públicos de controle da TB. Novos metodologias mais rápidas, sensíveis e específicas, como a reação em cadeia da polimerase (PCR), vem sendo propostas no diagnóstico da doença. O objetivo desse estudo foi avaliar o desempenho de duas PCR, a PCR em tempo real (qPCR) e a Nested PCR em único tubo (STNPCR), em diferentes amostras biológicas, no diagnóstico da tuberculose pulmonar, além de compará-las com as metodologias convencionais (baciloscopia e cultura) e entre si. Para isso foram analisados 125 pacientes que tiveram amostras de sangue (125 amostras de plasma e 116 amostras de PBMC), urina (n=125) e escarro (n=125) coletadas, totalizando a análise de 491 amostras biológicas. Amostras de escarro e urina foram descontaminadas pelo método de Petroff NAOH 4 por cento modificado e semeadas em meio de cultura Lõwenstein-Jensen (LJ), enquanto as amostras de sangue eram separadas em plasma e PBMC. Após processamento, deu-se a extração de DNA através do kit comercial da Qiagen seguida de amplificação pelas duas metodologias de PCR. Para análise estatística calculou-se a sensibilidade, especificidade, valores preditivos positivo e negativo e índice kappa das técnicas. A STNPCR apresentou, em amostras de sangue, sensibilidade de 26,3 por cento e especificidade de 97,7 por cento. Em amostras de urina observou-se uma S = 7,9 por cento e E = 98,9 por cento e em escarro S = 21,1 por cento e E = 98,9 por cento. Quando analisadas as asmotras em paralelo, a sensibilidade da STNPCR foi igual a 44,7 por cento enquanto sua especificidade foi 97,7 por cento. Já a qPCR, em amostras de sangue, obteve sensibilidade igual a 26,3 por cento e especificidade de 95,4 por cento. Em amostras de urina a sensibilidade obtida foi 47,4 por cento e a especificidade 79,3 por cento e, em escarro, S = 36,8 por cento e E = 95,4 por cento. Quando analisada em paralelo, a sensibilidade da qPCR foi 65,8 por cento e a especificidade foi 79,3 por cento. A baciloscopia de escarro apresentou sensibilidade de 41,7 por cento e especificidade de 100 por cento, enquanto as culturas em urina e escarro apresentaram sensibilidade e especificidade, respectivamente, de 10,5 por cento e 100 por cento e 60,5 por cento e 96,6 por cento. Pode-se concluir que a qPCR apresentou melhor desempenho quando comparada à STNPCR e também bom desempenho quando comparada às metodologias convencionais, e que quando analisa-se mais de um tipo de amostras biológica, a eficácia das técnicas é aumentada. Espera-se que com a utilização dessa técnica molecular, seja possível a melhor elucidação dos casos de TB pulmonar, promovendo maior taxa de tratamento dos pacientes e menor risco de transmissão da doença
Resumo:
A segurança alimentar é um dos principais fatores a ser considerado na área de alimentação e nutrição, a Organização Mundial da Saúde (OMS) registrou 351 casos de morte por contaminação alimentar no ano de 2010 e estima que cerca 582 milhões dos casos de contaminação global foram causados por consumo de alimentos estragados ou contaminados. Diante deste cenário, a indústria de alimentos vem desenvolvendo técnicas e processos para tornar o alimento cada vez mais seguro para o consumidor e ao mesmo tempo adequar seus processos, estruturas e capacitação de pessoas para atender a legislação vigente. Alimentos industriais geralmente são produzidos em grande escala para atender à demanda, exigindo assim processos automatizados e também um certo número de funcionários que manipulem este alimento, aumentando o risco de contaminação por conta dos manipuladores. A indústria de embalagens vem se desenvolvendo no sentido de reduzir a atividade microbiana no interior da embalagem, por meio de embalagens ativa ou de modificação atmosférica, ou embalagens que possam transmitir ao consumidor mais confiabilidade, indicando o que acontece no interior das embalagens. O objetivo do presente estudo foi analisar junto a literatura quais os tipos de embalagens existentes nos dias de hoje, e demonstrar sua eficácia no controle e inibição do crescimento microbiano e melhoria da qualidade organoléptica. Por meio de pesquisas as principais bibliotecas digitais como LILACS, BIREME, além de fonte de livrose defesa de mestrado, obteve-se como resultado um grande acervo a respeito de embalagens ativas e inteligentes. Conclui-se, portanto, que esta revisão tem potencial para se tornar fonte de pesquisa para industrias que procuram inovações no setor de embalagem. O termo embalagem ativa e embalagem inteligente ainda é pouco conhecido pelos consumidores e mesmo os que já conhecem os termos, acabam concluindo que ambas embalagens são ativas, sendo que embalagens ativas tem a função de interagir com o alimento para melhorar seus aspectos sensoriais e as embalagens ativas monitoram e transmitem em tempo real a situação do produto armazenado em diversos aspectos.
Resumo:
O interesse de pesquisa da comunidade de Inteligência Artificial em Sistemas Multiagentes tem gerado o crescimento da utilização de técnicas de agentes nas mais diversas áreas da ciência da computação. Isso ocorre, principalmente, devido à variedade de aplicações em que esses sistemas podem ser usados, como por exemplo: jogos de computadores, interfaces adaptativas, simulação e controle de processos industriais. The Robot World Cup Initiative (RoboCup) é uma tentativa de estimular a área de Inteligência Artificial e, principalmente de Sistemas Multiagentes, por promover um problema padrão, jogar futebol, onde uma ampla cadeia de tecnologias podem ser integradas, examinadas e comparadas. A utilização do ambiente da RoboCup para a simulação de uma partida de futebol (simulador Soccerserver) permite a avaliação de diferentes técnicas de Sistemas Multiagentes (planejamento de estratégias, conhecimento em tempo real, colaboração de agentes, princípios de agentes autônomos, entre outros) e estimula as pesquisas, investigações e testes que possibilitem a construção gradativa de agentes avançados. O presente trabalho tem por objetivo o desenvolvimento de um time de futebol para o simulador Soccerserver. A idéia principal é desenvolver agentes jogadores que demonstrem um nível considerável de competência para a realização de suas tarefas, como percepção, ação, cooperação, estratégias pré-definidas, decisão e previsão. Inicialmente, apresenta-se uma visão geral sobre Inteligência Artificial Distribuída e sobre o simulador Soccerserver, pré-requisitos para o restante do trabalho. A seguir, é realizado um estudo sobre algumas arquiteturas de agentes (clientes) do Soccerserver. A arquitetura proposta na dissertação, suas principais características e a sua materialização em um protótipo desenvolvido correspondem à parte principal do trabalho. Finalmente são apresentados os testes realizados e as conclusões do trabalho.
Resumo:
Alinhamento estratégico, aliado ao planejamento estratégico, é um importante instrumento de gestão. Por isso, novas abordagens para a operacionalização do alinhamento durante todas as etapas do processo de planejamento podem auxiliar o gerenciamento de topo em suas decisões e influir no desempenho organizacional. O objetivo deste estudo, de natureza exploratória, é conceber e desenvolver um modelo operacional de alinhamento estratégico para uso durante a etapa de implementação dos itens planejados, promovendo o ajuste contínuo entre as necessidades de negócio através do devido suporte da Tecnologia da Informação (TI), tendo por base a análise das contribuições dos estudos sobre metodologia de implementação de planos estratégicos. Os principais resultados encontrados mostram que as empresas estudadas estão promovendo o alinhamento estratégico entre negócios e TI com maior ou menor intensidade, mesmo que, em algumas etapas do processo de planejamento, isto seja realizado de forma empírica. Os resultados apontaram os elementos de alinhamento “metodologia” e “instrumentação da gestão” como principais promotores de alinhamento durante a etapa de implementação do processo de planejamento, responsáveis por grande parte do comprometimento dos participantes do processo e pelo atingimento das metas planejadas. A metodologia de acompanhamento da execução dos itens planejados consiste em reuniões freqüentes de alinhamento dos itens de negócio e de TI, para sincronização dos recursos e controle do atingimento das metas e objetivos, mantendo o foco dos objetivos de longo prazo. A operacionalidade da promoção do alinhamento depende da instrumentação dos executivos (CEO e CIO) com o apropriado conjunto informacional representativo do modelo de negócio e de gestão estratégica para acompanhamento da execução dos itens planejados e promoção dos ajustes necessários em tempo real.
Resumo:
Sistemas de controle industriais precisam atender a requisitos temporais para garantir seu correto funcionamento, sendo por isto considerados sistemas tempo-real. Quando tais sistemas são distribuídos, tais como redes de sensores, atuadores e controladores interligados por barramentos de campo, a comunicação desempenha um papel importante no comportamento temporal. Este trabalho propõe uma ferramenta para validar o comportamento temporal da comunicação em um protocolo de barramento de campo, o Foundation Fieldbus. A proposta inclui a especificação de requisitos e a visualização da validação. Pretende-se auxiliar a compreensão do comportamento temporal e possibilitar a depuração de sistemas tempo-real distribuídos. O sistema desenvolvido encontra-se operacional e foi validado em diversos estudos de caso, os quais são descritos no presente trabalho.
Resumo:
Esta dissertação descreve uma arquitetura de suporte para a criação de sistemas de automação baseados em objetos distribuídos e no barramento CAN. Consiste basicamente da utilização de orientação a objetos para modelagem dos sistemas bem como sua implementação na forma de objetos autônomos. Os objetos são então distribuídos em uma rede de placas microcontroladas, as quais são utilizadas para o controle da planta, e PC's, os quais são utilizados para supervisão e monitoração. O suporte em tempo de execução para os objetos é dado por um sistema operacional que permite a sua implementação na forma de processos concorrentes, o qual, no caso das placas microcontroladas, é um sistema operacional do tipo embarcado. A comunica ção entre os objetos é realizada através de um protocolo publisher/subscriber desenvolvido para o barramento CAN que é suportado por uma biblioteca e elementos de comunicação especí cos. Este trabalho tem como objetivo apresentar alternativas aos sistemas de automação existentes atualmente, os quais baseiamse geralmente em dispositivos mestre/escravo e em comunicações do tipo ponto a ponto. Dessa forma, a arquitetura desenvolvida, apropriada para sistemas embarcados, visa facilitar a criação e dar suporte para sistemas de automação baseados em objetos distribuídos.
Resumo:
A caracterização de desempenho e uma atividade fundamental na area de controle industrial. Por se tratar, na maior parte das vezes, de aplicações de tempo real, a caracterização de desempenho torna-se ainda mais necessária e importante. Entretanto, atualmente não há nenhuma metodologia estabelecida para realizar esta caracterização. Não há nem mesmo um conjunto de parâmetros que devem ser avaliados em um equipamento de controle utilizado em processos industriais. Para tentar suprir esta carência, este trabalho apresenta uma proposta de métricas e workloads para serem utilizados na avaliação de desempenho de sistemas de controle baseados em CLPs e CPUs Industriais. O processo de avaliação de desempenho e discutido em todas as etapas, desde o estudo da aplicação at e a execução dos passos de caracterização de desempenho. Para ilustrar a aplicação das métricas, técnicas e procedimentos propostos, são avaliadas três CPUs Industriais, e os resultados s~ao apresentados ao nal do trabalho. Espera-se assim estar contribuindo para o estabelecimento de uma metodologia padronizada para avaliação de desempenho de equipamentos de controle industrial.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.