62 resultados para Sistemas de Tempo Real
Resumo:
O presente trabalho se insere dentro de uma aplicação real na Assembléia Legislativa do Rio Grande do Sul (ALERGS), desenvolvida no Departamento de Sistemas de Informações, aproveitando-se do Sistema PRIMA/Vídeo – um sistema de veiculação interna de sinais de vídeo – já existente desde novembro de 1996. O PRIMA/Vídeo surgiu da necessidade de implantação de um sistema que permitisse o acompanhamento das múltiplas reuniões realizadas simultaneamente no âmbito do Palácio Farroupilha. Um projeto foi elaborado pela IBM do Brasil e implantado um sistema composto por dezesseis câmeras de sinais de vídeo ligadas a uma rede de 120 estações, que recebem analogicamente e em tempo real os sinais de vídeo. Este sistema permite o acompanhamento on-line de qualquer reunião nas dependências da ALERGS, além de receber imagens dos canais das emissoras a cabo. Entretanto, surgiu a necessidade de gravação destes vários eventos ocorridos para posterior exibição, criando, assim, um estudo para um sistema de informações composto de dados multimídia (sinais de vídeo do PRIMA/Vídeo). O Sistema de Informações Hipermídia da Assembléia Legislativa (SIHAL) visa o armazenamento e a disponibilização de sinais de vídeo (imagem e som) aos usuários internos da ALERGS. Através deste novo Sistema, os usuários poderão assistir a reuniões realizadas anteriormente e terão opções com capacidade de: • armazenar e organizar fisicamente os vídeos analógicos das Sessões Plenárias; • organizar o agendamento das Sessões Plenárias solicitadas no canal analógico de vídeo do PRIMA/Vídeo; • armazenar digitalmente os principais trechos de vídeo dos eventos da Assembléia; • fornecer o download dos trechos digitalizados aos usuários pela interface do Sistema; • fornecer a fita de vídeo aos usuários do Sistema; • criar uma base de dados de vídeo referente às imagens digitalizadas das Sessões Plenárias; • fornecer acesso à base de dados de vídeo. A principal contribuição desta dissertação é o estudo sobre soluções mistas, integrando dados multimídia analógicos e digitais com o intuito de propor um Sistema de Informações Hipermídia, o qual foi denominado de SIHAL. Um protótipo do SIHAL será implementado como demonstração da viabilidade das idéias citadas no sistema proposto.
Resumo:
Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.
Resumo:
Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.
Resumo:
Aplicações recentes no setor de automação industrial utilizam barramentos de campo para prover comunicação entre dispositivos. Estas aplicações normalmente exigem que os barramentos apresentem suporte tempo real. A garantia do adequado atendimento a requisitos temporais restritos é de fundamental importância para o correto funcionamento do sistema. Este documento apresenta um sistema de validação temporal para aplicações desenvolvidas utilizando tecnologias de barramentos de campo. O sistema desenvolvido, chamado BR-Tool, permite monitoração em tempo de execução de uma rede de barramento de campo, confrontando os dados obtidos com requisitos temporais previamente definidos pelo operador. O sistema BR-Tool é composto por dois elementos: um sub-sistema de aquisição de mensagens (placa de aquisição) e um sub-sistema de validação (ferramenta computacional). A placa de aquisição foi especialmente projetada para operar com diferentes interfaces de barramentos de campo, realizando as tarefas de captura de eventos, marcação temporal e salvamento de um histórico de eventos. A ferramenta de validação, que roda no computador, realiza as tarefas de filtragem de eventos, especificação de requisitos e validação temporal, permitindo diversos modos de visualização dos resultados. A comunicação entre a placa de aquisição e a ferramenta de validação é implementada por uma interface PCI, permitindo operar com velocidades de até 12Mbps.
Resumo:
A popularização das tecnologias de acesso à Internet por “banda larga” suportam a crescente proliferação de aplicações do tipo “par-a-par” (peer-to-peer), onde o usuário doméstico, tipicamente consumidor de informação, passa também a atuar como provedor. De forma simultânea, há uma popularização crescente dos jogos em rede, especialmente dos “jogos maciçamente multijogador” (MMG ou massively multiplayer game) onde milhares de jogadores interagem, em tempo real, em mundos virtuais de estado persistente. Os MMGs disponíveis atualmente, como EverQuest e Ultima Online, são implementados como sistemas centralizados, que realizam toda a simulação do jogo no “lado servidor”. Este modelo propicia controle de acesso ao jogo pelo servidor, além de ser muito resistente a jogadores trapaceiros. Porém, a abordagem cliente-servidor não é suficientemente escalável, especialmente para pequenas empresas ou projetos de pesquisa que não podem pagar os altos custos de processamento e comunicação dos servidores de MMGs centralizados. Este trabalho propõe o FreeMMG, um modelo híbrido, cliente-servidor e par-a-par, de suporte a jogos maciçamente multijogador de estratégia em tempo real (MMORTS ou massively multiplayer online real-time strategy). O servidor FreeMMG é escalável pois delega a maior parte da tarefa de simulação do jogo para uma rede par-apar, formada pelos clientes. É demonstrado que o FreeMMG é resistente a certos tipos de trapaças, pois cada segmento da simulação distribuída é replicado em vários clientes. Como protótipo do modelo, foi implementado o jogo FreeMMGWizards, que foi utilizado para gerar testes de escalabilidade com até 300 clientes simulados e conectados simultaneamente no mesmo servidor Os resultados de escalabilidade obtidos são promissores, pois mostram que o tráfego gerado em uma rede FreeMMG, entre servidor e clientes, é significativamente menor se comparado com uma alternativa puramente cliente-servidor, especialmente se for considerado o suporte a jogos maciçamente multijogador de estratégia em tempo real.
Resumo:
Em sistemas de controle de tráfego veicular urbano existem diversas abordagens que lidam com o problema da redução do congestionamento de tráfego. Uma classe destas abordagens aplica a sincronização de semáforos a m de permitir que os veículos que viajam em um sentido possam passar diversos cruzamentos sem paradas. Este trabalho apresenta dois métodos de coordenação de agentes aplicados à sincroniza ção de semáforos. O primeiro método inspira-se em mecanismos de coordenação observados em insetos sociais e o segundo modela o problema de coordenação de semá- foros como um problema de otimização de restrições distribuído e faz sua resolução em tempo real utilizando mediação cooperativa. Inicialmente são apresentados conceitos básicos de sistemas de tráfego urbano, Swarm Intelligence e problemas de otimização de restrições. A partir dos conceitos iniciais, são apresentados os modelos propostos. Os resultados mostram que as abordagens propostas geram a coordenação entre os sem áforos sendo que o modo que os agentes estão coordenados pode mudar para se adaptar às mudanças nas condições do ambiente, gerando melhores condições de uxo de tráfego.
Resumo:
Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.
Resumo:
Uma grande evolução aconteceu no mundo com o surgimento da Internet. Ela causou um espantoso aumento das comunicações, que passaram a ser em tempo real e com uma abrangência mundial. Foi a democratização da informação. A Internet serve como uma grande ferramenta para as empresas, principalmente com a globalização dos mercados, fenômeno que cresce cada dia mais e atinge a todos. A globalização fez com que as organizações se tornassem globais, e a Internet funciona como um elo de ligação entre empresas, fornecedores e consumidores. Este trabalho consistiu na realização de uma pesquisa survey exploratória com o objetivo de verificar e descrever o uso potencial da Internet como ferramenta de auxílio à realização de negócios de caráter global, nas micro, pequenas e médias empresas de Porto Alegre. A amostra das empresas pesquisadas foi extraída do Trade Point Porto Alegre, por ser essa uma entidade que tem por objetivo auxiliar as empresas a realizarem operações globais. Com relação ao mercado global, o trabalho identificou que quase todas as empresas acreditam que ele tenha oportunidades de negócios. Os principais meios para entrar nesse mercado são a participação em feiras e rodadas de negócios, contato pessoal e o Trade Point. A Internet já está disseminada no meio empresarial, todas as empresas já a conhecem, e boa parte das empresas realizam operações que podem ser auxiliadas pela rede, como comunicação, promoção de produtos e acompanhamento pós-venda. Identificou-se que as microempresas são as que menos acreditam no mercado internacional, mas apontaram que a Internet pode ajudá-las em suas atividades. Já as pequenas empresas são as que atuam no mercado internacional e acreditam que a Internet possa ajudá-las em algumas atividades. Por fim, as médias empresas, também atuam no mercado internacional, principalmente com as exportações, e são as que já estão utilizando a Internet. O Trade Point se mostrou um serviço bem requisitado pelas empresas, principalmente as que atuam com o comércio internacional. As principais vantagens citadas foram a centralização de informações e a geração de novos negócios.
Resumo:
Alinhamento estratégico, aliado ao planejamento estratégico, é um importante instrumento de gestão. Por isso, novas abordagens para a operacionalização do alinhamento durante todas as etapas do processo de planejamento podem auxiliar o gerenciamento de topo em suas decisões e influir no desempenho organizacional. O objetivo deste estudo, de natureza exploratória, é conceber e desenvolver um modelo operacional de alinhamento estratégico para uso durante a etapa de implementação dos itens planejados, promovendo o ajuste contínuo entre as necessidades de negócio através do devido suporte da Tecnologia da Informação (TI), tendo por base a análise das contribuições dos estudos sobre metodologia de implementação de planos estratégicos. Os principais resultados encontrados mostram que as empresas estudadas estão promovendo o alinhamento estratégico entre negócios e TI com maior ou menor intensidade, mesmo que, em algumas etapas do processo de planejamento, isto seja realizado de forma empírica. Os resultados apontaram os elementos de alinhamento “metodologia” e “instrumentação da gestão” como principais promotores de alinhamento durante a etapa de implementação do processo de planejamento, responsáveis por grande parte do comprometimento dos participantes do processo e pelo atingimento das metas planejadas. A metodologia de acompanhamento da execução dos itens planejados consiste em reuniões freqüentes de alinhamento dos itens de negócio e de TI, para sincronização dos recursos e controle do atingimento das metas e objetivos, mantendo o foco dos objetivos de longo prazo. A operacionalidade da promoção do alinhamento depende da instrumentação dos executivos (CEO e CIO) com o apropriado conjunto informacional representativo do modelo de negócio e de gestão estratégica para acompanhamento da execução dos itens planejados e promoção dos ajustes necessários em tempo real.
Resumo:
A competitividade das empresas apresenta forte ligação com a qualidade do relacionamento com o cliente. Para competir em tempo real é preciso dotar a empresa de meios que permitam conhecer e relacionar-se de forma cada vez mais eficiente com os clientes. O uso intensivo da tecnologia é fator que contribui para que o relacionamento com o cliente se torne mais efetivo. CRM (Customer Relationship Management) faz uso da tecnologia de informação com o objetivo de desenvolver e gerenciar relações entre empresas e seus clientes, de forma individualizada e mutuamente benéfica. O presente trabalho refere-se à implementação de um sistema CRM, abrangendo as etapas de seleção da solução de CRM, definição do organograma, cronograma e metodologia de trabalho, redesenho dos processos de atendimento ao cliente e configuração do software. Também é objeto deste trabalho a verificação do nível de satisfação do cliente resultante. O estudo foi desenvolvido junto a uma empresa do setor petroquímico, caso pioneiro de implantação de CRM no país, considerando o segmento de mercado em análise. O texto discute a relação existente entre um sistema de CRM e a satisfação do cliente, apresentando os resultados de uma pesquisa de satisfação aplicada aos clientes da empresa em estudo.
Resumo:
Diante de mercados globais, interligados em tempo real, as empresas se vêem diante do desafio de se tornarem mais flexíveis, centrarem-se em suas principais competências e, sobretudo, terem a capacidade de dar respostas rápidas e adequadas às mudanças, em um ambiente onde a tempestividade da resposta pode ditar o sucesso ou o fracasso de uma empresa. Nesse contexto, a auditoria interna, em razão do seu posicionamento estratégico e permeabilidade por toda a organização, pode contribuir mais efetivamente para a melhoria dos processos produtivos e de gestão das organizações, através de uma atuação diferenciada de seus auditores. Por sua vez, a aprendizagem organizacional, entendida como um processo de apropriação e geração de novos conhecimentos, voltado para a construção ou desenvolvimento de novas competências, pode potencializar o valor agregado dos trabalhos de auditoria. Dentro dessa perspectiva, a resolução coletiva de problemas, baseada nas constatações de auditoria, pode tornar-se um veículo eficaz para alavancar o processo de aprendizagem por toda a organização. O presente trabalho procura avaliar os impactos da difusão dos princípios e conceitos de aprendizagem organizacional nas práticas de trabalho dos auditores internos, através de uma estratégia focada na resolução coletiva de problemas, tomando como objeto de pesquisa o processo desenvolvido na área de auditoria interna do Banco do Brasil S.A. A pesquisa, qualitativa na sua essência e orientada pela Grounded Theory (Glaser & Strauss, 1967; Strauss & Corbin, 1990), abrangeu o acompanhamento de 30 eventos desenvolvidos no âmbito da unidade de pesquisa, desembocando em 34 fontes primárias, derivadas de relatos, relatórios, transcrição de vídeos e entrevistas, memorandos, etc. Como resultante, o trabalho apresenta e avalia os principais impactos verificados nas práticas de auditoria interna, bem como nas ações dos indivíduos participantes do processo. O estudo abrange, também, a identificação das principais barreiras para aprendizagem e das competências básicas requeridas para condução de um processo de aprendizagem organizacional dessa natureza.
Resumo:
O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).
Resumo:
Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.