985 resultados para Redes IP
Resumo:
As redes neurais podem ser uma alternativa aos modelos paramétricos tradicionais para a precificação de opções quando a dinâmica do ativo primário não for conhecida ou quando a equação associada à condição de não-arbitragem não puder ser resolvida analiticamente. Este trabalho compara a performance do modelo tradicional de Black-Scholes e as redes neurais. Os modelos foram utilizados para precificar e realizar a cobertura dinâmica das opções de compra das ações de Telebrás. Os resultados obtidos sugerem que as redes neurais deveriam ser consideradas pelos operadores de opções como uma alternativa aos modelos tradicionais.
Resumo:
Este trabalho relata o desenvolvimento de uma aplicação capaz de reconhecer um vocabulário restrito de comandos de direcionamento pronunciados de forma isolada e independentes do locutor. Os métodos utilizados para efetivar o reconhecimento foram: técnicas clássicas de processamento de sinais e redes neurais artificiais. No processamento de sinais visou-se o pré-processamento das amostras para obtenção dos coeficientes cepstrais. Enquanto que para o treinamento e classificação foram utilizadas duas redes neurais distintas, as redes: Backpropagation e Fuzzy ARTMAP. Diversas amostras foram coletadas de diferentes usuários no sentido de compor um banco de dados flexível para o aprendizado das redes neurais, que garantisse uma representação satisfatória da grande variabilidade que apresentam as pronúncias entre as vozes dos usuários. Com a aplicação de tais técnicas, o reconhecimento demostrou-se eficaz, distinguindo cada um dos comandos com bons índices de acerto, uma vez que o sistema é independente do locutor.
Resumo:
A criptografia assumiu papel de destaque no cotidiano das pessoas, em virtude da necessidade de segurança em inúmeras transações eletrônicas. Em determinadas áreas, a utilização de hardware dedicado à tarefa de criptografia apresenta vantagens em relação à implementação em software, devido principalmente ao ganho de desempenho. Recentemente, o National Institute of Standards and Technology (NIST) publicou o novo padrão norte-americano de criptografia simétrica, chamado de Advanced Encryption Standard (AES). Após um período de aproximadamente 3 anos, no qual várias alternativas foram analisadas, adotou-se o algoritmo Rijndael. Assim, este trabalho apresenta um Soft IP do padrão AES, codificado em VHDL, visando a implementação em FPGA Altera. Todo o projeto foi construído com funções e bibliotecas genéricas, a fim de permitir a posterior implementação sobre outras tecnologias. Foram geradas duas versões: uma priorizando desempenho e outra priorizando a área ocupada nos componentes. Para cada uma das versões, produziu-se um circuito para encriptar e outro para decriptar. O desempenho alcançado em termos de velocidade de processamento superou todos os outros trabalhos publicados na área, sobre a mesma tecnologia. São apresentados os detalhes de implementação, arquiteturas envolvidas e decisões de projeto, bem como todos os resultados. A dissertação contém ainda conceitos básicos de criptografia e uma descrição do algoritmo Rijndael.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
Voz sobre IP (VoIP) é uma tecnologia que permite a digitalização e a codificação da voz e o empacotamento em pacotes de dados IP para a transmissão em uma rede que utilize o protocolo TCP/IP. Devido ao volume de dados gerados por uma aplicação VoIP, esta tecnologia se encontra em funcionamento, em redes corporativas privadas. Mas se a rede base para o transporte desta aplicação for a Internet, certamente, não deve ser utilizada para fins profissionais, pois o TCP/IP não oferece padrões de QoS (Qualidade de Serviço) comprometendo desta forma a qualidade da voz. A qualidade da voz fica dependente do tráfego de dados existentes no momento da conversa. Para realizar um projeto de VoIP é necessário conhecer todo o tráfego existente na rede e verificar o quanto isto representa em relação à banda total da rede. Também se deve conhecer o tipo de aplicação que se deseja implantar, verificando a banda a ser utilizada por esta, e então projetar como a rede deverá ser estruturada. Para auxiliar no projeto de VoIP, pretende-se mostrar o que está sendo desenvolvido para que o protocolo TCP/IP ofereça QoS e uma ferramenta para análise do tráfego de voz sobre redes TCP/IP e também análises dos resultados obtidos em experimentos simulando diversas situações práticas.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
Uma atividade com a magnitude da avicultura, que usa equipamentos de última geração e serviços atualizados, é levada, na maioria dos casos, a tomar decisões que envolvem todos aspectos de produção, apoiada em critérios subjetivos. A presente tese objetivou estudar a utilização das redes neurais artificiais na estimação dos parâmetros de desempenho de matrizes pesadas, pertencentes a uma integração avícola sul-brasileira. Foram utilizados os registros de 11 lotes em recria, do período compreendido entre 09/11/97 a 10/01/99 e de 21 lotes em produção, do período compreendido entre 26/04/98 a 19/12/99, para a análise por redes neurais artificiais. Os dados utilizados corresponderam a 273 linhas de registros semanais, do período de recria e 689 linhas de registros semanais, do período de produção. Os modelos de redes neurais foram comparados e selecionados como melhores, baseados no coeficiente de determinação múltipla (R2), Quadrado Médio do Erro (QME), bem como pela análise de gráficos, plotando a predição da rede versus a predição menos o real (resíduo). Com esta tese foi possível explicar os parâmetros de desempenho de matrizes pesadas, através da utilização de redes neurais artificiais. A técnica permite a tomada de decisões por parte do corpo técnico, baseadas em critérios objetivos obtidos cientificamente. Além disso, este método permite simulações das conseqüências de tais decisões e fornece a percentagem de contribuição de cada variável no fenômeno em estudo.
Resumo:
Nesta tese são estimadas funções não lineares de importação e exportação para o Brasil, utilizando a metodologia de redes neurais artificiais, a partir de dados trimestrais, no período de 1978 a 1999. Com relação às importações, partindo-se da hipótese de país pequeno, as estimações são feitas para a demanda de importações totais, de bens intermediários e de material elétrico. Para as exportações, o pressuposto de país pequeno, num contexto de concorrência monopolística, é utilizado, de maneira que as estimações são feitas para a oferta e demanda por exportações brasileiras. As séries selecionadas são as exportações totais, as exportações de manufaturados e as exportações de material elétrico. A metodologia adotada para as importações procura visualizar a não linearidade presente nas séries de comércio exterior e encontrar a topologia de rede que melhor represente o comportamento dos dados, a partir de um processo de validação do período analisado. Procura observar, também, a sensibilidade das saídas das redes a estímulos nas variáveis de entrada, dado a dado e por formação de clusters. Semelhante método é utilizado para as exportações, com a ressalva que, diante de um problema de simultaneidade, o processo de ajuste das redes e análise da sensibilidade é realizado a partir de uma adaptação do método de equações simultâneas de dois estágios. Os principais resultados para as importações mostram que os dados apresentam-se de maneira não linear, e que ocorreu uma ruptura no comportamento dos dados em 1989 e 1994. Sobretudo a partir dos anos 90, as variáveis que se mostram mais significativas são o PIB e a taxa de câmbio, seguidas da variável utilização de capacidade produtiva, que se mostra com pouca relevância Para o período de 1978 a 1988, que apresenta um reduzido impacto das variáveis, a taxa de câmbio é relevante, na explicação do comportamento das importações brasileiras, seguida da utilização de capacidade produtiva, que demonstra-se significativa, apenas, para a série de bens intermediários. Para as exportações, os dados, também, se apresentam de maneira não linear, com rupturas no seu comportamento no final da década de 80 e meados de 1994. Especificamente, para a oferta e a demanda, as variáveis mais importantes foram a taxa de câmbio real e o PIB mundial, respectivamente. No todo, as séries mais importantes na explicação das importações e exportações foram a importação total e de bens intermediários e a exportação total e de manufaturados. Tanto para as importações, quanto para as exportações, os resultados mais expressivos foram obtidos para os dados mais agregados. Por fim, com relação às equações das exportações brasileiras, houve uma superioridade de ajuste e significância das variáveis das equações de demanda, frente às de oferta, em explicar os movimentos das exportações brasileiras.
SAM: um sistema adaptativo para transmissão e recepção de sinais multimídia em redes de computadores
Resumo:
Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.
Resumo:
Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).