999 resultados para Redes de computadores - Escalabilidade
Resumo:
T'his dissertation proposes alternative models to allow the interconnectioin of the data communication networks of COSERN Companhia Energética do Rio Grande do Norte. These networks comprise the oorporative data network, based on TCP/IP architecture, and the automation system linking remote electric energy distribution substations to the main Operatin Centre, based on digital radio links and using the IEC 60870-5-101 protoco1s. The envisaged interconnection aims to provide automation data originated from substations with a contingent route to the Operation Center, in moments of failure or maintenance of the digital radio links. Among the presented models, the one chosen for development consists of a computational prototype based on a standard personal computer, working under LINUX operational system and running na application, developesd in C language, wich functions as a Gateway between the protocols of the TCP/IP stack and the IEC 60870-5-101 suite. So, it is described this model analysis, implementation and tests of functionality and performance. During the test phase it was basically verified the delay introduced by the TCP/IP network when transporting automation data, in order to guarantee that it was cionsistent with the time periods present on the automation network. Besides , additional modules are suggested to the prototype, in order to handle other issues such as security and prioriz\ation of the automation system data, whenever they are travesing the TCP/IP network. Finally, a study hás been done aiming to integrate, in more complete way, the two considered networks. It uses IP platform as a solution of convergence to the communication subsystem of na unified network, as the most recente market tendencies for supervisory and other automation systems indicate
Resumo:
The Ethernet technology dominates the market of computer local networks. However, it was not been established as technology for industrial automation set, where the requirements demand determinism and real-time performance. Many solutions have been proposed to solve the problem of non-determinism, which are based mainly on TDMA (Time Division Multiple Access), Token Passing and Master-Slave. This work of research carries through measured of performance that allows to compare the behavior of the Ethernet nets when submitted with the transmissions of data on protocols UDP and RAW Ethernet, as well as, on three different types of Ethernet technologies. The objective is to identify to the alternative amongst the protocols and analyzed Ethernet technologies that offer to a more satisfactory support the nets of the industrial automation and distributed real-time application
Resumo:
The increase of capacity to integrate transistors permitted to develop completed systems, with several components, in single chip, they are called SoC (System-on-Chip). However, the interconnection subsystem cans influence the scalability of SoCs, like buses, or can be an ad hoc solution, like bus hierarchy. Thus, the ideal interconnection subsystem to SoCs is the Network-on-Chip (NoC). The NoCs permit to use simultaneous point-to-point channels between components and they can be reused in other projects. However, the NoCs can raise the complexity of project, the area in chip and the dissipated power. Thus, it is necessary or to modify the way how to use them or to change the development paradigm. Thus, a system based on NoC is proposed, where the applications are described through packages and performed in each router between source and destination, without traditional processors. To perform applications, independent of number of instructions and of the NoC dimensions, it was developed the spiral complement algorithm, which finds other destination until all instructions has been performed. Therefore, the objective is to study the viability of development that system, denominated IPNoSys system. In this study, it was developed a tool in SystemC, using accurate cycle, to simulate the system that performs applications, which was implemented in a package description language, also developed to this study. Through the simulation tool, several result were obtained that could be used to evaluate the system performance. The methodology used to describe the application corresponds to transform the high level application in data-flow graph that become one or more packages. This methodology was used in three applications: a counter, DCT-2D and float add. The counter was used to evaluate a deadlock solution and to perform parallel application. The DCT was used to compare to STORM platform. Finally, the float add aimed to evaluate the efficiency of the software routine to perform a unimplemented hardware instruction. The results from simulation confirm the viability of development of IPNoSys system. They showed that is possible to perform application described in packages, sequentially or parallelly, without interruptions caused by deadlock, and also showed that the execution time of IPNoSys is more efficient than the STORM platform
Resumo:
On the last years, several middleware platforms for Wireless Sensor Networks (WSN) were proposed. Most of these platforms does not consider issues of how integrate components from generic middleware architectures. Many requirements need to be considered in a middleware design for WSN and the design, in this case, it is possibility to modify the source code of the middleware without changing the external behavior of the middleware. Thus, it is desired that there is a middleware generic architecture that is able to offer an optimal configuration according to the requirements of the application. The adoption of middleware based in component model consists of a promising approach because it allows a better abstraction, low coupling, modularization and management features built-in middleware. Another problem present in current middleware consists of treatment of interoperability with external networks to sensor networks, such as Web. Most current middleware lacks the functionality to access the data provided by the WSN via the World Wide Web in order to treat these data as Web resources, and they can be accessed through protocols already adopted the World Wide Web. Thus, this work presents the Midgard, a component-based middleware specifically designed for WSNs, which adopts the architectural patterns microkernel and REST. The microkernel architectural complements the component model, since microkernel can be understood as a component that encapsulates the core system and it is responsible for initializing the core services only when needed, as well as remove them when are no more needed. Already REST defines a standardized way of communication between different applications based on standards adopted by the Web and enables him to treat WSN data as web resources, allowing them to be accessed through protocol already adopted in the World Wide Web. The main goals of Midgard are: (i) to provide easy Web access to data generated by WSN, exposing such data as Web resources, following the principles of Web of Things paradigm and (ii) to provide WSN application developer with capabilities to instantiate only specific services required by the application, thus generating a customized middleware and saving node resources. The Midgard allows use the WSN as Web resources and still provide a cohesive and weakly coupled software architecture, addressing interoperability and customization. In addition, Midgard provides two services needed for most WSN applications: (i) configuration and (ii) inspection and adaptation services. New services can be implemented by others and easily incorporated into the middleware, because of its flexible and extensible architecture. According to the assessment, the Midgard provides interoperability between the WSN and external networks, such as web, as well as between different applications within a single WSN. In addition, we assessed the memory consumption, the application image size, the size of messages exchanged in the network, and response time, overhead and scalability on Midgard. During the evaluation, the Midgard proved satisfies their goals and shown to be scalable without consuming resources prohibitively
Resumo:
The increasing complexity of integrated circuits has boosted the development of communications architectures like Networks-on-Chip (NoCs), as an architecture; alternative for interconnection of Systems-on-Chip (SoC). Networks-on-Chip complain for component reuse, parallelism and scalability, enhancing reusability in projects of dedicated applications. In the literature, lots of proposals have been made, suggesting different configurations for networks-on-chip architectures. Among all networks-on-chip considered, the architecture of IPNoSys is a non conventional one, since it allows the execution of operations, while the communication process is performed. This study aims to evaluate the execution of data-flow based applications on IPNoSys, focusing on their adaptation against the design constraints. Data-flow based applications are characterized by the flowing of continuous stream of data, on which operations are executed. We expect that these type of applications can be improved when running on IPNoSys, because they have a programming model similar to the execution model of this network. By observing the behavior of these applications when running on IPNoSys, were performed changes in the execution model of the network IPNoSys, allowing the implementation of an instruction level parallelism. For these purposes, analysis of the implementations of dataflow applications were performed and compared
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Neste trabalho estudamos alguns algoritmos de alocação de comprimento de onda em redes ópticas WDM (Wavelength Division Multiplexing). O objetivo para estudar os algoritmos de alocação first-fit, least-used e most-used está baseado na estratégia adotada para estudar o Problema RWA. A estratégia toma como base a visão geral do problema que envolve os algoritmos de roteamento e os algoritmos de alocação de comprimento de onda, e tendo como métrica principal para seus resultados a probabilidade de bloqueio. Este trabalho apresenta uma visão diferenciada para o problema e considera-se que a alocação de comprimentos de onda se sobrepõe, em importância, à ação de roteamento em redes ópticas. Essa percepção ocorre quando se analisa o problema RWA a partir do critério clássico usado no estabelecimento de uma rota: a escolha do caminho mais curto entre a origem e o destino. Apesar da identificação de um caminho mais curto, isso não garante, em redes ópticas, que ele será o utilizado, pois é necessário que haja para aquele caminho, um comprimento de onda adequado. Foi utilizada uma ferramenta de simulação para redes WDM denominada OWNS para realizar uma análise do problema RWA. Os resultados obtidos são apresentados graficamente e em uma das simulações observou-se uma forte tendência de queda na probabilidade de bloqueio e uma boa vazão no trafego da rede com isso possibilitando um aumento na capacidade de transmissão da rede. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para investigações futuras neste campo de estudo.
Resumo:
Neste trabalho, propõe-se uma melhoria na estratégia de escalonamento baseada em pesos das classes de tráfego em redes óticas passivas Ethernet – EPON, de modo a não penalizar demasiadamente a classe tipo melhor esforço (BE). Como suporte, desenvolveu-se um modelo híbrido analítico/simulado para análise de desempenho do fluxo de subida, baseado no atraso total de quadros. A modelagem foi feita utilizando Redes de Petri Coloridas Estocásticas (Stochastic Colored Petri Nets - SCPN) da qual se obtém, por simulação, o tamanho médio da fila que posteriormente é usado para, analiticamente, obter-se o atraso total. Não obstante ao crescimento de aplicações multimídia em tempo real, no ano de 2010, o tráfego tradicional na Internet (navegação web, email, mensagens instantâneas) classificado como melhor esforço ainda foi responsável, sozinho (excluindo transferência de arquivos P2P), por valores em torno de 18% do tráfego na Internet. Somando-se a este percentual as aplicações P2P, que também não são essencialmente sensíveis ao atraso, têm-se uma participação de 58% (o tráfego P2P foi no ano de 2010 responsável por aproximadamente 40% do volume total de informações trafegadas na Internet). Mesmo em previsões feitas para o ano de 2014 o tráfego BE ainda representará aproximadamente 40% do volume total de dados a serem trafegados nas redes IPs mundiais. Estes números demonstram que a preocupação com este tipo de tráfego não pode ser relegada a uma importância secundária em detrimento às aplicações que exigem maior qualidade de serviço. Tomando como base o escalonamento IPACT (Interleaved Polling with Adapting Cycle Time) esta dissertação demonstra que é possível, através da melhoria proposta, obter atrasos menores no tráfego de melhor esforço, sem que as classes de tráfego prioritárias ultrapassem as especificações de atraso recomendadas para cada uma destas.
Resumo:
As Redes da Próxima Geração consistem no desenvolvimento de arquiteturas que viabilizem a continuidade de serviços que proporcionem sempre a melhor conectividade (Always Best Connectivity - ABC) aos usuários móveis com suporte adequado à Qualidade de Experiência (QoE) para aplicações multimídia de alta definição, nesse novo contexto as arquiteturas têm perspectiva orientada a serviços e não a protocolos. Esta tese apresenta uma arquitetura para redes da próxima geração capaz de fornecer acesso heterogêneo sem fio e handover vertical transparente para as aplicações multimídia. A tese considera diferentes tecnologias sem fio e também adota o padrão IEEE 802.21 (Media Independent Handover – MIH) para auxiliar na integração e gerenciamento das redes heterogêneas sem fio. As tecnologias que a arquitetura possui são: IEEE 802.11 (popularmente denominada de WiFi), IEEE 802.16 (popularmente denominada de WiMAX) e LTE (popularmente denominada de redes 4G). O objetivo é que arquitetura tenha a capacidade de escolher entre as alternativas disponíveis a melhor conexão para o momento. A arquitetura proposta apresenta mecanismos de predição de Qualidade de Experiência (Quality of Experience - QoE) que será o parâmetro decisivo para a realização ou não do handover para uma nova rede. A predição para determinar se haverá ou não mudança de conectividade será feita com o uso da inteligência computacional de Redes Neurais Artificiais. Além disso a arquitetura também apresenta um mecanismo de descarte seletivo de pacotes especifico para aplicações multimídia. A proposta é avaliada via simulação utilizando-se o ns-2 (Network Simulator) e os resultados de desempenho são apresentados através das métricas de QoS, de QoE e também visualmente através da exibição de frames dos vídeos transmitidos na arquitetura.
Resumo:
A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.
Resumo:
Os Sistemas de Detecção e Prevenção de Intrusão (Intrusion Detection Systems – IDS e Intrusion Prevention Systems - IPS) são ferramentas bastante conhecidas e bem consagradas no mundo da segurança da informação. Porém, a falta de integração com os equipamentos de rede como switches e roteadores acaba limitando a atuação destas ferramentas e exige um bom dimensionamento de recursos de hardware como processamento, memória e interfaces de rede de alta velocidade, utilizados para implementá-las. Diante de diversas limitações deparadas por pesquisadores e administradores de redes, surgiu o conceito de Rede Definida por Software (Software Defined Network – SDN), que ao separar os planos de controle e de dados, permite adaptar o funcionamento da rede de acordo com as necessidades de cada um. Desta forma, devido à padronização e flexibilidade propostas pelas SDNs, e das limitações apresentadas dos IPSs, esta dissertação de mestrado propõe o IPSFlow, um framework que utiliza uma rede baseada na arquitetura SDN e o protocolo OpenFlow para a criação de um IPS com ampla cobertura e que permite bloquear um tráfego caracterizado pelos IDS(s) como malicioso no equipamento mais próximo da origem. Para validar o framework, experimentos no ambiente virtual Mininet foram realizados utilizando-se o Snort como IDS para analisar tráfego de varredura (scan) gerado pelo Nmap de um host ao outro. Os resultados coletados apresentam que o IPSFlow funcionou conforme planejado ao efetuar o bloqueio de 85% do tráfego de varredura.
Resumo:
This Bachelor’s Thesis of Bachelor of Computer Science defines a research and a network sensor simulation on non-planar surfaces . The report is composed of an introduction of the research, a theoretic study, a state of the art and a historic context of sensor network. The simulation consists of the formation of terrain, node’s random distribution and a production and a transmission of the node’s packages. Based on these three important topics , the exchange of information/packages between multiple nodes is through breadth-first search algorithm. The active nodes, node quantity and operation range are also defined in the program. After the program analysis the node activation, the packages are created and transmitted to the next node. This process occurs many times and help on the analysis of the sensor network on non-planar surfaces parameters
Resumo:
Uma rede veicular é um tipo especial de rede móvel na qual os nós representam estações base ou veículos que se deslocam rapidamente. Uma questão importante neste contexto é a segurança na rede. O protocolo μTESLA foi projetado para autenticar mensagens enviadas por radiodifusão. Esse mecanismo garante que uma determinada mensagem recebida realmente partiu do remetente indicado e que essa mensagem não foi alterada durante sua transmissão pela rede. O objetivo do nosso trabalho foi implementar esse protocolo no simulador de rede (NS-2) e testá-lo para verificar sua viabilidade nas redes veiculares. Foram realizados testes em diferentes cenários, mostrando o desempenho e escalabilidade do protocolo na troca de informação entre os nós da rede.
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
As experimentações com arte e tecnologia vêm-se multiplicando nesses três últimos decênios com a utilização, pelos artistas, de diversas formas de realização, produção e distribuição, possibilidade esta acentuada, em particular, com a popularização da internet nos anos 90 e, mais recentemente, com os dispositivos wireless e ambientes virtuais multiusuário. As novas possibilidades de relação usuários/dispositivos habilitadas pela tecnologia de comunicação mediada por computadores no ambiente de rede proporcionam um espaço de comunicação interativo que permite participar de eventos, experiências de presença e ação à distância explorando a sensação de ubiqüidade, deslocamento e simultaneidade. Este trabalho é sobre realizações e projetos artísticos no dinâmico universo da telemática, expresso na produção contemporânea, com um foco maior na produção artística brasileira