1000 resultados para Computadores : Redes
Resumo:
Dissertação de mestrado integrado em Engenharia Eletrónica Industrial e Computadores
Resumo:
Dissertação de mestrado integrado em Engenharia Eletrónica Industrial e Computadores
Resumo:
O objectivo principal deste artigo é exemplificar a utilização de uma metodologia de especificação de sistemas digitais, baseada em Redes de Petri orientadas por objectos, para obter de uma forma rápida e simplificada um protótipo em VHDL do sistema pretendido. É considerado como exemplo um sistema digital, para o qual se efectua a especificação no modelo RdP-shobi e a partir da qual se pode gerar automaticamente código VHDL. Este exemplo permite demonstrar acerca da capacidade desta metodologia no projecto de sistemas digitais, suportado por princípios de orientação por objectos e por uma ferramenta de EDA concebida para o efeito.
Resumo:
O trabalho científico de monografia que ora se apresenta, relata a problemática do uso de VLANs em prol da segurança em redes locais. O tema surgiu da necessidade de aumentar a segurança e o desempenho da rede Universitária da Universidade Jean Piaget de Cabo Verde, através da implementação de VLANs, de forma a garantir melhor desempenho e gestão dos recursos disponibilizados, e garantir um melhor controlo de acesso á rede. O objectivo mor deste trabalho prende-se ao facto de assimilar a essência das Redes Locais Virtuais, e a partir de então elaborar um estudo do caso sobre a implementação de VLANs na universidade Jean Piaget de Cabo Verde. Neste trabalho pode-se encontrar uma vasta gama de assuntos imprescindíveis para que se chegue a um bom entendimento no que toca á implementação de VLANs em redes, começando pelas redes, segurança até alcançar ao capitulo referente ás VLANs tanto por si só como uma componente da rede. Por fim, o trabalho resultou numa proposta de melhoramento da rede Universitária com a implementação de VLANs e por conseguinte a melhoria no desempenho das funções por ela atendidas.
Resumo:
Para distribuir e socializar a informação, nos mais diversos locais e das formas mais rápidas possíveis, proliferam as redes de comunicação de dados, cada vez mais presentes em nosso quotidiano, especialmente através do uso das novas tecnologias. Dentre elas, destaca-se a tecnologia Power Line Communication (PLC) Linha de força de comunicação, em que os dados são transmitidos através da corrente eléctrica. Hoje, um pouco por todo o mundo, estuda-se a alternativa viável, desafios e oportunidades de se utilizar a rede de energia eléctrica como um canal efectivo para transmissão de dados, voz e imagem, tornando-se assim, também uma rede de comunicação de dados. Ainda sem uma oferta comercial a funcionar em Cabo Verde, apesar de já terem sido feito algumas tentativas de testes de equipamentos, a Power Line Communication é já utilizada com sucesso em vários países, ligando em banda larga casas e empresas. Assim, este trabalho pretende fazer o enquadramento da tecnologia em si, bem como analisar os desafios e oportunidades da implementação do PLC no mercado Cabo-verdiano.
Resumo:
As tecnologias de comunicação sem fio têm sido muito utilizadas por instituições com o intuito de economia em redução dos custos com cabeamento, manutenção, etc. Além de fornecer interligação, interoperabilidade, escalabilidade, maior mobilidade e flexibilidade. Entretanto com todos os benefícios que a comunicação sem fio apresenta, uma grande preocupação começou a surgir nesse ambiente: A Segurança. Uma vez que a segurança deve ser vista como um recurso para manter a instituição segura de acesso não autorizados, o presente trabalho pretende estudar e analisar a verdadeira situação da segurança da rede sem fio da Assembleia Nacional de Cabo Verde (ANCV), apontando mecanismos e ferramentas de segurança, como objectivo de garantir a segurança da rede sem fio da mesma.
Resumo:
Redes de computadores constituem hoje um dos principais sistemas tecnológicos, que nos mantem integrado com a nova era tecnológica pela forma de comunicar, de adquirir informação, e de ter acesso ao mundo exterior independentemente da nossa localização, compartilhando os nossos dados e documentos. Por este e por outras várias razões, muitas empresas ou organizações optaram pela sua utilização, podendo tirar diversos benefícios. Porém são muitas as informações que circulam na rede, e nem sempre é garantida a segurança total dos dados, isso devido a vários factores tais como a própria insegurança da rede, causados pela má infra-estrutura da rede, provocando muitos problemas relacionados com a manutenção. Com a implementação de um projecto de rede é possível verificar os aspectos que põem em causa a segurança da rede.Relacionado a este assunto no presente trabalho serão abordados os diferentes mecanismos de segurança das informações que também serão apresentadas as fases da documentação através da utilização de cabeamento estruturado. Portanto este trabalho de investigação apresenta um estudo sobre o projecto de redes de computadores nas organização, cujo objectivo é mostrar qual a importância de um de projecto de rede para o bom funcionamento das redes nas organizações, apresentando ainda um estudo de caso sobre projecto de rede de computadores do edifício D da Universidade jean Piaget de Cabo Verde.
Resumo:
O artigo relata um experimento de simulação computacional de um sistema de recuperação da informação composto por uma base de índices textuais de uma amostra de documentos, um software de rede neural artificial implementando conceitos da Teoria da Ressonância Adaptativa, para automação do processo de ordenação e apresentação de resultados, e um usuário humano interagindo com o sistema em processos de consulta. O objetivo do experimento foi demonstrar (i) a utilidade das redes neurais de Carpenter e Grossberg (1988) baseadas nessa teoria e (ii) o poder de resolução semântica com índices sintagmáticos da abordagem SiRILiCO proposta por Gottschalg-Duque (2005), para o qual um sintagma nominal ou proposição é uma unidade linguística constituda de sentido maior que o significado de uma palavra e menor que uma narrativa ou uma teoria. O experimento demonstrou a eficácia e a eficiência de um sistema de recuperação da informação combinando esses recursos, concluindo-se que um ambiente computacional dessa natureza terá capacidade de clusterização (agrupamento) variável on-line com entradas e aprendizado contínuos no modo não supervisionado, sem necessidade de treinamento em modo batch (off-line), para responder a consultas de usuários em redes de computadores com desempenho promissor.
Resumo:
En el desarrollo académico de este proyecto se siguieron los procedimientos que se tienen en cuenta para poder gestionar el proyecto, establecidos en la Guía de los Fundamentos de la Dirección de Proyectos (Guía del PMBOK) 3ª edición. El proyecto, en su fase de planeación, describió la etapa de iniciación hasta la de cierre, con sus procesos detallados y como se deben seguir para cumplir el alcance del mismo. Se especifican los requerimientos internos de la organización para llevar al proyecto a su éxito teniendo en cuenta el tiempo, el costo y el alcance. En la fase de control y seguimiento se lleva al lector al entendimiento de los resultados de la planeación del proyecto y de sus diferencias con el resultado obtenido. Anexo al presente documento se encuentran todos los soportes necesarios utilizados para llevar a cabo las tareas de control y seguimiento de cada una de las etapas de diseño y construcción de este. Este ejercicio académico conlleva a poner en practica técnicas avanzadas en la administración de proyectos, desarrolladas por el Project management Institute, entidad Norteamericana especializada en este tema
Resumo:
RAMOS, Rogéria Campos. Redes sociais virtuais: o uso do twitter pelas universidades públicas. 2012. 119f. Dissertação (Mestrado em Comunicação)-Universidade Municipal de São Caetano do Sul, São Caetano do Sul, 2012.
Resumo:
Acredita-se que no futuro as redes de telecomunicação e dados serão integradas em uma só rede, baseada na comutação de pacotes IP. Esta rede deverá oferecer serviços com qualidade (QoS) para as aplicações atuais e futuras. Uma das tecnologias que deverá ser adotada no núcleo desta nova rede é MPLS. MPLS introduz o conceito de switching (comutação) no ambiente IP e também permite que seja implementada a Engenharia de Tráfego, otimizando sua utilização através do roteamento baseado em restrições. Junto com MPLS outras arquiteturas para fornecimento de QoS, como Serviços Integrados e Serviços Diferenciados, serão utilizadas. Entretanto, como nenhuma delas atende a todos os requisitos para garantia de QoS fim a fim e levando-se em consideração o fato de a Internet ser uma rede heterogênea, surge a necessidade de um framework que permita a interoperabilidade das diferentes arquiteturas existentes. Neste trabalho é proposto um modelo de integração que fornece garantias de QoS fim a fim para redes que utilizam tanto Serviços Integrados como Serviços Diferenciados através do emprego de uma infra-estrutura baseada em MPLS e Serviços Diferenciados. A aplicabilidade do modelo foi testada no simulador ns2 e os resultados são apresentados neste trabalho.
Resumo:
Este trabalho tem como finalidade apresentar uma visão geral dos assuntos relacionados à definição, configuração e gerenciamento dos serviços habilitados pela arquitetura de Serviços Diferenciados em relação à priorização de tráfego. Nele, descrevemos as necessidades por QoS nas redes atuais e futuras, bem como o direcionamento da Internet 2 em relação ao QoS, mais especificamente voltada ao mecanismo DiffServ. Também são destacados os mecanismos de QoS para redes IP do fornecedor Cisco Systems, o qual possui a maior gama de mecanismos já implantados pelos fornecedores. Por fim, identificamos as características necessárias para participar do QBone, um testbed para Serviços Diferenciados.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
Aplicações como videoconferência, vídeo sob-demanda, aplicações de ensino a distância, entre outras, utilizam-se das redes de computadores como infra-estrutura de apoio. Mas para que tal uso seja efetivo, as redes de computadores, por sua vez, devem fornecer algumas facilidades especiais para atender às necessidades dessas aplicações. Dentre as facilidades que devem ser fornecidas estão os suportes à qualidade de serviço (QoS - Quality of Service) e as transmissões multicast. Além do suporte a QoS e multicast nas redes, é necessário fornecer um gerenciamento da rede adequado às expectativas de tais aplicações. Soluções que fornecem gerenciamento de forma individual para tais facilidades, já foram propostas e implementadas. Entretanto, estas soluções não conseguem agir de modo integrado, o que torna a tarefa do gerente da rede extremamente complexa e difícil de ser executada, pois possibilitam um fornecimento não adequado das facilidades desejadas às aplicações. Nesta dissertação é apresentada uma solução para gerenciamento integrado de QoS e multicast. Fazem parte da solução: a definição e implementação de uma arquitetura para gerenciamento integrado de QoS e multicast, utilizando gerenciamento baseado em políticas (PBNM - Policy-Based Network Management), além da validação da solução proposta através da implementação de um protótipo. Um ambiente, condições de teste, e análise dos resultados obtidos, também são apresentados durante a dissertação.
Resumo:
Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).