998 resultados para Linux - Proteção - Redes corporativas


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A busca de sistemas de comunicação eficientes e econômicos é cada vez maior, principalmente com o aumento da demanda por tráfego e banda de transmissão. Conhecidas pela utilização eficiente de largura de banda, as redes ópticas de segmentação espectral flexível têm sido intensamente estudadas e são consideradas boas candidatas para a próxima geração de redes. Tais redes flexíveis utilizam formatos de modulação multinível e multiplexação multiportadora. Sistemas com alta capacidade de transmissão devem ser extremamente confiáveis, pois a falha em um dispositivo ou enlace da rede acarreta enorme perda de dados. Por isso, as técnicas de proteção e restauração do tráfego devem ser eficientes, de modo a garantir a sobrevivência da rede. Neste trabalho, foi desenvolvido um algoritmo capaz de lidar com cada requisição de conexão, encontrar um caminho óptico para transmissão e reservar outro caminho para recuperação do tráfego em caso de falha na rede. A seleção dos caminhos primário e de proteção utiliza a técnica smart-fit, que escolhe a solução com menor custo final, definido pela distância da rota percorrida somada ao custo do índice inicial da faixa espectral alocada, buscando equilibrar a escolha entre a posição no espectro e rota escolhida. Além disso, são definidos custos diferentes para slots de frequência livres e compartilhados, a fim de incentivar o compartilhamento espectral em caminhos de proteção. Dentre as técnicas de alocação espectral, a varredura com janela espectral varre o espectro em todos os enlaces da rota, slot por slot, em busca de uma faixa livre com tamanho suficiente para atender uma demanda. Neste trabalho, foi desenvolvida uma técnica chamada busca lógica, que lida simultaneamente com todos os enlaces da rota ao realizar operações lógicas com seus espectros. Em seguida, é realizada uma convolução entre a janela espectral, com tamanho da demanda, e o espectro resultante. A partir desse resultado, é possível saber as posições no espectro onde a demanda poderá ser alocada. Tal técnica, como será demonstrado, é mais veloz que a varredura com janela espectral. Para garantir a eficácia e confiabilidade do algoritmo, utilizando o software MATLAB, avaliou-se a probabilidade de bloqueio e probabilidade de bloqueio de banda, a fragmentação espectral média na rede, o grau de compartilhamento, a taxa de utilização espectral e a taxa de capacidade reservada. O algoritmo desenvolvido foi capaz de organizar o tráfego na rede de modo ordenado e pouco fragmentado, além de utilizar de maneira eficiente os recursos destinados à proteção.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação tem por propósito analisar os impactos da geração distribuída sobre as correntes de curto-circuito e sobre a proteção das redes de média tensão das concessionárias de distribuição de energia elétrica usando uma abordagem paramétrica. A principal motivação deste trabalho são os recentes incentivos regulatórios que estão fomentando a geração distribuída no Brasil. Contudo, as redes de distribuição convencionais foram projetadas para serem passivas e a introdução da geração poderá causar problemas de ordem técnica que ainda precisam ser resolvidos. Tais problemas foram pesquisados e aqueles relacionados com os impactos sobre as correntes de curto-circuito foram enfatizados. As normas técnicas das concessionárias também foram investigadas porque seus requisitos, como a ligação dos transformadores de acoplamento, influem nas correntes de curto-circuito. Para se calcular as correntes de curto-circuito, desenvolveu-se uma planilha eletrônica cujos resultados foram validados com programas comerciais de análise de redes elétricas. Esta ferramenta foi utilizada para demonstrar, através de exemplos, o impacto causado pela geração distribuída sobre as correntes de curto-circuito e, posteriormente, para realizar as análises paramétricas nas quais a influência de cada variável foi avaliada. A aplicação do método paramétrico permitiu o estudo de possíveis limites para a potência de um gerador distribuído em função dos impactos admissíveis, de seu ponto de conexão, de seus parâmetros elétricos e dos parâmetros elétricos da rede.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

As redes atuais de telecomunicações utilizam tecnologias de comutação de pacotes para integração de voz, dados, imagens e outros serviços. O tráfego nessas redes costuma ser feito por meio de tecnologias como o MPLS-TP e com regras heurísticas para a determinação dos melhores caminhos. O uso de boas regras afeta diretamente o desempenho e a segurança da operação. Este trabalho propõe o uso de simulação de baixo custo para prever o comportamento e avaliar regras de escolha de caminhos. Para isso, este trabalho avalia três métodos de seleção de caminhos de LSPs, combinados com duas heurísticas de recuperação, usados em redes MPLS-TP em malha com mecanismos de proteção em malha compartilhada. Os resultados das simulações medem o impacto dos métodos e heurísticas utilizados, demonstrando o quanto uma melhor seleção de caminhos pode contribuir para a redução do uso dos recursos da rede e do número máximo de LSPs afetados em caso de falhas na rede. Os resultados deste trabalho, bem como a técnica de análise proposta, almejam ser uma contribuição para a padronização de regras de seleção de LSPs em redes heterogêneas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trata-se de uma pesquisa qualitativa que buscou investigar a percepção de fatores de risco e de proteção à saúde em adolescentes usuários de redes sociais na internet, caracterizar as experiências emocionais dos adolescentes, usuários das redes sociais da internet e discutir a contribuição das experiências das amizades virtuais para o vínculo afetivo no âmbito presencial. Esse trabalho foi realizado com 13 adolescentes, entre 16 e 18 anos, estudantes do Serviço Nacional de Aprendizagem Comercial de São Paulo (SENAC São Paulo), no período de fevereiro a Julho de 2011, foi utilizado como instrumento para obtenção dos dados o Grupo Focal e o conteúdo foi registrado por meio de um gravador de voz e transcrito posteriormente. A análise dos dados foi realizada através da Grounded Theory. Durante esse estudo foi possível investigar os fatores de risco e de proteção à saúde em adolescentes usuários das redes sociais na internet, destacamos alguns mecanismos importantes de proteção, como o bloqueio de suas informações pessoais a desconhecidos para se protegerem de riscos decorrentes de uso indevido do material postado na rede.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação pretende contribuir no debate sobre o conflito socioambiental existente no Campinho, situado no alto do morro da Fonte Grande, Vitória (ES), cenário de uma disputa, profundamente desigual em termos de poder político dos agentes humanos envolvidos, por um espaço urbano “verde” imprensado entre duas secções de uma área de proteção integral, em que habita um coletivo há gerações. Através da etnografia, procurei seguir atores humanos e não-humanos para entender as representações dos ambientalistas, gestores e técnicos ambientais bem como do coletivo, cujas perspectivas defendidas reiteram de um lado a oposição entre natureza e sociedade, consolidando políticas de reclusão (natural) e exclusão (social), e de outro a permanência e o pertencimento ao lugar, como guardiões atuantes de outro regime de relações entre humanos e não-humanos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os municípios brasileiros que possuem uma política específica sobre mudanças climáticas foram ou ainda são membros da rede transnacional Local Governments for Sustainability (Iclei), sendo a cidade de Palmas-TO a primeira a instituir uma lei sobre o tema. Nesse contexto, buscou-se identificar em qual medida a participação do município na campanha Cidades pela Proteção do Clima (CPC) do Iclei influenciou a formulação e a implementação de políticas locais sobre mudanças climáticas. Foi utilizado o método qualitativo de pesquisa, por meio da análise de documentos formais e entrevistas semiestruturadas com atores da administração pública municipal e do terceiro setor. Concluiu-se que, no caso analisado, o Iclei influenciou, em parte, na ação local em mudanças climáticas, pois já havia ações da Prefeitura antes da adesão à rede; entretanto, o Iclei colaborou para o reforço da capacidade local para agir em relação à problemática.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O galgamento de estruturas marítimas é um fenómeno caracterizado pela passagem de água sobre o seu coroamento devido à ação da agitação marítima incidente. Numa estrutura do tipo quebra-mar de taludes, a onda marítima perde parte significativa da sua energia no espraiamento. Se a zona de talude emersa não for suficiente extensa para ocorrer a dissipação total da energia, o nível máximo de espraiamento excede a cota do coroamento da estrutura e verifica-se galgamento. O caudal médio de água que galga as estruturas, habitualmente medido em m3/s por metro linear de estrutura, constitui a par da estabilidade da estrutura, um dos principais parâmetros condicionantes em projeto. A quantificação incorreta dos efeitos do fenómeno pode não só originar implicações de índole financeira e económica, como colocar em risco a segurança de pessoas, bens e equipamentos, bem como as atividades que justificam a existência daquelas obras de proteção. Neste trabalho é utilizada uma metodologia recente de previsão de galgamentos em estruturas marítimas, a qual se baseia no conceito de análise de redes neuronais para o desenvolvimento das ferramentas de cálculo. São aplicadas as ferramentas NN_OVERTOPPING2, do projeto Europeu de investigação CLASH, e Overtopping, que faz parte da dissertação de doutoramento de Verhaeghe (2005). Esta segunda ferramenta mostra uma mais-valia em relação à primeira, por ter sido desenvolvida para prever galgamentos nulos para determinados estados de agitação incidentes nas estruturas. O caso de estudo é referente a um troço (em frente ao posto 2) do molhe Oeste do Porto de Sines que serve de abrigo ao terminal de graneis líquidos. Para o perfil desta estrutura existem dados de galgamentos que resultaram de ensaios em modelo físico reduzido realizados no LNEC. Devido à colocação diferenciada dos blocos Antifer em duas zonas do manto de proteção, o que lhe confere diferentes características de rugosidade e de permeabilidade, foi utilizada uma metodologia recomendada por Pullen et al. (2007) no cálculo do coeficiente de redução do galgamento f, que tem em conta, entre outras variáveis, aquelas características físicas. O presente trabalho visa comparar os resultados estimados pelas duas ferramentas de redes neuronais, tendo como referência os valores do caudal médio galgado por metro linear de estrutura obtidos nos referidos ensaios. Será observado que os resultados produzidos pelas ferramentas são bastante satisfatórios, apresentando no entanto significativas divergências no domínio dos pequenos galgamentos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A evolução tecnológica a que se assistiu nas últimas décadas tem sido um dos principais fatores da necessidade de utilização de energia elétrica. Consequentemente, remodelações tanto a nível de equipamentos na rede de distribuição como da qualidade de serviço têm sido determinantes para fazer face a uma evolução crescente do consumo de energia elétrica por parte da sociedade. Esta evolução tem afetado significativamente o desempenho dos sistemas de proteção e automatismos associados, sendo estes cada vez mais fiáveis e proporcionando maior segurança tanto aos ativos da rede como a pessoas. No entanto, esta evolução tem tido também impacto nas linhas de distribuição em média tensão, estando estas a evoluir de rede aérea para linhas mistas de distribuição. As linhas mistas de distribuição têm diferentes desempenhos técnicos e económicos no que respeita aos sistemas de proteção e respetivos automatismos de religação automática. Neste trabalho são analisados alguns parâmetros que têm influência na atuação das proteções e respetivos automatismos de religação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os colaboradores que realizam a sua atividade profissional, no setor das águas residuais, reconhecem que a sua atividade é perigosa. Esse conhecimento, foi adquirido pela experiência obtida ao longo dos anos, pelas várias formações e pelas notícias de acidentes, muitas vezes mortais, que têm acontecido na atividade. Muita das vezes, os colaboradores têm dificuldade em aceitar o risco, porque na realidade não existe um histórico conhecido do que se passa no interior das redes de drenagem de águas residuais e consideram que o risco é apenas teórico. Os portugueses são um Povo muito ligado à Cultura Popular,e são os ditados populares que melhor sintetiza as ideias expressas pelos trabalhador português “Ver para Crer, Como São Tomé” (SOUSA, Marcelo Rebelo de, Os Evangelhos de 2001, Lisboa, Bertrand Editora, 2001]. O objetivo principal com este trabalho, foi evidenciar que existem gases no interior das caixas de visita, mas principalmente, demostrar que seu aparecimento e respetiva concentração, é variável e que ocorre sem aviso prévio! Tornando assim, os trabalhos no interior das caixas de visita e das redes de drenagem de águas residuais domesticas, locais perigosos para quem opera no seu interior, sem a correta utilização dos equipamentos de proteção individual, (Epis e Epc). Sendo necessário, reforçar, a constante informação e formação para a utilização dos equipamentos de proteção individual e coletiva. Com o presente estágio, pretendeu-se iniciar um registo histórico de medições nas redes de drenagem de águas residuais domésticas. Com o resultado das medições que serão obtidas, pretende-se uma “Radiografia Fotográfica” ao interior das caixas de visitas das redes de drenagem de águas residuais. Com os resultados deste estudo, pretende-se contribuir de forma clara e objetiva, para os perigos iminentes que existem efetivamente, no interior das redes de saneamento, com a presença de altas concentrações de gás sulfídrico, nocivo para a vida humana!

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.