911 resultados para Redes Definidas por Software
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
SW-V: modelo de streaming de software baseado em técnicas de virtualização e transporte peer-to-peer
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
Este trabalho propõe a utilização de uma nova metodologia para a localização de falhas em linhas de transmissão (LT). Esta metodologia consiste na utilização da decomposição harmônica da corrente de fuga de uma linha e na aplicação de uma Rede Neural Artificial (RNA) capaz de distinguir padrões da condição normal de funcionamento e padrões de situações de falhas de uma LT. Foi utilizado um modelo Pi capaz de absorver dados reais de tensão e corrente de três fases e de alterar valores de R, L e C segundo modificações ambientais. Neste modelo foram geradas falhas em todas as torres com diferentes valores de capacitância. A saída fornecida pelo modelo é a decomposição da corrente de fuga do trecho considerado. Os dados de entrada e saída do modelo foram utilizados no treinamento da RNA desenvolvida. A aquisição de dados reais de tensão e corrente foi feita através de analisadores de parâmetros de qualidade de energia elétrica instalados nas extremidades de um trecho de LT, Guamá-Utinga, pertencente à Centrais Elétricas do Norte do Brasil ELETRONORTE. O cálculo dos parâmetros construtivos foi feito através do método matricial e melhorado através da utilização do Método de Elementos Finitos (MEF). A RNA foi desenvolvida com o auxílio do software Matlab. Para treinamento da RNA foi utilizado o algoritmo de Retropropagação Resiliente que apresentou um bom desempenho. A RNA foi treinada com dois conjuntos de dados de treinamento para analisar possíveis diferenças entre as saídas fornecidas pelos dois grupos. Nos dois casos apresentou resultados satisfatórios, possibilitando a localização de falhas no trecho considerado.
Resumo:
Neste trabalho, o método FDTD em coordenadas gerais (LN-FDTD) foi implementado para a análise de estruturas de aterramento com geometrias coincidentes ou não com o sistema de coordenadas cartesiano. O método soluciona as equações de Maxwell no domínio do tempo, permitindo a obtenção de dados a respeito da resposta transitória e de regime estacionário de estruturas diversas de aterramento. Uma nova formulação para a técnica de truncagem UPML em coordenadas gerais, para meios condutivos, foi desenvolvida e implementada para viabilizar a análise dos problemas (LN-UPML). Uma nova metodologia baseada em duas redes neurais artificiais é apresentada para a deteccão de defeitos em malhas de terra. O software FDTD em coordenadas gerais foi testado e validado para vários casos. Uma interface gráfica para usuários, chamada LANE SAGS, foi desenvolvida para simplificar o uso e automatizar o processamento dos dados.
Resumo:
A tecnologia DSL- Digital Subscriber Line permitem um acesso universal de banda larga, com redução de custo e tempo de implantação necessários, quando comparadas a outras redes de acesso. DSL pode ser considerada uma rede de banda larga de grande capilaridade, uma vez que utiliza uma combinação de infra-estrutura de telefonia existente e a tecnologia de transmissão. Não obstante, a rede DSL precisa ser amplamente compreendida, de maneira que suas principais vantagens não sejam suplantadas pela ineficiência geral do sistema. Esta tese apresenta uma abordagem baseada em estratégias que possibilitem o planejamento de redes de comunicação que a priori não foram implementadas para suportar fluxos Triple Play (pré-requisito obrigatório diante do perfil atual de usuários da Internet). Será mostrado que, a partir do uso de medidas reais e análises probabilísticas, é possível elaborar o planejamento de redes de comunicação, considerando os parâmetros físicos e lógicos, tais como: o caminho de transmissão, a influência do ruído na comunicação, os protocolos utilizados e tráfego de Triple Play (voz, vídeo e dados).
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Esta dissertação tem como objetivo principal propor um nodo (ou nó) sensor sem fio para ser utilizado em redes de sensores sem fio, em sistemas de aquisição de dados de extensômetros. O sistema de aquisição para os extensômetros é baseado na ponte de Wheatstone e de modo a permitir várias configurações de extensômetros. O processamento e a comunicação sem fio é realizada pelo ATmega128RFA1, composto por um microcontrolador e um transceiver Rádio-Frequência com o padrão Zigbee. O nodo foi projetado para garantir confiabilidade na aquisição de dados e ser totalmente controlado remotamente. Entre os parâmetros controláveis estão: o ganho do sinal e a taxa de amostragem. Além disso, o nodo possui recursos para efetuar o equilíbrio da ponte de Wheatstone automaticamente. A escolha de seus componentes, baseou-se em critérios relacionados ao consumo de energia do mesmo e ao custo. Foi concebida uma placa de circuito impresso (PCI) para o nodo, e sobre ela foram realizadas estimativas sobre o consumo de energia e valor agregado do protótipo, com o objetivo de analisar a sua viabilidade. Além do projeto do nodo sensor, o trabalho apresenta a proposta de integração do mesmo em uma rede de sensores sem fio (RSSF), incluindo a sugestão do hardware complementar e desenvolvimentos dos softwares. Para os testes do nodo sensor, foi construido experimentalmente um transdutor de força.
Resumo:
Esta dissertação tem como objetivo principal apresentar a implementação de um software-modem ADSL totalmente escrito em Java, utilizando o framework Ptolemy II, denominado de Hermes (de "A Handy Experimental Software Modem System"). Um software-modem é útil em ocasiões onde se precisem executar testes e simulações de sistemas de comunicação com um número grande de modens e quando os parâmetros desses sistemas precisem ser modificados com um alto grau de liberdade. Além disso, um software-modem possui características que tornam mais fácil a tarefa de acrescentar, eliminar, validar e analisar funções e algoritmos de processamento de sinais e de telecomunicações. Testes e simulações foram realizados para analisar a funcionalidade do Hermes, utilizando, inclusive, o Tracespan, um equipamento para análise não-intrusiva de redes DSL. A partir dos resultados obtidos em conjunto com o Tracespan, foi possível validar com sucesso as funções do Hermes.
Resumo:
Pós-graduação em Engenharia Mecânica - FEG
Resumo:
O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.
Resumo:
A crescente demanda por capacidade vem levando os padrões de comunicação sem-fio a prover suporte para a coexistência de macro e pico células. O backhaul, conexão entre a rede de acesso e o núcleo da rede, é de grande interesse neste contexto devido aos diversos desafios técnicos e financeiros envolvidos ao tentar satisfazer o crescente tráfego dos usuários. Fibra óptica e micro-ondas com linha de visada são as opções mais amplamente adotadas para o backhaul de macro-células. Contudo, em muitas situações de interesse prático, estas não são factíveis devido aos altos custos e logística envolvidos. Este trabalho avalia o backhaul de pico-células, focando primeiramente na utilização de cobre como backhaul. O simulador OPNET foi utilizado para avaliar os requerimentos de backhaul para redes móveis em cenários específicos considerando garantir qualidade de serviço para os diversos tipos de tráfego envolvidos. Assumindo demandas de tráfego para LTE e LTE-Advanced, as tecnologias VDSL2 e G.fast são avaliadas e os resultados mostram que mesmo com uma grande demanda de aplicações de vídeo de alta definição, estas tecnologias podem acomodar o tráfego no backhaul de pico-células. VDSL2 é capaz de prover as taxas requeridas para cenários de pico-células LTE, mas não é capaz de acomodar tráfego LTE-Advanced típico. Por outro lado, considerando as taxas atingidas com a tecnologia G.fast, o tráfego backhaul para pico-células LTE-Advanced pode ainda ser entregue com garantias de qualidade de serviço. Neste trabalho também é proposta uma solução para simulação de cenários contendo redes de acesso heterogêneas considerando backhaul LTE sem linha de visada. São demonstrados também os resultados de simulações no OPNET com o backhaul LTE proposto para validar a solução proposta como capaz de caracterizar o tráfego de ambas as tecnologias WiFi e LTE na rede de acesso de acordo com o tipo de serviço.
Resumo:
Devido às suas características únicas, redes de sensores ópticos têm encontrado aplicação em muitos campos, como em Engenharia Civil, Engenharia Geotécnica, Aeronáutica, Energia e Indústrias de Petróleo & Gás. Soluções de monitoramento baseadas nessa tecnologia têm se mostrado particularmente rentáveis e podem ser aplicadas às estruturas de grande porte, onde centenas de sensores devem ser implantados para medições a longo prazo de diferentes parâmetros mecânicos e físicos. Sensores baseados em Grades de Bragg em fibra (FBGs) são a solução mais comumente utilizada no Monitoramento de Saúde Estrutural (SHM) e as medições são realizadas por instrumentos especiais conhecidos como interrogadores ópticos. Taxas de aquisição cada vez mais elevadas têm sido possíveis utilizando interrogadores ópticos mais recentes, o que dá origem a um grande volume de dados cuja manipulação, armazenamento, gerenciamento e visualização podem demandar aplicações de software especiais. Este trabalho apresenta duas aplicações de software de tempo real desenvolvidas para esses fins: Interrogator Abstraction (InterAB) e Web-based System (WbS). As inovações neste trabalho incluem a integração, sincronização, independência, segurança, processamento e visualização em tempo real, e persistência de dados ou armazenamento proporcionados pelo trabalho conjunto das aplicações desenvolvidas. Os resultados obtidos durante testes em laboratório e ambiente real demonstraram a eficiência, robustez e flexibilidade desses softwares para diferentes tipos de sensores e interrogadores ópticos, garantindo atomicidade, consistência, isolamento e durabilidade dos dados persistidos pelo InterAB e apresentados pelo WbS.
Aplicação de redes NeuroFuzzy ao processamento de peças automotivas por meio de injeção de polímeros
Resumo:
The injection molding of automotive parts is a complex process due to the many non-linear and multivariable phenomena that occur simultaneously. Commercial software applications exist for modeling the parameters of polymer injection but can be prohibitively expensive. It is possible to identify these parameters analytically, but applying classical theories of transport phenomena requires accurate information about the injection machine, product geometry, and process parameters. However, neurofuzzy networks, which achieve a synergy by combining the learning capabilities of an artificial neural network with a fuzzy set's inference mechanism, have shown success in this field. The purpose of this paper was to use a multilayer perceptron artificial neural network and a radial basis function artificial neural network combined with fuzzy sets to produce an inference mechanism that could predict injection mold cycle times. The results confirmed neurofuzzy networks as an effective alternative to solving such problems.