10 resultados para Redes de Nova Geração

em Biblioteca de Teses e Dissertações da USP


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os smart grids representam a nova geração dos sistemas elétricos de potência, combinando avanços em computação, sistemas de comunicação, processos distribuídos e inteligência artificial para prover novas funcionalidades quanto ao acompanhamento em tempo real da demanda e do consumo de energia elétrica, gerenciamento em larga escala de geradores distribuídos, entre outras, a partir de um sistema de controle distribuído sobre a rede elétrica. Esta estrutura modifica profundamente a maneira como se realiza o planejamento e a operação de sistemas elétricos nos dias de hoje, em especial os de distribuição, e há interessantes possibilidades de pesquisa e desenvolvimento possibilitada pela busca da implementação destas funcionalidades. Com esse cenário em vista, o presente trabalho utiliza uma abordagem baseada no uso de sistemas multiagentes para simular esse tipo de sistema de distribuição de energia elétrica, considerando opções de controle distintas. A utilização da tecnologia de sistemas multiagentes para a simulação é baseada na conceituação de smart grids como um sistema distribuído, algo também realizado nesse trabalho. Para validar a proposta, foram simuladas três funcionalidades esperadas dessas redes elétricas: classificação de cargas não-lineares; gerenciamento de perfil de tensão; e reconfiguração topológica com a finalidade de reduzir as perdas elétricas. Todas as modelagens e desenvolvimentos destes estudos estão aqui relatados. Por fim, o trabalho se propõe a identificar os sistemas multiagentes como uma tecnologia a ser empregada tanto para a pesquisa, quanto para implementação dessas redes elétricas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A cardiomiopatia hipertrófica (CMH) é uma doença geneticamente determinada, caracterizada por hipertrofia ventricular primária, com prevalência estimada de 0.2% na população geral. Qualquer portador tem 50% de chance de transmitir esta doença para seus filhos, o que torna cada vez mais relevante a importância do estudo genético dos indivíduos acometidos e de seus familiares. Já foram descritas diversas mutações genéticas causadoras de CMH, a maioria em genes que codificam proteínas do sarcômero, e algumas mutações mais raras em genes não sarcoméricos. O objetivo desse estudo é sequenciar as regiões exônicas de genes candidatos, incluindo os principais envolvidos na hipertrofia miocárdica, utilizando o sequenciamento de nova geração (Generation Sequencing); testar a aplicabilidade e viabilidade deste sistema para identificar mutações já confirmadas e propor as prováveis novas mutações causadoras de CMH. Métodos e resultados: 66 pacientes não aparentados portadores de CMH foram estudados e submetidos à coleta de sangue para obtenção do DNA para analisar as regiões exômicas de 82 genes candidatos, utilizando a plataforma MiSeq (Illumina). Identificou-se 99 mutações provavelmente patogênicas em 54 pacientes incluídos no estudo (81,8%) relacionadas ou não a CMH, e distribuídas em 42 genes diferentes. Destas mutações 27 já haviam sido publicadas, sendo que 17 delas descritas como causadoras de CMH. Em 28 pacientes (42,4%) identificou-se mutação nos três principais genes sarcoméricos relacionados à CMH (MYH7, MYBPC3, TNNT2). Encontrou-se também um grande número de variantes não sonôminas de efeito clínico incerto e algumas mutações relacionadas a outras enfermidades. Conclusão: a análise da sequencia dos exônos de genes candidatos, demonstrou ser uma técnica promissora para o diagnóstico genético de CMH de forma mais rápida e sensível. A quantidade de dados gerados é o um fator limitante até o momento, principalmente em doenças geneticamente complexas com envolvimento de diversos genes e com sistema de bioinformática limitado.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação tem por propósito analisar os impactos da geração distribuída sobre as correntes de curto-circuito e sobre a proteção das redes de média tensão das concessionárias de distribuição de energia elétrica usando uma abordagem paramétrica. A principal motivação deste trabalho são os recentes incentivos regulatórios que estão fomentando a geração distribuída no Brasil. Contudo, as redes de distribuição convencionais foram projetadas para serem passivas e a introdução da geração poderá causar problemas de ordem técnica que ainda precisam ser resolvidos. Tais problemas foram pesquisados e aqueles relacionados com os impactos sobre as correntes de curto-circuito foram enfatizados. As normas técnicas das concessionárias também foram investigadas porque seus requisitos, como a ligação dos transformadores de acoplamento, influem nas correntes de curto-circuito. Para se calcular as correntes de curto-circuito, desenvolveu-se uma planilha eletrônica cujos resultados foram validados com programas comerciais de análise de redes elétricas. Esta ferramenta foi utilizada para demonstrar, através de exemplos, o impacto causado pela geração distribuída sobre as correntes de curto-circuito e, posteriormente, para realizar as análises paramétricas nas quais a influência de cada variável foi avaliada. A aplicação do método paramétrico permitiu o estudo de possíveis limites para a potência de um gerador distribuído em função dos impactos admissíveis, de seu ponto de conexão, de seus parâmetros elétricos e dos parâmetros elétricos da rede.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tecnologias HVDC que utilizam conversores do tipo fonte de tensão, o VSC-HVDC, ainda não são completamente difundidas e aplicadas no Brasil, em contraste com outros países que começaram a estudar e empregar este tipo de transmissão. Comparado com o HVDC tradicional, o VSC-HVDC é uma tecnologia de transmissão mais eficiente e pode superar deficiências encontradas na transmissão em corrente contínua convencional. O VSC-HVDC pode ser utilizado de maneira mais eficiente nas novas redes de energia, para alimentar ilhas, integração de geração eólica, renovação das linhas em centros urbanos, aplicações multiterminais e conexão com sistemas fracos. Por se tratar de uma tecnologia recente, o VSC-HVDC ainda não é amplamente adotado e uma das principais limitações da utilização destes sistemas é a sua fragilidade diante faltas na linha de corrente contínua. Neste contexto, limitadores de corrente de falta (LCF) podem ser utilizados para minimizar o impacto das faltas. A ação dos limitadores é benéfica ao sistema durante condições de falta, contudo, ainda assim é necessária a atuação do sistema de proteção para extinguir a condição faltosa. Portanto, este trabalho visa propor e avaliar um novo esquema de proteção que opere de maneira seletiva e confiável para sistemas VSC-HVDC na presença de LCF baseados em materiais supercondutores ou LCF indutivos. Para tanto, foram implementadas quatro funções de proteção tradicionais das linhas em CC, a saber: direcional de corrente, diferencial, sobrecorrente com restrição de tensão e ondas viajantes, e ainda, foi proposta uma nova função de proteção, a de condutância, a qual apresentou o menor tempo de identificação de falta, considerando as faltas mais severas. Adicionalmente, foi avaliado o comportamento destas funções quando o sistema apresenta os LCF em série com a linha. Foi demonstrado que é possível extrair os benefícios dos LCF sem deteriorar a qualidade dos resultados das funções de proteção, o que aumenta a segurança e confiabilidade dos sistemas VSC-HVDC, uma vez que os impactos das faltas são minimizados e as mesmas são identificadas em um curto intervalo de tempo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o escopo de fornecer subsídios para compreender como o processo de colaboração científica ocorre e se desenvolve em uma instituição de pesquisas, particularmente o IPEN, o trabalho utilizou duas abordagens metodológicas. A primeira utilizou a técnica de análise de redes sociais (ARS) para mapear as redes de colaboração científica em P&D do IPEN. Os dados utilizados na ARS foram extraídos da base de dados digitais de publicações técnico-científicas do IPEN, com o auxílio de um programa computacional, e basearam-se em coautoria compreendendo o período de 2001 a 2010. Esses dados foram agrupados em intervalos consecutivos de dois anos gerando cinco redes bienais. Essa primeira abordagem revelou várias características estruturais relacionadas às redes de colaboração, destacando-se os autores mais proeminentes, distribuição dos componentes, densidade, boundary spanners e aspectos relacionados à distância e agrupamento para definir um estado de redes mundo pequeno (small world). A segunda utilizou o método dos mínimos quadrados parciais, uma variante da técnica de modelagem por equações estruturais, para avaliar e testar um modelo conceitual, apoiado em fatores pessoais, sociais, culturais e circunstanciais, para identificar aqueles que melhor explicam a propensão de um autor do IPEN em estabelecer vínculos de colaboração em ambientes de P&D. A partir do modelo consolidado, avaliou-se o quanto ele explica a posição estrutural que um autor ocupa na rede com base em indicadores de ARS. Nesta segunda parte, os dados foram coletados por meio de uma pesquisa de levantamento com a utilização de um questionário. Os resultados mostraram que o modelo explica aproximadamente 41% da propensão de um autor do IPEN em colaborar com outros autores e em relação à posição estrutural de um autor na rede o poder de explicação variou entre 3% e 3,6%. Outros resultados mostraram que a colaboração entre autores do IPEN tem uma correlação positiva com intensidade moderada com a produtividade, da mesma forma que, os autores mais centrais na rede tendem a ampliar a sua visibilidade. Por fim, vários outros indicadores estatísticos bibliométricos referentes à rede de colaboração em P&D do IPEN foram determinados e revelados, como, a média de autores por publicação, média de publicações por autores do IPEN, total de publicações, total de autores e não autores do IPEN, entre outros. Com isso, esse trabalho fornece uma contribuição teórica e empírica aos estudos relacionados à colaboração científica e ao processo de transferência e preservação de conhecimento, assim como, vários subsídios que contribuem para o contexto de tomada de decisão em ambientes de P&D.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudamos transições de fases quânticas em gases bosônicos ultrafrios aprisionados em redes óticas. A física desses sistemas é capturada por um modelo do tipo Bose-Hubbard que, no caso de um sistema sem desordem, em que os átomos têm interação de curto alcance e o tunelamento é apenas entre sítios primeiros vizinhos, prevê a transição de fases quântica superfluido-isolante de Mott (SF-MI) quando a profundidade do potencial da rede ótica é variado. Num primeiro estudo, verificamos como o diagrama de fases dessa transição muda quando passamos de uma rede quadrada para uma hexagonal. Num segundo, investigamos como a desordem modifica essa transição. No estudo com rede hexagonal, apresentamos o diagrama de fases da transição SF-MI e uma estimativa para o ponto crítico do primeiro lobo de Mott. Esses resultados foram obtidos usando o algoritmo de Monte Carlo quântico denominado Worm. Comparamos nossos resultados com os obtidos a partir de uma aproximação de campo médio e com os de um sistema com uma rede ótica quadrada. Ao introduzir desordem no sistema, uma nova fase emerge no diagrama de fases do estado fundamental intermediando a fase superfluida e a isolante de Mott. Essa nova fase é conhecida como vidro de Bose (BG) e a transição de fases quântica SF-BG que ocorre nesse sistema gerou muitas controvérsias desde seus primeiros estudos iniciados no fim dos anos 80. Apesar dos avanços em direção ao entendimento completo desta transição, a caracterização básica das suas propriedades críticas ainda é debatida. O que motivou nosso estudo, foi a publicação de resultados experimentais e numéricos em sistemas tridimensionais [Yu et al. Nature 489, 379 (2012), Yu et al. PRB 86, 134421 (2012)] que violam a lei de escala $\\phi= u z$, em que $\\phi$ é o expoente da temperatura crítica, $z$ é o expoente crítico dinâmico e $ u$ é o expoente do comprimento de correlação. Abordamos essa controvérsia numericamente fazendo uma análise de escalonamento finito usando o algoritmo Worm nas suas versões quântica e clássica. Nossos resultados demonstram que trabalhos anteriores sobre a dependência da temperatura de transição superfluido-líquido normal com o potencial químico (ou campo magnético, em sistemas de spin), $T_c \\propto (\\mu-\\mu_c)^\\phi$, estavam equivocados na interpretação de um comportamento transiente na aproximação da região crítica genuína. Quando os parâmetros do modelo são modificados de maneira a ampliar a região crítica quântica, simulações com ambos os modelos clássico e quântico revelam que a lei de escala $\\phi= u z$ [com $\\phi=2.7(2)$, $z=3$ e $ u = 0.88(5)$] é válida. Também estimamos o expoente crítico do parâmetro de ordem, encontrando $\\beta=1.5(2)$.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A busca de sistemas de comunicação eficientes e econômicos é cada vez maior, principalmente com o aumento da demanda por tráfego e banda de transmissão. Conhecidas pela utilização eficiente de largura de banda, as redes ópticas de segmentação espectral flexível têm sido intensamente estudadas e são consideradas boas candidatas para a próxima geração de redes. Tais redes flexíveis utilizam formatos de modulação multinível e multiplexação multiportadora. Sistemas com alta capacidade de transmissão devem ser extremamente confiáveis, pois a falha em um dispositivo ou enlace da rede acarreta enorme perda de dados. Por isso, as técnicas de proteção e restauração do tráfego devem ser eficientes, de modo a garantir a sobrevivência da rede. Neste trabalho, foi desenvolvido um algoritmo capaz de lidar com cada requisição de conexão, encontrar um caminho óptico para transmissão e reservar outro caminho para recuperação do tráfego em caso de falha na rede. A seleção dos caminhos primário e de proteção utiliza a técnica smart-fit, que escolhe a solução com menor custo final, definido pela distância da rota percorrida somada ao custo do índice inicial da faixa espectral alocada, buscando equilibrar a escolha entre a posição no espectro e rota escolhida. Além disso, são definidos custos diferentes para slots de frequência livres e compartilhados, a fim de incentivar o compartilhamento espectral em caminhos de proteção. Dentre as técnicas de alocação espectral, a varredura com janela espectral varre o espectro em todos os enlaces da rota, slot por slot, em busca de uma faixa livre com tamanho suficiente para atender uma demanda. Neste trabalho, foi desenvolvida uma técnica chamada busca lógica, que lida simultaneamente com todos os enlaces da rota ao realizar operações lógicas com seus espectros. Em seguida, é realizada uma convolução entre a janela espectral, com tamanho da demanda, e o espectro resultante. A partir desse resultado, é possível saber as posições no espectro onde a demanda poderá ser alocada. Tal técnica, como será demonstrado, é mais veloz que a varredura com janela espectral. Para garantir a eficácia e confiabilidade do algoritmo, utilizando o software MATLAB, avaliou-se a probabilidade de bloqueio e probabilidade de bloqueio de banda, a fragmentação espectral média na rede, o grau de compartilhamento, a taxa de utilização espectral e a taxa de capacidade reservada. O algoritmo desenvolvido foi capaz de organizar o tráfego na rede de modo ordenado e pouco fragmentado, além de utilizar de maneira eficiente os recursos destinados à proteção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho propõe dois métodos para teste de sistemas de software: o primeiro extrai ideias de teste de um modelo desenvolvido em rede de Petri hierárquica e o segundo valida os resultados após a realização dos testes utilizando um modelo em OWL-S. Estes processos aumentam a qualidade do sistema desenvolvido ao reduzir o risco de uma cobertura insuficiente ou teste incompleto de uma funcionalidade. A primeira técnica apresentada consiste de cinco etapas: i) avaliação do sistema e identificação dos módulos e entidades separáveis, ii) levantamento dos estados e transições, iii) modelagem do sistema (bottom-up), iv) validação do modelo criado avaliando o fluxo de cada funcionalidade e v) extração dos casos de teste usando uma das três coberturas de teste apresentada. O segundo método deve ser aplicado após a realização dos testes e possui cinco passos: i) primeiro constrói-se um modelo em OWL (Web Ontology Language) do sistema contendo todas as informações significativas sobre as regras de negócio da aplicação, identificando as classes, propriedades e axiomas que o regem; ii) em seguida o status inicial antes da execução é representado no modelo através da inserção das instâncias (indivíduos) presentes; iii) após a execução dos casos de testes, a situação do modelo deve ser atualizada inserindo (sem apagar as instâncias já existentes) as instâncias que representam a nova situação da aplicação; iv) próximo passo consiste em utilizar um reasoner para fazer as inferências do modelo OWL verificando se o modelo mantém a consistência, ou seja, se não existem erros na aplicação; v) finalmente, as instâncias do status inicial são comparadas com as instâncias do status final, verificando se os elementos foram alterados, criados ou apagados corretamente. O processo proposto é indicado principalmente para testes funcionais de caixa-preta, mas pode ser facilmente adaptado para testes em caixa branca. Obtiveram-se casos de testes semelhantes aos que seriam obtidos em uma análise manual mantendo a mesma cobertura do sistema. A validação provou-se condizente com os resultados esperados, bem como o modelo ontológico mostrouse bem fácil e intuitivo para aplicar manutenções.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Localizar objetos ou pessoas no interior de um edifício é de grande interesse. Contudo, diferentemente do que ocorre no exterior de edificações, não há metodologia consagrada para a determinação da posição desses entes nos edifícios. Para o posicionamento em locais abertos existem tecnologias consolidadas, como GNSS (Global Navigation Satellite System), a dificuldade em fazê-lo em interiores é maior. Nesses casos, o GNSS não pode ser utilizado, pois os sinais de rádio dos satélites não conseguem penetrar através das estruturas, enquanto que outras tecnologias são apenas incipientes nesse quesito. Abordagens habituais para a resolução dessa demanda têm se baseado na utilização de propagadores das ondas de rádio do GNSS, no uso da potência de sinais de redes sem fio ou, ainda, no emprego de transmissores infravermelhos. No entanto, uma técnica diferente pode ser empreendida para essa finalidade. Usando-se a assinatura das potências de rádio das redes sem fio nas imediações e no interior da edificação, é possível criar um mapa com base nesses sinais, permitindo a determinação da posição de um objeto. No presente trabalho foram desenvolvidos um sistema para geração do mapa de sinais, com critério de parada e um método de cálculo de posicionamento. Procedeu-se, também, à análise de quatro critérios para o cálculo final da posição do objeto, baseados no uso da distância euclidiana com os conjuntos de roteadores disponíveis. Concluiu-se que, quando o mapa de sinais é pequeno, o posicionamento fracassou. Entretanto, quando a quantidade de sinais geradores do mapa aumenta, os resultados apresentaram melhora significativa, com resultados próximos a 100% de assertividade. Desse modo foi possível determinar uma estimativa boa para o número mínimo de roteadores presentes na base e estabelecer um critério de parada para a fase de criação do mapa de sinais.