26 resultados para Sistemas não-lineares e variantes no tempo


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta o processo de desenvolvimento e implementação do Laboratório de Experimentação Remota em Tempo Real (LabExp), atualmente em funcionamento na Universidade Federal do Pará, com o objetivo de funcionar como uma plataforma auxiliar para ensino e aprendizagem das disciplinas de sistemas de controle. O ensino e aprendizagem foram contemplados através da disponibilização de experimentos, onde os usuários poderão interagir com os mesmos, alterando parâmetros e observando o resultado desta interação. Além dos experimentos disponíveis, acredita-se que em ambientes de educação online é interessante disponibilizar aos alunos ferramentas que proporcionem maior interação entre alunos e professores e com o próprio laboratório remoto, proporcionando uma metodologia de aprendizado mais colaborativo, estimulando o aluno. Desta forma, são disponibilizadas aos alunos três aplicações: uma para envio de seus próprios experimentos; outra para interação com outros alunos, através de um fórum; e outra para o envio de suas opiniões/críticas. Antes do processo de desenvolvimento e implementação do LabExp, foi realizada uma análise sucinta sobre educação online, tendo em vista ser esta a finalidade do laboratório. Esta análise proporcionou maior conhecimento sobre esta metodologia de educação, orientando no restante do desenvolvimento do LabExp. Compreende-se que as tecnologias utilizadas não são determinantes para o desenvolvimento de um laboratório remoto, voltado para a educação online, entretanto experimentos remotos de sistemas de controle possuem uma restrição temporal, ou seja, necessitam obedecer a limites de tempo restritos, funcionando em tempo real. Para conseguir este comportamento foi utilizada a Real-Time Application Interface (RTAI), com o componente RTAI-XML. Além das tecnologias utilizadas, neste trabalho também é apresentado o processo de modelagem do LabExp, de acordo com padrões, princípios e recursos da Unified Modeling Language (UML) aplicada a aplicações web. Este processo de modelagem foi de fundamental importância, pois facilitou e orientou o desenvolvimento do laboratório.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esse trabalho compara os algoritmos C4.5 e MLP (do inglês “Multilayer Perceptron”) aplicados a avaliação de segurança dinâmica ou (DSA, do inglês “Dynamic Security Assessment”) e em projetos de controle preventivo, com foco na estabilidade transitória de sistemas elétricos de potência (SEPs). O C4.5 é um dos algoritmos da árvore de decisão ou (DT, do inglês “Decision Tree”) e a MLP é um dos membros da família das redes neurais artificiais (RNA). Ambos os algoritmos fornecem soluções para o problema da DSA em tempo real, identificando rapidamente quando um SEP está sujeito a uma perturbação crítica (curto-circuito, por exemplo) que pode levar para a instabilidade transitória. Além disso, o conhecimento obtido de ambas as técnicas, na forma de regras, pode ser utilizado em projetos de controle preventivo para restaurar a segurança do SEP contra perturbações críticas. Baseado na formação de base de dados com exaustivas simulações no domínio do tempo, algumas perturbações críticas específicas são tomadas como exemplo para comparar os algoritmos C4.5 e MLP empregadas a DSA e ao auxílio de ações preventivas. O estudo comparativo é testado no sistema elétrico “New England”. Nos estudos de caso, a base de dados é gerada por meio do programa PSTv3 (“Power System Toolbox”). As DTs e as RNAs são treinada e testadas usando o programa Rapidminer. Os resultados obtidos demonstram que os algoritmos C4.5 e MLP são promissores nas aplicações de DSA e em projetos de controle preventivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho avaliou a eficiência reprodutiva de vacas mestiças leiteiras submetidas a sistemas de criação com e sem sombreamento, em Bujarú, Pará. Foram utilizadas 54 vacas mestiças leiteiras, em lactação, pluríparas, com bezerro ao pé, distribuídas de modo inteiramente casualizado, em dois grupos experimentais (com sombra – CS e sem sombra – SS), cada grupo com 27 animais. Entre 30 a 35 dias pós-parto, os animais foram submetidos à inseminação artificial, em tempo fixo, as fêmeas que repetiram estro foram inseminadas convencionalmente e após uma semana, repassadas a um touro de fertilidade conhecida. O diagnóstico de prenhez foi realizado aos 60 dias, por palpação retal, após os três serviços. Os animais foram manejados em pastejo rotacionado de Brachiaria brizantha, com água e sal mineral ad libitum. Durante o período experimental, os dados de temperatura ambiente foram registrados, com auxílio de termômetro digital, instalado no microclima de cada piquete, nos grupos experimentais (CS e SS). As variáveis fisiológicas avaliadas, tais como temperatura retal (TR), temperatura da superfície corporal (TSC) e frequência respiratória (FR), foram coletadas uma vez por semana, no período da manhã, com duração de duas horas de coleta. Amostras de sangue foram coletadas, uma vez por semana, através de punção na veia coccígea, e armazenadas em tubos de ensaio de vidro de 10 ml, com anticoagulante Heparina Sódica (5.000UI/5.0ml). Essas amostras de sangue foram centrifugadas, durante sete minutos a 5.000 r.p.m. O plasma obtido foi imediatamente acondicionado em microtubos de polietileno de 2.0 ml, devidamente identificados com a numeração de cada animal e conservados a -20°C, até o momento da análise para aferir os níveis de cortisol. Através da análise de variância foram observadas diferenças significativas (p<0,01) entre os grupos CS e SS para as variáveis fisiológicas TR, FR e TSC, sendo encontrados resultados menores para esses parâmetros estudados nos animais submetidos ao sombreamento. Da mesma forma, houve influência dos tratamentos (p<0,01) nos valores de cortisol, sendo menor no grupo com sombra. Em relação à taxa de prenhez das fêmeas do grupo com sombra em relação ao grupo sem sombra, não houve diferença significativa (p²= 0,1628). Porém, houve diferença estatística (p²= 0,0034) em relação à taxa de prenhez de vacas leiteiras que tiveram o nível de cortisol medido, sendo maior nos animais que apresentaram menor concentração plasmática de cortisol. Na maioria dos resultados não houve correlação entre os parâmetros estudados (variáveis fisiológicas, concentração hormonal de cortisol e temperatura ambiente) de vacas criadas em sistema com e sem sombreamento, em clima Amazônico, à exceção da FR com a concentração de cortisol, sendo encontrada uma correlação positiva média entre esses dois parâmetros no grupo com sombra e a TR apresentou correlação positiva média com a FR e alta com a TSC, e a TSC positiva alta com a FR no grupo sem sombra. Dessa forma, o uso ou não do sombreamento influenciou na eficiência reprodutiva. O não sombreamento interferiu na taxa de prenhez. O sombreamento proporcionou aos animais, manutenção das variáveis fisiológicas mais próximas da normalidade. Assim como, manteve o nível de cortisol das fêmeas do grupo com sombra mais baixo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ainda hoje, a migração em tempo é o processo de imageamento substancialmente empregado na indústria do petróleo. Tal popularidade é devida ao seu alto grau de eficiência e robustez, além de sua habilidade em focalizar refletores nos mais variados ambientes geológicos. Entretanto, em áreas de alta complexidade geológica a migração em tempo falha de tal forma que a migração em profundidade e um campo de velocidade em profundidade são indispensáveis. Esse campo é geralmente obtido através de processos tomográficos partindo de um campo de velocidade inicial. A conversão de campos de velocidade de tempo para profundidade é uma forma rápida de se obter um campo inicial mais consistente geologicamente para tais processos. Alguns algoritmos de conversão tempo-profundidade recentemente desenvolvidos baseados no traçamento de raios-imagem são revistos e um algoritmo alternativo baseado na propagação da frente de onda-imagem é proposto. Os algoritmos são aplicados a dados sintéticos bidimensionais e avaliados de acordo com suas eficiência e acurácia, destacando suas vantagens, desvantagens e limitações na obtenção de campos de velocidade em profundidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dois dos principais objetivos da interpretação petrofísica de perfis são a determinação dos limites entre as camadas geológicas e o contato entre fluidos. Para isto, o perfil de indução possui algumas importantes propriedades: É sensível ao tipo de fluido e a distribuição do mesmo no espaço poroso; e o seu registro pode ser modelado com precisão satisfatória como sendo uma convolução entre a condutividade da formação e a função resposta da ferramenta. A primeira propriedade assegura uma boa caracterização dos reservatórios e, ao mesmo tempo, evidencia os contatos entre fluidos, o que permite um zoneamento básico do perfil de poço. A segunda propriedade decorre da relação quasi-linear entre o perfil de indução e a condutividade da formação, o que torna possível o uso da teoria dos sistemas lineares e, particularmente, o desenho de filtros digitais adaptados à deconvolução do sinal original. A idéia neste trabalho é produzir um algoritmo capaz de identificar os contatos entre as camadas atravessadas pelo poço, a partir da condutividade aparente lida pelo perfil de indução. Para simplificar o problema, o modelo de formação assume uma distribuição plano-paralela de camadas homogêneas. Este modelo corresponde a um perfil retangular para condutividade da formação. Usando o perfil de entrada digitalizado, os pontos de inflexão são obtidos numericamente a partir dos extremos da primeira derivada. Isto gera uma primeira aproximação do perfil real da formação. Este perfil estimado é então convolvido com a função resposta da ferramenta gerando um perfil de condutividade aparente. Uma função custo de mínimos quadrados condicionada é definida em termos da diferença entre a condutividade aparente medida e a estimada. A minimização da função custo fornece a condutividade das camadas. O problema de otimização para encontrar o melhor perfil retangular para os dados de indução é linear nas amplitudes (condutividades das camadas), mas uma estimativa não linear para os contatos entre as camadas. Neste caso as amplitudes são estimadas de forma linear pelos mínimos quadrados mantendo-se fixos os contatos. Em um segundo passo mantem-se fixas as amplitudes e são calculadas pequenas mudanças nos limites entre as camadas usando uma aproximação linearizada. Este processo é interativo obtendo sucessivos refinamentos até que um critério de convergência seja satisfeito. O algoritmo é aplicado em dados sintéticos e reais demonstrando a robustez do método.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A utilização do antígeno Vi em vacinas é bastante promissor devido a este proporcionar um alto nível de imunidade em vacinas parenterais. A necessidade pela busca por alternativas para administração de vacinas levou à aplicação da tecnologia da liberação controlada de fármacos no campo da imunização. Nestes sistemas de liberação controlada, as doses administradas são diminuídas, porém o período de imunidade aumenta, já que prolonga a quantidade liberada do antígeno ao longo do tempo. O presente estudo propôs desenvolver e caracterizar um sistema de liberação controlada contendo antígeno Vi, utilizando como polímero veiculador a quitosana. As técnicas de RMN H-1 e espectroscopia de infravermelho mostraram que o método de extração do antígeno Vi empregado foi satisfatório qualitativamente. A caracterização da quitosana e das nanopartículas através de ensaios de análise térmica mostrou maior estabilidade das partículas em relação à quitosana, além do aumento da temperatura de degradação nas nanopartículas à medida que aumenta a concentração da quitosana. Em relação ao potencial zeta todas as nanopartículas tiveram cargas positivas em pH 7,2, enquanto que, no tamanho, as partículas foram menores à medida que aumentou a quantidade de quitosana no sistema. Na microscopia eletrônica de transmissão, as partículas mostraram-se morfologicamente homogêneas e com formato esférico. Na cinética de adsorção o antígeno, contido em solução, sofreu uma adsorção de 55% nas partículas de quitosana. Com isso, observou-se que é possível criar um sistema de liberação controlada envolvendo nanopartículas de quitosana e antígeno Vi de Salmonella enterica sorotipo Typhi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo propõe a adoção de um modelo numérico prognóstico para estimar a variável "tempo de execução" para empreendimentos públicos de forma objetiva. O trabalho de campo consistiu na aplicação de métodos estatísticos para analisar dados de obras licitadas e executadas durante o período de 2006 a 2009 na Universidade Federal do Pará (UFPA). A análise de dados envolveu cálculos de regressões lineares e transformadas das funções. Após estratificação e tratamento inicial dos dados, os elementos adotados para construção do modelo final se restringiram a 102 obras de um total de 225 originariamente pesquisadas, resultando nos seguintes parâmetros estatísticos: coeficiente de correlação (R) de 0,899; coeficiente de determinação (R2) de 0,808; coeficiente de determinação ajustado (R2 ajustado) de 0,796 e erro padrão (Se) de 0,41. Estes parâmetros indicam forte correlação linear entre as variáveis, indicando que 79,60% da variação do tempo para executar uma obra pública podem ser causadas pela variação, em conjunto, das variáveis área construída, custo orçado, capacidade técnica operacional do contratante, capacidade operacional da empresa, tipologia de serviço e estação do ano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O G.fast é um novo padrão da União Internacional de Telecomunicações que almeja atingir 1 Gb/s sobre enlaces de cobre curtos, utilizando freqüências de até 212 MHz. Essa nova tecnologia requer modelos paramétricos precisos de cabo para fins de projeto, simulação e testes de avaliação de desempenho. A maioria dos modelos de cabo de cobre foram desenvolvidos focando o espectro VDSL - isto é, freqüências de até 30 MHz - e adotam suposições que são violadas quando a faixa de freqüência é estendida para freqüências G.fast. Esta tese apresenta novos modelos de cabo simples e causais capazes de caracterizar com precisão enlaces de cobre compostos por segmentos individuais ou múltiplos, tanto no domínio do tempo quanto no domínio da freqüência. Resultados utilizando as topologias de referência do padrão G.fast mostram que, além de serem precisos, os novos modelos são atrativos devido ao baixo custo computacional e fórmulas fechadas para ajuste de seus parâmetros junto a dados medidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação visa apresentar um conjunto de desenvolvimentos, aplicativos e serviços para suporte à operação em tempo real e ao controle preventivo visando garantir à segurança estática e dinâmica de sistemas elétricos de potência. A técnica de mineração de dados conhecida como árvore de decisão foi utilizada tanto para classificar o estado operacional do sistema, bem como para fornecer diretrizes à tomada de ações de controle, necessárias para evitar a degradação da tensão operativa e a instabilidade transitória. Testes preliminares foram realizados utilizando o histórico operacional do SCADA/SAGE do Centro de Operação Regional do Pará da Eletrobrás Eletronorte. Os resultados obtidos validaram completamente o conjunto (protótipo) de aplicativos e serviços, e indicam um grande potencial para a aplicação no ambiente de operação em tempo real.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Foi feito um estudo da associação entre a densidade de ocorrência de raios com condições meteorológicas no leste da região Amazônica entre os anos de 2006 a 2008. A região estudada foi limitada por uma grade geográfica entre as latitudes 0º a -10º e longitudes -53º a -43º. Foram desenvolvidos métodos computacionais de processamento estatístico e geração de mapas de ocorrências de raios para diferentes intervalos de tempo. Esses métodos foram aplicados para determinar os pontos de altas ocorrências de raios ao longo de linhas de transmissão de energia elétrica, a fim de oferecer subsídios para a proteção e operação dos sistemas elétricos da região. Foram utilizados dados da rede de detecção de raios do SIPAM para redimensionar a detecção do sistema de alcance intercontinental STARNET, e subsequentemente, foram obtidos mapas de densidade de raios mais uniformes e realistas. Esses mapas foram interpretados em períodos semanais e sazonais, considerando as observações simultâneas de chuva, vento, radiação de onda longa e a presença de sistemas meteorológicos de grande escala. Zona de Convergência Intertropical e Zona de Convergência do Atlântico Sul (ZCIT, ZCAS) definidos pela convergência de ventos e anomalias negativas de Radiação de Ondas Longas ( ROL). Os resultados mostraram boa correspondência entre as áreas de convecção e a intensa ocorrência de raios. Nas regiões de mais alta atividade elétrica atmosférica, foi observada ocorrência de convergência dos ventos e anomalias negativas de ROL, para situações de presença de ZCAS e ZCIT sobre a região. A atividade de raios também coincidiu, com algumas exceções, com áreas de maior precipitação em períodos semanais. Foi observado também que, durante um trimestre seco, os segmentos de linhas de transmissão de Mojú-Tailândia e Jacundá-Marabá apresentaram maior incidência de raios. O pico da densidade de raios chegou a 18 raios/km2/trimestre em alguns locais. Durante o trimestre chuvoso, a densidade geral de raios foi 86% maior e apresentou distribuição espacial mais uniforme quando comparada com um trimestre seco. Este estudo mostrou não somente como as características meteorológicas influenciaram na distribuição e quantidade raios, mas também que a elevada atividade de descargas elétricas na região deve ser uma preocupação importante para os sistemas de distribuição de energia elétrica e outras atividades humanas na Amazônia Oriental.