30 resultados para Modelo auto-regressivo de primeiro ordem (AR1)
Resumo:
A principal dificuldade encontrada na proteção diferencial de transformadores de potência é a correta distinção entre as correntes de inrush e as correntes de faltas internas. Tradicionalmente os relés diferenciais executam esta tarefa utilizando a técnica de restrição por harmônicos baseada na premissa de que as correntes de inrush possuem alta concentração de componentes harmônicas de segunda ordem, contudo essa técnica nem sempre é eficaz. O presente trabalho tem como objetivo apresentar a proposta de duas novas metodologias capazes de realizar a identificação e distinção entre as correntes de inrush das correntes de faltas internas na proteção diferencial de transformadores de potência através de metodologias que não dependem do conteúdo de harmônicos do sinal da corrente diferencial. A primeira metodologia proposta, denominada de método do gradiente da corrente diferencial, é baseada no comportamento do vetor gradiente, obtido através da diferenciação numérica do sinal da corrente diferencial. O critério de distinção utilizado é baseado no desvio padrão do ângulo do vetor gradiente que apresenta comportamento diferenciado para correntes de inrush e correntes de curto-circuito. A segunda metodologia proposta é baseada na capacidade de reconhecimento e classificação de padrões das redes neurais de Mapeamento Auto-organizável de Kohonen. Como padrão de entrada e de treinamento da rede neural é utilizado um vetor contendo quatro níveis do espectro do desvio padrão do ângulo do vetor gradiente da corrente diferencial nas três fases do transformador de potência. A eficácia dos métodos foi testada através da simulação de diversas situações de faltas internas e correntes de inrush, incluindo situações de “Sympathetic Inrush”, em um transformador de potência usando o software EMTP/ATP e através da implementação do algoritmo em MATLAB®, apresentando resultados altamente promissores.
Resumo:
Dados referentes a 1.719 controles de produção de leite de 357 fêmeas predominantemente da raça Murrah, filhas de 110 reprodutores, com partos distribuídos entre os anos de 1974 e 2004, obtidos do Programa de Melhoramento Genético de Bubalinos (PROMEBUL) com adição de registros do rebanho pertencente à EMBRAPA Amazônia Oriental - EAO, localizada em Belém, Pará. Os registros foram usados para comparar modelos de regressão aleatória na estimação de componentes de variância e predição de valores genéticos dos reprodutores utilizando a. função polinomial de Legendre, variando de segunda à quarta ordem. O modelo de regressão aleatória incluiu os efeitos de rebanho-ano, mês de parto, coeficientes de regressão para idade da fêmea (para descrever a parte fixa da curva de lactação) e coeficientes de regressão relacionados ao efeito genético direto e de ambiente permanente. A comparação entre modelos foram realizadas por meio do Critério de Informação de Akaike. O modelo de regressão aleatória que utilizou a terceira ordem de polinômio de Legendre, com quatro classes de resíduo para o ambiente temporário, foi o que melhor descreveu a variação genética aditiva da produção de leite. A herdabilidade estimada variou entre 0,08 a 0,40. A correlação genética entre produções mais próximas foram próximas da unidade, mas em idades mais distantes a correlação foi baixa. A correlação de Spearman e de Pearson entre os valores genéticos preditos em todas as situações foram próximas da unidade.
Resumo:
A esquistossomose é uma doença tropical causada, principalmente, pelo trematódeo Schistosoma mansoni, sendo que sua ocorrência afeta, mundialmente, 110 milhões de pessoas. A deposição dos ovos do parasita pode ocorrer, de forma ectópica, no sistema nervoso central (SNC) o qual leva à formação de granulomas com consequente produção do Fator de Crescimento Neuronal (NGF). Uma vez que muitos estudos demonstram a importância do NGF no desenvolvimento das vias corticais visuais, nosso estudo visou avaliar a possível alteração dos níveis de NGF no sistema visual assim como o impacto deste sobre a morfologia de células piramidais em dois modelos animais. A alteração na concentração do fator de crescimento assim como a morfometria neuronal foram avaliadas em animais permissíveis (camundongos) e não permissíveis (ratos) à infecção. Foram utilizados 174 ratos (Hooded Lister) e 135 camundongos albinos criados e mantidos em gaiolas e alimentados ad libitum. Esses animais foram inoculados, logo após o nascimento, com 50 cercárias. Setenta e sete ratos e 73 camundongos foram inoculados com solução salina e constituíram o grupo controle do estudo. Os períodos de infecção abrangeram uma a 48 semanas. Amostras do fígado e córtex visual foram retiradas, extraídas e quantificadas com kit de imunoensaio (ChemiKineTM Nerve Growth Factor (NGF) Sandwich ELISA Kit – Chemicon International). Para a análise morfométrica utilizamos células piramidais da camada IV do córtex visual marcadas através de injeção extracelular com Dextrana-Biotinilada (10.000 kDa). Os resultados foram expressos como média ± desvio padrão. Utilizamos teste t de Student para determinar diferenças estatísticas entre os grupos estudados. O valor médio de NGF encontrado no córtex visual de ratos infectados foi 39,2% maior do que no grupo controle (infectados: 400,9 ± 143,1 pg/mL; controle: 288 ± 31,9 pg/mL; p < 0,0001). Nas amostras de fígado, o aumento foi 28,9% maior no grupo infectado (infectados: 340,9 ± 103,9 pg/mL; p < 0,01; controle: 264,4 ± 38,6 pg/mL). Nenhum aumento significativo foi detectado antes de uma semana de infecção. Entre os camundongos, o aumento de NGF na área visual foi de 94,1% (infectados: 478,4 ± 284 pg/mL; p < 0,01; controle: 246,5 ± 76,8 pg/mL). No fígado destes animais o aumento foi de 138,7% (infectados: 561,8 ± 260,7 pg/mL; p < 0,01; controle: 301,3 ± 134,6 pg/mL). Em camundongos encontramos diferenças significativas quanto aos parâmetros dendríticos avaliados. A quantidade de dendritos foi 11,41% maior no grupo infectado do que no controle (controle: 25,28 ± 5,19; infectados: 28,16 ± 7,45; p < 0,05). O comprimento total dos dendritos também foi afetado (controle: 4.916,52 ± 1.492,65 μm; infectados: 5.460,40 ± 1.214,07 μm; p < 0,05) correspondendo a um aumento de 11,06%. A área total do campo receptor dendrítico sofreu um aumento de 12,99% (controle: 29.346,69 ± 11.298,62 μm2; infectados: 33.158,20 ± 7.758,31; p < 0,05) enquanto que a área somática teve uma redução de 13,61% (controle: 119,38 ± 19,68 μm2; infectados: 103,13 ± 24,69 μm2; p < 0,001). Quando foram avaliados os efeitos do aumento de NGF em ratos infectados não observamos diferenças significativas quanto aos parâmetros dendríticos analisados, em comparação ao grupo controle, com exceção de um aumento na área do corpo neuronal da ordem de 21,18% (controle: 132,20 ± 28,46 μm2; infectados: 160,20 ± 31,63 μm2; p < 0,00001). Este trabalho mostrou que a reação de produção de NGF no SNC durante a infecção por Schistosoma mansoni ocorre em maior magnitude no modelo permissível do que no modelo não permissível. Também demonstramos que, em camundongos, os efeitos sobre a morfologia neuronal é drasticamente afetada quando o organismo é submetido a um aumento na concentração de NGF em decorrência da infecção por Schistosoma mansoni. Diante destes dados, estudos avaliando as possíveis repercussões visuais e também dos efeitos na fisiologia celular causados pela infecção mansônica torna-se necessário para avaliar o real dano causado por este aumento patológico do fator de crescimento neuronal nas vias visuais de mamíferos.
Resumo:
O presente estudo investigou os efeitos de regras apresentadas na forma de ordem, de sugestão e de acordo sobre o comportamento não-verbal de adultos. Vinte e quatro universitários foram expostos a um procedimento de escolha de acordo com o modelo; a tarefa consistia em apontar para cada um dos três estímulos de comparação, em sequência. Na Fase 1 dos Experimentos I e II eram apresentadas regras na forma de ordem, de sugestão ou de acordo. No Experimento I, a ordem, a sugestão e o acordo descreviam apenas uma das duas sequências de respostas que produziam pontos (trocáveis por dinheiro). No Experimento II, estas regras descreviam as duas sequências de respostas que produziam pontos, sendo uma, a sequência ordenada, sugerida ou acordada e a outra, a sequência alternativa. Na Fase II, dos dois experimentos, havia mudança não sinalizada nas contingências de reforçamento. Os resultados mostraram que a ordem, a sugestão e o acordo estabeleceram comportamentos novos. Adicionalmente, mostraram que os comportamentos estabelecidos pela ordem e pelo acordo são mais prováveis de serem mantidos após a mudança nas contingências, quando comparados com os comportamentos estabelecidos pela sugestão. Discute-se que a manutenção do seguir regras depende, em parte, das propriedades formais das regras.
Resumo:
Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Na maioria dos métodos de exploração geofísica, a interpretação é feita assumindo-se um modelo da Terra uniformemente estratificado. Todos os métodos de inversão, inclusive o de dados eletromagnéticos, exigem técnica de modelamento teórico de modo a auxiliar a interpretação. Na literatura os dados são geralmente interpretados em termos de uma estrutura condutiva unidimensional; comumente a Terra é assumida ser horizontalmente uniforme de modo que a condutividade é função somente da profundidade. Neste trabalho uma técnica semi-analítica de modelagem desenvolvida por Hughes (1973) foi usada para modelar a resposta magnética de duas camadas na qual a interface separando as camadas pode ser representada por uma expansão em série de Fourier. A técnica envolve um método de perturbação para encontrar o efeito de um contorno senoidal com pequenas ondulações. Como a perturbação é de primeira ordem a solução obtida é linear, podemos então usar o princípio da superposição e combinar soluções para várias senoides de forma a obter a solução para qualquer dupla camada expandida em série de Fourier. Da comparação com a técnica de elementos finitos, as seguintes conclusões podem ser tiradas: • Para um modelo de dupla camada da Terra, as camadas separadas por uma interface cuja profundidade varia senoidalmente em uma direção, as respostas eletromagnética são muito mais fortes quando a espessura da primeira camada é da ordem do skin depth da onda eletromagnética no meio, e será tanto maior quanto maior for o contraste de condutividade entre as camadas; • Por outro lado, a resistividade aparente para este modelo não é afetada pela mudança na frequência espacial (v) do contorno; • Em caso do uso da solução geral para qualquer dupla camada na Terra cuja interface possa ser desenvolvida em série de Fourier, esta técnica produziu bons resultados quando comparado com a técnica de elementos finitos. A linerização restringe a aplicação da técnica para pequenas estruturas, apesar disso, uma grande quantidade de estruturas pode ser modelada de modo simples e com tempo computacional bastante rápido; • Quando a dimensão da primeira camada possui a mesma ordem de grandeza da estrutura, esta técnica não é recomendada, porque para algumas posições de sondagem, as curvas de resistividade aparente obtidas mostram um pequeno deslocamento quando comparadas com as curvas obtidas por elementos finitos.
Resumo:
Este trabalho teve como objetivo geral desenvolver uma metodologia sistemática para a inversão de dados de reflexão sísmica em arranjo ponto-médio-comum (PMC), partindo do caso 1D de variação vertical de velocidade e espessura que permite a obtenção de modelos de velocidades intervalares, vint,n, as espessuras intervalares, zn, e as velocidades média-quadrática, vRMS,n, em seções PMC individualizadas. Uma consequência disso é a transformação direta destes valores do tempo para profundidade. Como contribuição a análise de velocidade, foram desenvolvidos dois métodos para atacar o problema baseado na estimativa de velocidade intervalar. O primeiro método foi baseado na marcação manual em seções PMC, e inversão por ajuste de curvas no sentido dos quadrados-mínimos. O segundo método foi baseado na otimização da função semblance para se obter uma marcação automática. A metodologia combinou dois tipos de otimização: um Método Global (Método Price ou Simplex), e um Método Local (Gradiente de Segunda Ordem ou Conjugado), submetidos a informação à priori e vínculos. A marcação de eventos na seção tempo-distância faz parte dos processos de inversão, e os pontos marcados constituem os dados de entrada juntamente com as informações à priori do modelo a ser ajustado. A marcação deve, por princípio, evitar eventos que representem múltiplas, difrações e interseções, e numa seção pode ser feita mais de 50 marcações de eventos, enquanto que num mapa semblance não se consegue marcar mais de 10 eventos de reflexão. A aplicação deste trabalho é voltada a dados sísmicos de bacias sedimentares em ambientes marinhos para se obter uma distribuição de velocidades para a subsuperfície, onde o modelo plano-horizontal é aplicado em seções PMC individualizadas, e cuja solução pode ser usada como um modelo inicial em processos posteriores. Os dados reais da Bacia Marinha usados neste trabalho foram levantados pela PETROBRAS em 1985, e a linha sísmica selecionada foi a de número L5519 da Bacia do Camamu, e o PMC apresentado é a de número 237. A linha é composta de 1098 pontos de tiro, com arranjo unilateraldireito. O intervalo de amostragem é 4 ms. O espaçamento entre os geofones é 13,34 m com o primeiro geofone localizado a 300 m da fonte. O espaçamento entre as fontes é de 26,68 m. Como conclusão geral, o método de estimativa de velocidade intervalar apresentada neste trabalho fica como suporte alternativo ao processo de análise de velocidades, onde se faz necessário um controle sobre a sequência de inversão dos PMCs ao longo da linha sísmica para que a solução possa ser usada como modelo inicial ao imageamento, e posterior inversão tomográfica. Como etapas futuras, podemos propor trabalhos voltados direto e especificamente a análise de velocidade sísmica estendendo o caso 2D de otimização do semblance ao caso 3D, estender o presente estudo para o caso baseado na teoria do raio imagem com a finalidade de produzir um mapa continuo de velocidades para toda a seção sísmica de forma automática.
Resumo:
O objetivo principal desta dissertação é apresentar uma solução eficiente, prática e de simples implementação para um problema recorrente em projetos de controladores robustos multivariáveis do tipo LQG/LTR: a elevada ordem que estes controladores podem obter dependendo das complicações apresentadas pelo sistema dificultando para que este possa ser controlado de maneira satisfatória. Para que esta meta seja alcançada, é apresentada uma técnica de redução do modelo de sistemas com metodologia bastante descomplicada, dispensando qualquer necessidade de complexas programações para a sua utilização. Esta metodologia porém, é somente aplicável a uma classe bastante específica de sistema. Em suma, o sistema deve possuir variáveis de estado desacopladas do restante do sistema, ou seja, variáveis que não sofram influências de outras e que também não provoquem grande efeito nas saídas do sistema. Foi escolhido um sistema multivariável de sexta ordem, com duas entradas e duas saídas para que a técnica de redução de ordem de modelo seja testada. Este sistema possui as características especiais mencionadas anteriormente bem como exige o projeto de compensador dinâmico e a adição de integradores às suas saídas para que seja controlado adequadamente. Este trabalho pretende apresentar o procedimento de todo o projeto mencionado, desde a obtenção de um modelo de ordem reduzida até a implementação do controlador LQG/LTR. Em seguida, o controlador obtido é testado através de diversas simulações e os resultados encontrados são discutidos para a avaliação da eficácia e da praticidade do método proposto para obtenção de controladores de ordem reduzida.
Resumo:
As reflexões múltiplas presentes nos sismogramas ocultam informações importantes sobre os refletores em subsuperfície e, podem até tornar completamente invisíveis as reflexões primárias, como no caso dos sismogramas marinhos, que muitas das vezes, exibem uma aparência anelar com fortes superposições das reflexões múltiplas, sobre as reflexões primárias. Problema este que tem sido alvo de importantes pesquisas, com o intuito de identificar, atenuar e/ou eliminá-las, através de vários métodos populares. O objetivo principal deste trabalho é a identificação das reflexões múltiplas. Com essa finalidade foi gerada, por modelamento direto, uma seção sísmica, com afastamento nulo (AN), contendo reflexões primárias e múltiplas simétricas de primeira ordem. Posteriormente, foi aplicada a migração cinemática do tipo Kirchhoff para obter o modelo em profundidade, apresentando uma boa recuperação dos refletores, bem como a presença de um refletor fictício, quando comparado com a seção anteriormente especificada. Foi obtida uma seção sísmica AN, do modelo migrado, na qual não é observado o segundo refletor, devido à ausência de contraste de impedância, entre a segunda e terceira camada, sendo este o primeiro indício de que o refletor fictício deste modelo é uma múltipla. Outro indício sobre a existência da múltipla foi a simetria encontrada entre as curvaturas do primeiro e terceiro refletor. Finalmente, foram calculados os parâmetros das frentes de ondas Hipotéticas Ponto de Incidência Normal (PIN) e Normal (N), bem como a velocidade Normal Moveout (NMO), tanto para os eventos de reflexões primárias como os eventos de reflexões múltiplas, para o modelo direto e para o modelo migrado. Em seguida, foram realizadas as comparações destes parâmetros, o que permitiu confirmar a veracidade dos indícios anteriores para a identificação das reflexões múltiplas.
Resumo:
Apresentamos um novo método para inversão gravimétrica da distribuição espacial do contraste de densidade no plano horizontal, baseado na combinação da maximização da entropia de ordem zero com a minimização da entropia de ordem um. O topo e a base das fontes gravimétricas são presumidos ser planos e horizontais e o modelo interpretativo consiste de uma malha de prismas justapostos em ambas às direções horizontais, sendo os contrastes de densidade de cada prisma os parâmetros a serem estimados. A maximização da entropia de ordem zero é similar ao vínculo de suavidade global, enquanto a minimização da entropia de ordem um favorece descontinuidades na distribuição do contraste de densidade. Conseqüentemente a combinação judiciosa de ambas pode levar a soluções apresentando regiões com contrastes de densidade virtualmente constantes (no caso de corpos homogêneos), separadas por descontinuidades abruptas. O método foi aplicado a dados sintéticos simulando a presença de corpos intrusivos em sedimentos. A comparação dos resultados com aqueles obtidos através do método da suavidade global mostra que ambos os métodos localizam as fontes igualmente bem, mas o delineamento de seus contornos é efetuado com maior resolução pela regularização entrópica, mesmo no caso de fontes com 100 m de largura separadas entre si por uma distância de 50 m. No caso em que o topo da fonte causadora não é plano nem horizontal, tanto a regularização entrópica como a suavidade global produzem resultados semelhantes. A metodologia apresentada, bem como a suavidade global foram aplicadas a dois conjuntos de dados reais produzidos por intrusões em rochas metamórficas. O primeiro é proveniente da região de Matsitama, no nordeste de Botswana, centro sul da África. A aplicação das duas metodologias a estes dados produziu resultados similares, indicando que o topo das fontes não é plano nem horizontal. O segundo conjunto provém da região da Cornuália, Inglaterra e produziu uma distribuição estimada de contraste de densidade virtualmente constante para a regularização entrópica e oscilante para a suavidade global, indicando que a fonte gravimétrica apresenta topo aproximadamente plano e horizontal, o que é confirmado pela informação geológica disponível.
Resumo:
Neste trabalho é proposta uma nova metodologia de projeto de estabilizadores de sistemas de potência baseada em teoria de sistemas de ordem fracionária (ESP-OF). A estratégia é baseada em uma generalização do projeto de compensadores do tipo rede avançoatraso (lead-lag) para o domínio de funções de transferência de ordem fracionária. Uma nova variável de projeto, a qual define a ordem da dinâmica fracionária do controlador, é sintonizada para se obter um compromisso entre um bom desempenho no amortecimento do modo eletromecânico dominante e uma robustez ampliada do ESP-OF. O desempenho do ESP-OF foi avaliado experimentalmente, em um sistema de potência em escala reduzida, localizado no Laboratório de Sistemas de Potência da Universidade Federal do Pará. A referida planta de teste apresenta uma estrutura típica do tipo gerador síncrono conectado a um barramento infinito e exibe um modo dominante de oscilação eletromecânica, de amortecimento extremamente reduzido, cujo valor da frequência natural é em torno de 1,2 Hz. O ESP-OF foi então projetado para ampliar o amortecimento relativo desse modo alvo, para toda a faixa de operação admissível. Para fins de implementação prática, primeiramente foram realizados testes experimentais para a identificação de um modelo nominal da planta, sob a forma de uma função de transferência pulsada, para uso na fase de projeto. O modelo obtido experimentalmente foi então validado e posteriormente utilizado tanto para o projeto do ESP-OF quanto para o projeto de um ESP convencional (utilizado para fins de comparação de desempenho). As leis de controle amortecedor do ESP-OF foram calculadas, convertidas para a forma de equações a diferenças e, subsequentemente, embarcadas em sistema digital baseado em microcontrolador DSPIC. Diversos testes de resposta ao impulso foram realizadas sob diferentes condições operacionais. As respectivas respostas dinâmicas dos sinais de saída da planta (desvio de potencia ativa) e do esforço de controle foram registradas para fins de análise. Os resultados experimentais mostraram que o ESP fracionário apresentou um desemprenho dinâmico e robustez similar em comparação com o desempenho obtido por um ESP convencional, para toda a faixa de operação investigada.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
O transtorno epiléptico apresenta alta prevalência e severidade. Além da gravidade da epilepsia per se, este distúrbio pode ser acompanhado de várias comorbidades, sendo a depressão a principal comorbidade psiquiátrica. Os mecanismos envolvidos na relação epilepsia/depressão ainda não estão bem esclarecidos, e sabe-se que o tratamento de ambos os distúrbios pode ser problemático, já que alguns anticonvulsivantes podem causar ou aumentar sintomas depressivos, enquanto alguns antidepressivos parecem aumentar a susceptibilidade a convulsões. Por outro lado, estudos têm demonstrado que alguns antidepressivos, além de seguros, também possuem atividade anticonvulsivante como a venlafaxina, um inibidor da recaptação de serotonina e noradrenalina (IRSN). Considerando que a duloxetina, outro IRSN, apresenta uma inibição mais potente sobre transportados monoaminérgicos e que não existe nada na literatura a respeito de sua influência sobre convulsões apesar de que está sendo aplicado atualmente na clínica, o objetivo do nosso estudo é verificar o possível efeito anticonvulsivante da duloxetina através do modelo de convulsões induzidas pelo pentilenotetrazol (PTZ) em camundongos. Para tal, camundongos foram pré-tratados com duloxetina (10, 20, 40 mg/kg/i.p.) e trinta minutos após receberam uma injeção intraperitoneal de PTZ (60 mg/kg). Por vinte minutos os animais foram monitorados para a avaliação dos tempos de latência para o primeiro espasmo mioclônico e a primeira crise tônico-clônica, como também o tempo de duração das convulsões e de sobrevida. A análise eletroencefalográfica foi utilizada para avaliar a severidade das crises (aumento da amplitude das ondas). Após esse período os animais foram sacrificados, o córtex cerebral dissecado e análises bioquímicas (atividade da superóxido desmutase (SOD), catalase (CAT), níveis de nitritos e peroxidação lipídica) foram feitas para investigação dos mecanismos pelos quais a droga influencia as convulsões. Os resultados preliminares demonstraram que a duloxetina apresenta atividade anticonvulsivante, sendo capaz de aumentar significativamente o tempo de latência tanto para o primeiro espasmo clônico, como para a primeira convulsão tônico-clônica induzidas pelo pentilenotetrazol. Ainda a avaliação eletroencefalográfica demonstrou que a duloxetina na dose de 20 mg/kg diminuiu significativamente a amplitude das ondas enquanto a dose de 40 mg/kg aumentou significativamente a amplitude em comparação a todos os tratamentos. Quanto à avaliação da influência no estresse oxidativo, animais tratados apenas com PTZ apresentaram um aumento significativo do nível de peroxidação lipídica, e diminuição da atividade da SOD e da CAT. Quanto ao nível de nitritos não houve nenhuma alteração significativa entre os tratamentos. A duloxetina na dose de 20 mg/kg se mostrou efetiva para evitar as alterações induzidas pelo PTZ nos parâmetros de estresse oxidativo avaliados. A atividade anticonvulsivante da duloxetina (20 mg/kg) colabora com a teoria que tem sido apresentada nos últimos ano de que a modulação da neurotransmissão serotonérgica e noradrenérgica pode ter efeito anticonvulsivante. Ainda, a capacidade da duloxetina de inibir a exacerbação do estresse oxidativo envolvido nas convulsões induzidas pelo PTZ corrobora com estudos que demonstram que algumas substâncias anticonvulsivantes podem modular as convulsões pelo menos em parte por sua atividade antioxidante. Portanto concluímos que a duloxetine é um adjuvante promissor para o tratamento de pacientes que apresentam a comorbidade epilepsia e depressão.
Resumo:
O presente trabalho apresenta um modelo de mudança organizacional para melhorar o processo empresarial de compra de uma construtora, proveniente do sistema de comunicação entre o escritório central e suas obras, a fim de identificar as oportunidades e deficiências existentes no sistema, seja de ordem tecnológica e/ou gerencial. O mapeamento das informações permite detectar os percursos desnecessários que impossibilitam o sistema de comunicação funcionar de forma ágil e otimizada, bem como perceber as oportunidades de melhorias contínuas ao processo. O método de pesquisa se baseou no aperfeiçoamento de processos empresariais, que consiste na modelagem do processo citado, por meio da coleta de dados, análise de documentos, desenho de fluxos de informações existentes no modelo e discussão dos resultados. Para validação da aplicação do método, fez-se o estudo de caso único em uma construtora do subsetor edificações, o qual gerou fluxogramas do processo de compras atual e proposto como modelo de mudança organizacional.