13 resultados para Sistemas lineares. Determinantes. Matrizes
em Universidade Federal do Pará
Resumo:
O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Dois dos principais objetivos da interpretação petrofísica de perfis são a determinação dos limites entre as camadas geológicas e o contato entre fluidos. Para isto, o perfil de indução possui algumas importantes propriedades: É sensível ao tipo de fluido e a distribuição do mesmo no espaço poroso; e o seu registro pode ser modelado com precisão satisfatória como sendo uma convolução entre a condutividade da formação e a função resposta da ferramenta. A primeira propriedade assegura uma boa caracterização dos reservatórios e, ao mesmo tempo, evidencia os contatos entre fluidos, o que permite um zoneamento básico do perfil de poço. A segunda propriedade decorre da relação quasi-linear entre o perfil de indução e a condutividade da formação, o que torna possível o uso da teoria dos sistemas lineares e, particularmente, o desenho de filtros digitais adaptados à deconvolução do sinal original. A idéia neste trabalho é produzir um algoritmo capaz de identificar os contatos entre as camadas atravessadas pelo poço, a partir da condutividade aparente lida pelo perfil de indução. Para simplificar o problema, o modelo de formação assume uma distribuição plano-paralela de camadas homogêneas. Este modelo corresponde a um perfil retangular para condutividade da formação. Usando o perfil de entrada digitalizado, os pontos de inflexão são obtidos numericamente a partir dos extremos da primeira derivada. Isto gera uma primeira aproximação do perfil real da formação. Este perfil estimado é então convolvido com a função resposta da ferramenta gerando um perfil de condutividade aparente. Uma função custo de mínimos quadrados condicionada é definida em termos da diferença entre a condutividade aparente medida e a estimada. A minimização da função custo fornece a condutividade das camadas. O problema de otimização para encontrar o melhor perfil retangular para os dados de indução é linear nas amplitudes (condutividades das camadas), mas uma estimativa não linear para os contatos entre as camadas. Neste caso as amplitudes são estimadas de forma linear pelos mínimos quadrados mantendo-se fixos os contatos. Em um segundo passo mantem-se fixas as amplitudes e são calculadas pequenas mudanças nos limites entre as camadas usando uma aproximação linearizada. Este processo é interativo obtendo sucessivos refinamentos até que um critério de convergência seja satisfeito. O algoritmo é aplicado em dados sintéticos e reais demonstrando a robustez do método.
Resumo:
A utilização de Estabilizadores de Sistemas de Potência (ESP), para amortecer oscilações eletromecânicas de pequena magnitude e baixa freqüência, é cada vez mais importante na operação dos modernos sistemas elétricos. Estabilizadores convencionais, com estrutura e parâmetros fixos, têm sido utilizados com essa finalidade há algumas décadas, porém existem regiões de operação do sistema nas quais esses estabilizadores lineares não são tão eficientes, especialmente quando comparados com estabilizadores projetados através de modernas técnicas de controle. Um ESP Neural, treinado a partir de um conjunto de controladores lineares locais, é utilizado para investigar em quais regiões de operação do sistema elétrico o desempenho do estabilizador a parâmetros fixos é deteriorada. O melhor desempenho do ESP Neural nessas regiões de operação, quando comparado com o ESP convencional, é demonstrado através de simulações digitais não-lineares de um sistema do tipo máquina síncrona conectada a um barramento infinito e de um sistema com quatro geradores.
Resumo:
Este trabalho consiste na proposta de uma sequencia didática para o ensino de Sistemas de Equações Algébricas Lineares na qual estabelecemos uma conexão entre o Método da Substituição e o buscando a conversão de registros de representação. O objetivo da proposta foi verificar se os alunos conseguem realizar a conexão entre os dois métodos desenvolvendo a conversão do método da substituição no Método do escalonamento caracterizando assim, o aprendizado do objeto matemático estudado, segundo a teoria de registros de representação semiótica de Raimund Duval. A pesquisa foi realizada com alunos do ensino médio em uma escola da rede pública estadual da cidade de Belém e os resultados apontaram para o estabelecimento de uma conexão entre os dois métodos empregados no processo de resolução de sistemas.
Resumo:
O objetivo deste trabalho é a otimização da largura de banda de antenas linear e planar para aplicações em sistemas de banda larga. Nesse sentido, foi feito um estudo das técnicas de análise, aumento da largura de banda e otimização adequadas para o problema em questão. Como técnica de análise, foi utilizado o método dos momentos, o qual está apresentado no capítulo II. Para aumentar a largura de banda, foram utilizadas as técnicas de colocação de elementos parasitas e construção de fendas no radiador, descritos sucintamente no capítulo III. Como algoritmo de otimização, foi utilizado o algoritmo genético, descrito sucintamente no capítulo II. Neste trabalho, são apresentadas duas propostas de antenas, uma antena dipolo linear combinada com quatros espiras parasitas, capítulo IV, e uma antena planar do tipo espira, capítulo V. No primeiro caso, foram utilizados elementos parasitas e o algoritmo genético para aumentar a largura de banda e, no segundo, foram empregadas fendas no radiador e a otimização paramétrica para este objetivo.
Resumo:
Esta tese enfoca o estudo de métodos para compensação de harmônicos em sistemas de energia elétrica e aborda diversos aspectos relacionados à presença de harmônicos nos mesmos, como a apresentação de conceitos e definições em sistemas não-senoidais e estratégias de compensação de potência. Enfatiza-se neste estudo, exemplificado por meio de medições e simulações realizadas, a influência da forma de onda de alimentação sobre cargas não-lineares; a interação harmônica entre a tensão de suprimento e a corrente das cargas, devido à impedância série do sistema; e a influência mútua entre cargas não-lineares em paralelo, como possível forma de atenuação de harmônicos. Para simular e predizer o impacto causado por cargas não-lineares em um sistema, assim como a implementação de ações para mitigar esses impactos, visando à melhoria da qualidade da energia, é necessário o conhecimento das respostas das mesmas. Como produto do presente trabalho, destacam-se as técnicas desenvolvidas para a modelagem de cargas nãolineares sob diferentes condições de alimentação, em especial o uso de técnicas de inteligência computacional, como o sistema neuro-fuzzy e as redes neurais artificiais; assim como o emprego da série de Volterra para predição do comportamento das cargas.
Resumo:
Em um sistema elétrico existem vários circuitos e equipamentos industriais que se comportam como dispositivos não-lineares. Esse comportamento geram sinais que causam distorções dentro desse sistema. Essas distorções são chamadas de Harmônicas, que calculada de forma ampla nos fornece o valor do THD (do inglês Total Harmonic Distortion ou Distorção Harmônica Total). Este trabalho apresenta uma das várias soluções para minimizar esse indicador através da detecção por um algoritmo computacional instalado no medidor de THD apropriado e pela utilização de filtros harmônicos passivos. Este algoritmo computacional detecta e calcula em quais frequências o valor do THD está elevado em comparação a um índice normativo definido utilizando para isso a Lógica Fuzzy. Uma vez definido a necessidade da aplicação do filtro harmônico esse será projetado pelo algoritmo computacional. O filtro harmônico entregado neste trabalho será o filtro passivo devido a sua fácil instalação e ao seu baixo custo. Dessa forma, o algoritmo computacional proposto funciona no início da medição do THD, no equipamento medidor, indicando uma faixa classificatória de THD medido, utilizando para isso a Lógica Fuzzy, identifica a necessidade ou não da instalação do filtro harmônico passivo e seu projeto, e finaliza efetuando um novo cálculo de THD.
Resumo:
Na atualidade, o estudo do desempenho térmico de um sistema de refrigeração por compressão de vapor representa uma ferramenta importante no auxílio do desenvolvimento de novos produtos ou melhoria dos já existentes. Um modelo de simulação em regime permanente foi elaborado para avaliar o desempenho do sistema frigorífico. O sistema estudado inclui uma Central de Ar Condicionado, modelo PA HILTON, constituída de um compressor alternativo do tipo semi-hermético, evaporador e condensador compacto de tubos e aletas e uma válvula de expansão termostática. O modelo do condensador considera três regiões distintas de troca de calor as quais são respectivamente a região de dessuperaquecimento, condensação e subresfriamento. Para a modelagem do evaporador, foram consideradas as regiões de evaporação e superaquecimento. No modelo de simulação foram utilizadas correlações adequadas para a estimativa dos coeficientes de transferência de calor e perda de pressão para cada região do evaporador e condensador. Não foram consideradas a transferência de calor e queda de pressão nas linhas de conexão entre os componentes. A solução do sistema de equações não lineares resultantes da modelagem matemática dos componentes do sistema simulado foi obtida utilizando-se o método das substituições sucessivas com o emprego do software Engineenng Equation Solver . Os resultados obtidos pelo modelo de simulação apresentaram erros inferiores a 9% em relação aos valores experimentais.
Resumo:
Este trabalho apresenta um método rápido de inversão de matrizes densas, e uma possível aplicação com métodos de Vectoring, em pré-codificação e cancelamento de crosstalk de sistemas xDSL. A família de tecnologias xDSL utiliza os pares trançados de fios de cobre telefônicos como meio físico para transmitir dados digitais. O crosstalk é a principal causa de degradação de sinais na mais nova geração de sistemas xDSL, o G.fast, e para combatê-lo são utilizadas técnicas de pré-codificação e cancelamento, chamadas de Vectoring. O método proposto, chamado de GSGR, consiste em uma abordagem diferente para o método clássico de Squared Givens Rotations (SGR), adequado a implementações em plataformas embarcadas de processamento digital de sinais. Foram realizados testes comparativos do método GSGR com métodos diretos clássicos de inversão, utilizando uma plataforma digital multicore baseada no chip TI DSP TMS320C6670 e a plataforma de software Matlab. Os resultados dos testes de inversão de matrizes usando dados reais e dados simulados mostraram que o GSGR foi superior em velocidade de execução sem apresentar perdas significativas de acurácia para a aplicação em sistemas xDSL.
Resumo:
Matrizes poliméricas como os hidrogéis são sistemas de liberação controlada que estão sendo largamente utilizados na indústria farmacêutica. Neste trabalho os hidrogéis de PAAm-co-MC foram obtidos e caracterizados afim de carrear o propranolol, fármaco anti-hipertensivo. Os hidrogéis compostos pelos monômeros AAm e MC foram sintetizados por polimerização via radical livre, sendo investigada quatro concentrações de AAm (3,6%; 7,2%; 14,7% e 21,7% m/v). A caracterização dos hidrogéis foi realizada com os estudos de grau de intumescimento, potencial zeta, IR-FT, MEV e análises térmicas (TG, DTA, DTG e DSC). O hidrogel 3,6% apresentou maior grau de intumescimento em todos os meios de análise. O potencial zeta revelou que todos os hidrogéis permanecem próximo do ponto isoelétrico. O espectro de absorção do infravermelho permitiu identificar bandas características, tanto do hidrogel como do propranolol. As curvas de TG dos hidrogéis evidenciaram a degradação dos mesmos em dois estágios, sendo observado na curva DTG a maior perda de massa em torno de 400ºC e as curvas DTA e DSC confirmaram os três eventos endotérmicos. Já o propranolol apresentou um único estágio de degradação e seu pico de fusão foi em 163,4ºC. As microfotografias relevaram a disposição da rede tridimensional dos hidrogéis. A relação da adsorção propranolol/hidrogel foi de 573 mg/g, seguindo o modelo da isoterma de Langmuir. No estudo da cinética de liberação in vitro a liberação do propranolol a partir da matriz do hidrogel foi de aproximadamente 80% do fármaco em 424 horas, apresentando um modelo bimodal. A realização deste trabalho demonstrou que o hidrogel de PAAm-co-MC é um grande promissor para aplicação em sistemas carreadores de fármacos.
Resumo:
A Amazônia tradicional é a Amazônia dos rios, que foi e continua sendo um padrão de ocupação espacial e econômico importante para o desenvolvimento regional. O arquipélago de Marajó, espaço geral empírico desta pesquisa, como parte da Amazônia dos Rios, não foge a esta regra. No entanto, sabe-se que a organização espacial da Amazônia vem sofrendo grandes mudanças, incluindo diversas dinâmicas nos sistemas produtivos agropecuários, com reflexos econômicos, sociais e ambientais complexos. Muitos estudos têm produzido interpretações distintas sobre a sustentabilidade das atividades agropecuárias na Amazônia brasileira e internacional. Por exemplo, os estudos sobre os modelos de exploração pecuária bovina e bubalina identificam que esta atividade já não é prioridade somente dos grandes estabelecimentos, como em décadas anteriores, em razão do processo de "pecuarização" da agricultura familiar. Esta pesquisa aborda fundamentalmente, as dinâmicas que vêm se processando ou tomando forma nos sistemas de produção familiar, no município de Cachoeira do Arari, situado na Ilha de Marajó - PA, entre os anos de 1994 a 2004. A investigação foi desenvolvida junto às famílias camponesas de seis comunidades (Bacuri, Camará, Gurupá, Jabuti e Retiro Grande). O objetivo principal do trabalho foi caracterizar as dinâmicas socioeconômicas ocorridas nesta década. Os resultados deste trabalho poderão subsidiar futuras pesquisas e políticas públicas que visem a sustentabilidade da produção agropecuária familiar. O método usado para determinação da tipologia das propriedades foi o multi-variado por agregação. Os principais eixos de variáveis que definiram esses tipos foram: magnitude do componente agrícola, magnitude do componente pecuário, rendimento da lavoura branca, magnitude da criação de pequenos e médios animais e fontes de renda externas à propriedade. Os tipos resultantes foram: subsistência, açaizeiro, abacaxizeiro, pecuaçaí, pecuarista e outrarenda. Constatou-se uma grande variabilidade dos sistemas de produção e identificou-se as dinâmicas específicas dos tipos de propriedades ao longo de dez anos, bem como os fatores determinantes de viabilidade dos sistemas de produção e as demandas de política pública.
Resumo:
Essa dissertação de mestrado apresenta um estudo comparativo entre três metodologias baseadas em algoritmos genéticos para ajuste coordenado de estabilizadores de sistemas de potência (ESP). Os procedimentos de ajuste do ESP são formulados como um problema de otimização, a fim de: 1) maximizar o coeficiente de amortecimento mínimo do sistema em malha fechada; 2) maximizar o somatório de todos os coeficientes de amortecimento do sistema em malha fechada; e 3) deslocar os modos eletromecânicos poucos amortecidos ou mal amortecidos para uma zona pré-escrita no plano s. As três metodologias consideram um conjunto de condições de operacionais pré-especificadas. O sistema elétrico foi representado por equações no espaço de estado e as matrizes associadas com a modelagem foram obtidas por meio da versão acadêmica do programa PacDyn. As simulações foram realizadas usando o MATLAB. As metodologias foram aplicadas no conhecido sistema teste New England.