948 resultados para simulação computacional
Resumo:
Devido ao auge do crescimento industrial na Região Norte e, em especial, o Pólo Industrial de Manaus (PIM), são necessários obter ferramentas matemáticas que facilitem ao especialista tomar decisões sobre a seleção e dimensionamento dos filtros harmônicos que proporcionam neutralizar os efeitos prejudiciais dos harmônicos gerados pelas cargas não lineares da indústria e alcançar conformidade com os padrões das normas de qualidade de energia correspondentes. Além disso, como os filtros harmônicos passivos têm a capacidade de gerar potência reativa à rede, estes meios são eficazes compensadores de potência reativa e, portanto, podem conseguir uma economia significativa no faturamento de energia elétrica consumida por essas instalações industriais. Esta tese tem como objetivo geral desenvolver um método matemático e uma ferramenta computacional para a seleção da configuração e parâmetros do projeto de um conjunto de filtros harmônicos passivos para sistemas elétricos industriais. Nesta ótica, o problema de otimização da compensação de harmônicos por meio de filtros passivos foi formulado como um problema multiobjetivo que considera tanto os objetivos da redução da distorção harmônica como da efetividade econômica do projeto considerando as características das tarifas brasileiras. Todavia, a formulação apresentada considera as restrições relevantes impostas pelas normas brasileiras e estrangeiras. A solução computacional para este problema foi conseguida, usando o algoritmo genético NSGA-II que determina um conjunto de soluções ótimas de Pareto (Fronteira) que permitem ao projetista escolher as soluções mais adequadas para o problema. Por conseguinte, a ferramenta computacional desenvolvida tem várias novidades como: não só calcula os parâmetros que caracterizam os filtros, como também seleciona o tipo de configuração e o número de ramos do filtro em cada barra candidata de acordo com um conjunto de configurações pré-estabelecidas; têm implementada duas normas para a avaliação das restrições de qualidade de energia (Prodist-Módulo 8 e IEEE 519-92) que podem ser selecionadas pelo usuário; determina soluções com bons indicadores de desempenho para vários cenários característicos e não característicos do sistema que permitem a representação das as variações diárias da carga; das variações dos parâmetros do sistema e dos filtros; avalia o custo das contas de energia numa rede elétrica industrial que tem diferentes condições de operação (cenários característicos); e avalia o efeito econômico de filtros de harmônicos como compensadores de potência reativa. Para desenvolver a ferramenta computacional adequada desta tese, foi empregado um modelo trifásico em coordenadas de fase para redes de energia elétrica industriais e de serviços onde foram feitos vários programas utilizando várias ferramentas computacionais adicionais. Estas ferramentas compreendem um programa de varredura de freqüência, um programa do fluxo de harmônicos por injeção de correntes e um programa de fluxo de potência à freqüência fundamental. Os resultados positivos desta tese, a partir da análise de vários exemplos práticos, mostram as vantagens do método desenvolvido.
Resumo:
Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.
Resumo:
Esta dissertação apresenta uma metodologia baseada em algoritmo genético (AG) para determinar modelos dinâmicos equivalentes de parques eólicos com geradores de indução em gaiola de esquilo ( GIGE) e geradores de indução duplamente alimentados ( GIDA), apresentando parâmetros elétricos e mecânicos distintos. A técnica se baseia em uma formulação multiobjetiva solucionada por um AG para minimizar os erros quadráticos das potências ativa e reativa entre modelo de um único gerador equivalente e o modelo do parque eólico investigado. A influência do modelo equivalente do parque eólico no comportamento dinâmico dos geradores síncronos é também investigada por meio do método proposto. A abordagem é testada em um parque eólico de 10MW composto por quatro turbinas eólicas ( 2x2MW e 2x3MW), consistindo alternadamente de geradores GIGE e GIDA interligados a uma barra infinita e posteriormente a rede elétrica do IEEE 14 barras. Os resultados obtidos pelo uso do modelo dinâmico detalhado para a representação do parque eólico são comparados aos do modelo equivalente proposto para avaliar a precisão e o custo computacional do modelo proposto.
Resumo:
As Redes da Próxima Geração consistem no desenvolvimento de arquiteturas que viabilizem a continuidade de serviços que proporcionem sempre a melhor conectividade (Always Best Connectivity - ABC) aos usuários móveis com suporte adequado à Qualidade de Experiência (QoE) para aplicações multimídia de alta definição, nesse novo contexto as arquiteturas têm perspectiva orientada a serviços e não a protocolos. Esta tese apresenta uma arquitetura para redes da próxima geração capaz de fornecer acesso heterogêneo sem fio e handover vertical transparente para as aplicações multimídia. A tese considera diferentes tecnologias sem fio e também adota o padrão IEEE 802.21 (Media Independent Handover – MIH) para auxiliar na integração e gerenciamento das redes heterogêneas sem fio. As tecnologias que a arquitetura possui são: IEEE 802.11 (popularmente denominada de WiFi), IEEE 802.16 (popularmente denominada de WiMAX) e LTE (popularmente denominada de redes 4G). O objetivo é que arquitetura tenha a capacidade de escolher entre as alternativas disponíveis a melhor conexão para o momento. A arquitetura proposta apresenta mecanismos de predição de Qualidade de Experiência (Quality of Experience - QoE) que será o parâmetro decisivo para a realização ou não do handover para uma nova rede. A predição para determinar se haverá ou não mudança de conectividade será feita com o uso da inteligência computacional de Redes Neurais Artificiais. Além disso a arquitetura também apresenta um mecanismo de descarte seletivo de pacotes especifico para aplicações multimídia. A proposta é avaliada via simulação utilizando-se o ns-2 (Network Simulator) e os resultados de desempenho são apresentados através das métricas de QoS, de QoE e também visualmente através da exibição de frames dos vídeos transmitidos na arquitetura.
Resumo:
Redes Ópticas Passivas estão cada vez mais difundidas como rede de acesso de banda larga. Devido à sua importância, tais redes necessitam constantemente de supervisão. Diversas técnicas vêm sendo empregadas para supervisão de redes ópticas, dentre as quais se destacam as que utilizam reflectometria, pois agregam vantagens, tais como: baixo custo, em comparação com outros métodos de supervisão, e não exigência de intervenção na casa do usuário. Esta dissertação apresenta uma estratégia capaz de quantificar, por meio de simulações, o impacto que a técnica de reflectometria no domínio do tempo gera como interferência em transmissões típicas de uma rede WDM-PON.
Resumo:
O presente trabalho analisa o efeito da forma da partícula por meio do método dos Elementos Discretos (DEM). São analisadas quatro partículas com formas e esfericidades diferentes – uma esférica e três não-esféricas. O ângulo de repouso é o principal instrumento de avaliação dos escoamentos. A análise inicia com a calibração da partícula esférica usando dados da literatura, em seguida, estes parâmetros calibrados são empregados para a simulação dos escoamentos das partículas não-esféricas. São feitas comparações dos esforços computacionais e, estas informações, são usadas para verificar as vantagens que a partícula esférica oferece sobre as outras três formas. Nesse cenário, procedimentos foram desenvolvidos para ajudar no processo de calibração dos ângulos de repousos, tendo como base, o conhecimento da sensibilidade de alguns parâmetros DEM. Os resultados mostram a influência das partículas não-esféricas e, principalmente, que é possível obter com a partícula esférica, escoamentos similares aos das partículas não-esféricas, com ganho computacional.
Resumo:
A aplicação das ligas com memória de forma (shape memory alloys – SMA) têm se mostrado como uma alternativa promissora no controle de vibração de máquinas e estruturas, devido principalmente aos fenômenos de memória de forma e pseudoelástico que elas apresentam. Do mesmo modo, tais ligas proporcionam grandes forças de recuperação e capacidade de amortecimento quando comparadas aos materiais tradicionais. Na literatura científica encontra-se um grande número de trabalhos que tratam da aplicação das SMA no controle de vibração em estruturas. Contudo, a aplicação desse tipo de material em máquinas rotativas ainda é um assunto pouco abordado. Nesse sentido, busca-se explorar numericamente o comportamento de atuadores baseados em ligas com memória de forma para o controle de vibração em máquinas rotativas. Na primeira análise deste trabalho um rotor tipo Jeffcott com luvas SMA em um dos mancais é utilizado. São empregadas diferentes espessuras de luvas nos estados martensítico e austenítico e as variações em termos de amplitude e frequência são então comparadas. Posteriormente, dois diferentes sistemas rotativos com dois discos e molas SMA aplicadas em um e dois mancais são estudados sob configurações variadas. As molas foram posicionadas externamente aos mancais e a temperatura de operação desses componentes é ajustada de acordo com a necessidade do controle de vibração. Além disso, foi utilizado um código computacional para a representação do comportamento termomecânico de molas SMA assim como um programa baseado no Método de Elementos Finitos (MEF) para a simulação do comportamento dinâmico dos rotores. Os resultados das análises numéricas demonstram que as SMA são eficientes no controle de vibração de sistemas rotativos devido obterem-se reduções significativas das amplitudes de deslocamento, modificações nas velocidades críticas, supressão de movimentos indesejáveis e controle das órbitas de precessão.
Resumo:
A fluidização de partículas é amplamente utilizada na indústria, principalmente devido às altas taxas de transferência de calor e massa entre as fases. O acoplamento entre a Dinâmica dos Fluidos Computacional (CFD – Computational Fluid Dynamics) e o Método dos Elementos Discretos (DEM – Discrete Element Method) tem se tornado atrativo para a simulação de fluidização, já que nesse caso o movimento das partículas é analisado de forma mais direta do que em outros tipos de abordagens. O grande problema do acoplamento CFD-DEM é a alta exigência computacional para rastrear todas as partículas do sistema, o que leva ao uso de estratégias de redução do tempo de simulação que em caso de utilização incorreta podem comprometer os resultados. O presente trabalho trata da aplicação do acoplamento CFD-DEM na análise de fluidização de alumina, que é um problema importante para o setor mineral. Foram analisados diversos parâmetros capazes de influenciar os resultados e o tempo de simulação como os passos de tempo, os modelos de arrasto, a distribuição granulométrica das partículas, a constante de rigidez, a utilização de partículas representativas com tamanho maior que o das partículas reais, etc. O modelo de força de interação DEM utilizado foi o modelo de mola e amortecedor lineares (LSD – Linear Spring Dashpot). Todas as simulações foram realizadas com o software ANSYS FLUENT 14.5 e os resultados obtidos foram comparados com dados experimentais e da literatura. Tais resultados permitiram comprovar a capacidade do modelo linear LSD em predizer o comportamento global de leitos de alumina e reduzir o tempo de simulação, desde que os parâmetros do modelo sejam definidos de forma adequada.
Resumo:
A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
Nos grandes centros urbanos pode-se constatar que o nível de ruído é tão elevado que ameaça a integridade psicológica e física dos habitantes. Entretanto, observa-se que muito do ruído no ambiente hospitalar origina-se de dentro do hospital, tendo como uma das principais fontes geradoras de ruído nas unidades os equipamentos e a conversação entre a equipe hospitalar. A perda auditiva induzida pelo ruído (PAIR) é uma das consequências que o ruído elevado pode acarretar à saúde, entre outros danos. Assim, o ambiente hospitalar que deveria ser sereno e silencioso transforma-se em um espaço ruidoso e estressante, aumentando a ansiedade e a percepção dolorosa do paciente, reduzindo o sono e estendendo a convalescença. Objetivo: Avaliar as condições acústicas dos principais ambientes nas unidades de urgência e emergência no município de Belém, Estado do Pará, Brasil. Verificar a adequação às normas sanitárias e técnicas vigentes, com a simulação de um ambiente piloto validado com a utilização do software ODEON e apresentar soluções virtuais de condicionamento acústico. Material e Métodos: foi utilizado o equipamento Medidor de Nível Sonoro com certificado de calibração da Rede Brasileira de Calibração (RBC) para aferição dos NPS nos períodos diurno e noturno, de acordo com o estabelecido pela NBR 10.151 (2000), além da observação e identificação das fontes de ruído dos ambientes. Resultados: Os valores obtidos durante as aferições dos NPS nos ambientes do Hospital A foram de 58 dB(A) a 70 dB(A) e do Hospital B foram de 62 dB(A) a 70 dB(A). O ambiente piloto foi selecionado de acordo com os resultados e com o tempo de permanência da equipe de saúde e dos pacientes. Conclusão: foi desenvolvido o modelo computacional validado do ambiente piloto, gerando um modelo proposto com intervenções arquitetônicas visando o conforto acústico da equipe de saúde e dos pacientes. Os ambientes pesquisados não apresentaram níveis de ruído superiores a 85 dB(A), comprovando que não há risco ocupacional para as equipes de saúde. Entretanto, níveis de ruídos elevados, por mais que não causem PAIR nos trabalhadores, são responsáveis por estimular ou até mesmo por desencadear diversos sintomas que prejudicam a capacidade laborativa da equipe de saúde, além de aumentar a convalescença e prejudicar a recuperação dos pacientes.
Resumo:
A crescente demanda por capacidade vem levando os padrões de comunicação sem-fio a prover suporte para a coexistência de macro e pico células. O backhaul, conexão entre a rede de acesso e o núcleo da rede, é de grande interesse neste contexto devido aos diversos desafios técnicos e financeiros envolvidos ao tentar satisfazer o crescente tráfego dos usuários. Fibra óptica e micro-ondas com linha de visada são as opções mais amplamente adotadas para o backhaul de macro-células. Contudo, em muitas situações de interesse prático, estas não são factíveis devido aos altos custos e logística envolvidos. Este trabalho avalia o backhaul de pico-células, focando primeiramente na utilização de cobre como backhaul. O simulador OPNET foi utilizado para avaliar os requerimentos de backhaul para redes móveis em cenários específicos considerando garantir qualidade de serviço para os diversos tipos de tráfego envolvidos. Assumindo demandas de tráfego para LTE e LTE-Advanced, as tecnologias VDSL2 e G.fast são avaliadas e os resultados mostram que mesmo com uma grande demanda de aplicações de vídeo de alta definição, estas tecnologias podem acomodar o tráfego no backhaul de pico-células. VDSL2 é capaz de prover as taxas requeridas para cenários de pico-células LTE, mas não é capaz de acomodar tráfego LTE-Advanced típico. Por outro lado, considerando as taxas atingidas com a tecnologia G.fast, o tráfego backhaul para pico-células LTE-Advanced pode ainda ser entregue com garantias de qualidade de serviço. Neste trabalho também é proposta uma solução para simulação de cenários contendo redes de acesso heterogêneas considerando backhaul LTE sem linha de visada. São demonstrados também os resultados de simulações no OPNET com o backhaul LTE proposto para validar a solução proposta como capaz de caracterizar o tráfego de ambas as tecnologias WiFi e LTE na rede de acesso de acordo com o tipo de serviço.
Resumo:
O volume de tráfego de dados em redes celulares está crescendo exponencialmente. A explosão do uso de dispositivos e aplicações móveis nos últimos anos, tem levado a uma sobrecarga da infraestrutura da rede responsável pelo escoamento desse tráfego, afetando tanto o desempenho da rede quanto a experiência do usuário. Um dos elementos-chave nas redes LTE (Long Term Evolution) é a possibilidade de implantação de múltiplas femtocells para a melhoria de cobertura e taxa de dados. No entanto, as sobreposições arbitrárias na cobertura dessas células tornam a gestão do mecanismo de handover complexo e desafiador. Nesse sentido, esta dissertação propõe uma metodologia para o estudo do impacto do handover em redes LTE com femtocells. A partir de uma abordagem de simulação discreta, os efeitos da implantação de femtocells foram avaliados. Objetivou-se com isso, mensurar os impactos e a correlação do uso de femtocell nos parâmetros de QoS (Quality of Service) e indicadores de desempenho de handover.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.