18 resultados para Prognóstico baseado em dados
em Universidade Federal do Pará
Resumo:
Esta pesquisa trata da Qualidade de Vida no Trabalho, um estudo realizado a partir dos documentos publicados sobre as ações e programas propostos pela Diretoria de Saúde e Qualidade de Vida da Universidade Federal do Pará, destinados aos seus servidores. O objetivo geral foi levantar documentos que dessem conta da história de criação da DSQV, explicitando sua ligação com a Pró-Reitoria de Desenvolvimento e Gestão de Pessoal da UFPA observando-se o alcance das ações propostas em número de servidores atendidos por esses programas. Tomou-se por especificidades descrever o percurso traçado pela DSQV a partir do seu surgimento no ano de 2005, até alcançar as ações e programas propostos para 2010. Fazer levantamento da legislação federal voltada à garantia de benefícios que contribuam para a qualidade de vida dos servidores públicos e analisar a proporção tomada pelas ações e programas implantados pela DSQV, no que concerne ao número de servidores alcançados. A escolha do campo e população deu-se, a princípio, em função do próprio programa de mestrado ser destinado aos servidores dessa organização e ter como foco pesquisa na área da administração pública, sugerindo como lócus essa universidade. A pesquisa caracteriza-se de um estudo exploratório e descritivo, baseado em dados de fundamentação teórica a respeito do tema e documental, analisando os relatórios de gestão entre os anos de 2006 a 2010 na PROGEP/DSQV/UFPA. Os resultados obtidos apontam para ações desenvolvidas pelas coordenadorias que compõem a DSQV, no qual o destaque são os atendimentos feitos pela Coordenadoria de Vigilância à Saúde do Servidor através do SIASS com a realização de perícia multidisciplinar implantada em 2010, o que é um diferencial nessa atividade, bem como, os afastamentos de servidores por adoecimento, por meio das varáveis gênero, lotação e natureza da perícia. Também foram levantadas as ações realizadas pelas Coordenadorias de Apoio Psicossocial e Qualidade de Vida e Responsabilidade Social, para análise do alcance de cada uma delas em número de ações e programas existentes e de servidores atendidos. A pesquisa buscou ainda analisar os valores propostos por cada setor investigado a fim de deslindar do ponto de vista da axiologia, ou seja, da filosofia o sentido da presença de cada um desses valores como um fator a ser compartilhado pelos servidores da Universidade Federal do Pará.
Resumo:
OBJETIVO: Analisar a freqüência de hipertensão arterial sistêmica auto-referida e fatores associados. MÉTODOS: Estudo baseado em dados do sistema de Vigilância de Fatores de Risco e Proteção para Doenças Crônicas por Inquérito Telefônico (VIGITEL), coletados em 2006 nas capitais brasileiras e Distrito Federal. Estimou-se a freqüência de hipertensão arterial sistêmica entre 54.369 adultos, estratificada por sexo, região geográfica, variáveis sociodemográficas e comportamentais e morbidades auto-referidas. Foram calculadas os odds ratios brutos de hipertensão e ajustados para variáveis do estudo. RESULTADOS: A freqüência de hipertensão auto-referida foi de 21,6%, maior entre mulheres (24,4% versus 18,4%), menor nas regiões Norte e Centro-Oeste e maior na Sudeste. A freqüência de hipertensão aumentou com a idade, diminuiu com a escolaridade, foi maior entre negros e viúvos e menor entre solteiros. A chance de hipertensão, ajustada para variáveis de confusão, foi maior para os indivíduos com excesso de peso, diabetes, dislipidemia e de eventos cardiovasculares. CONCLUSÕES: Cerca de um quinto da população referiu ser portadora de hipertensão arterial sistêmica. As altas freqüências de fatores de risco modificáveis indicam os segmentos populacionais alvos de intervenção, visando à prevenção e controle da hipertensão.
Resumo:
Durante o processo de extração do conhecimento em bases de dados, alguns problemas podem ser encontrados como por exemplo, a ausência de determinada instância de um atributo. A ocorrência de tal problemática pode causar efeitos danosos nos resultados finais do processo, pois afeta diretamente a qualidade dos dados a ser submetido a um algoritmo de aprendizado de máquina. Na literatura, diversas propostas são apresentadas a fim de contornar tal dano, dentre eles está a de imputação de dados, a qual estima um valor plausível para substituir o ausente. Seguindo essa área de solução para o problema de valores ausentes, diversos trabalhos foram analisados e algumas observações foram realizadas como, a pouca utilização de bases sintéticas que simulem os principais mecanismos de ausência de dados e uma recente tendência a utilização de algoritmos bio-inspirados como tratamento do problema. Com base nesse cenário, esta dissertação apresenta um método de imputação de dados baseado em otimização por enxame de partículas, pouco explorado na área, e o aplica para o tratamento de bases sinteticamente geradas, as quais consideram os principais mecanismos de ausência de dados, MAR, MCAR e NMAR. Os resultados obtidos ao comprar diferentes configurações do método à outros dois conhecidos na área (KNNImpute e SVMImpute) são promissores para sua utilização na área de tratamento de valores ausentes uma vez que alcançou os melhores valores na maioria dos experimentos realizados.
Resumo:
As Redes Ópticas Passivas (Passive Optical Networks - PONs) vêm experimentando um sólido crescimento nas últimas décadas por terem sido concebidas como uma excelente alternativa para a solução de um dos maiores problemas para as redes de telecomunicações: o gargalo nas redes de acesso. A próxima geração desta tecnologia, as chamadas Next Genaration PONs (NG-PON), surgem como consequência da evolução das tecnologias ópticas e oferecem suporte aos serviços de próxima geração, melhorando os parâmetros de desempenho das TDM-PONs e inclusive aumentando a área de cobertura destas redes. Esta expansão geográfica beneficia as empresas de telecomunicações que passam a focar seus esforços na simplificação de suas infra-estruturas através da unificação das redes metropolitanas, de acesso e de backhaul, reduzindo a quantidade de nós e, consequentemente, de custos operacionais e financeiros. Trata-se de uma significativa mudança no cenário das redes de acesso que passam a ter grandes distâncias entre as Optical Network Units (ONUs) e o Central Office (CO) e uma imensa variedade de serviços, tornando fundamental a presença de algoritmos de agendamento capazes de gerenciar todos os recursos compartilhados de forma eficiente, ao mesmo tempo que garantem controle e justeza na alocação dinâmica dos tráfegos upstream e downstream. É a partir deste contexto que esta dissertação tem como objetivo geral apresentar a proposta de um algoritmo híbrido de agendamento de grants baseado na priorização de filas (Hybrid Grant Scheduler based on Priority Queuing – HGSPQ), que além de gerenciar todos os recursos em WDM-PONs, busca oferecer eficiência e controle ao Optical Line Terminal (OLT) no agendamento dinâmico dos tráfegos. Os resultados apresentados foram extraídos de cenários desenvolvidos em ambiente de simulação computacional e se baseiam nas métricas de atraso e vazão para avaliação de seu desempenho. Também será avaliado como a quantidade de recursos no OLT interfere nestas métricas.
Resumo:
As concessionárias de energia, para garantir que sua rede seja confiável, necessitam realizar um procedimento para estudo e análise baseado em funções de entrega de energia nos pontos de consumo. Este estudo, geralmente chamado de planejamento de sistemas de distribuição de energia elétrica, é essencial para garantir que variações na demanda de energia não afetem o desempenho do sistema, que deverá se manter operando de maneira técnica e economicamente viável. Nestes estudos, geralmente são analisados, demanda, tipologia de curva de carga, fator de carga e outros aspectos das cargas existentes. Considerando então a importância da determinação das tipologias de curvas de cargas para as concessionárias de energia em seu processo de planejamento, a Companhia de Eletricidade do Amapá (CEA) realizou uma campanha de medidas de curvas de carga de transformadores de distribuição para obtenção das tipologias de curvas de carga que caracterizam seus consumidores. Neste trabalho apresentam-se os resultados satisfatórios obtidos a partir da utilização de Mineração de Dados baseada em Inteligência Computacional (Mapas Auto-Organizáveis de Kohonen) para seleção das curvas típicas e determinação das tipologias de curvas de carga de consumidores residenciais e industriais da cidade de Macapá, localizada no estado do Amapá. O mapa auto-organizável de Kohonen é um tipo de Rede Neural Artificial que combina operações de projeção e agrupamento, permitindo a realização de análise exploratória de dados, com o objetivo de produzir descrições sumarizadas de grandes conjuntos de dados.
Resumo:
O conhecimento prévio do valor da carga é de extrema importância para o planejamento e operação dos sistemas de energia elétrica. Este trabalho apresenta os resultados de um estudo investigativo da aplicação de Redes Neurais Artificiais do tipo Perceptron Multicamadas com treinamento baseado na Teoria da Informação para o problema de Previsão de Carga a curto prazo. A aprendizagem baseada na Teoria da Informação se concentra na utilização da quantidade de informação (Entropia) para treinamento de uma rede neural artificial. Dois modelos previsores são apresentados sendo que os mesmos foram desenvolvidos a partir de dados reais fornecidos por uma concessionária de energia. Para comparação e verificação da eficiência dos modelos propostos um terceiro modelo foi também desenvolvido utilizando uma rede neural com treinamento baseado no critério clássico do erro médio quadrático. Os resultados alcançados mostraram a eficiência dos sistemas propostos, que obtiveram melhores resultados de previsão quando comparados ao sistema de previsão baseado na rede treinada pelo critério do MSE e aos sistemas previsores já apresentados na literatura.
Resumo:
O Meduloblastoma é a neoplasia encefálica mais comum na infância, correspondendo a taxas de 16 a 25% de todos os tumores encefálicos em menores de 19 anos e 30-40% de todos os tumores da fossa posterior. Para investigar o papel do polimorfismo de base única (SNP) TP53 Arg72Pro sobre o risco de desenvolvimento, prognóstico e resposta a terapêutica adjuvante em Meduloblastoma, foi realizado um estudo caso-controle com 122 pacientes e 122 controles saudáveis do Brasil. Em comparação com Arg/Arg, que é o genótipo mais comum na população em estudo, tanto o genótipo Arg/Pro e Pro/Pro não influenciaram o risco de desenvolvimento de Meduloblastoma (OR = 1,36 e P = 0,339 para o genótipo Arg/Pro; OR = 1,50 e P = 0,389 para o genótipo Pro/Pro). Com relação ao prognóstico, a sobrevida livre de doença não foi significativamente diferente entre os genótipos SNP TP53 Arg72Pro (P> 0,05), porém o genótipo menos freqüente, Pro/Pro, foi associado a uma menor sobrevida global dos pacientes com Meduloblastoma (P = 0,021 ). Estes dados sugerem que embora não haja nenhuma associação entre o SNP TP53 Arg72Pro e o risco de desenvolvimento de Meduloblastoma, o genótipo Pro/Pro está associado a uma menor sobrevida global dos pacientes submetidos a terapia adjuvante. No entanto, devido à composição interétnica da população brasileira, futuros estudos envolvendo populações maiores e de outras partes do mundo serão essenciais para uma conclusão definitiva da função do SNP TP53 Arg72Pro.
Resumo:
A pesquisa apresentada nesta dissertação descreve a elaboração de um protocolo de roteamento para aplicações de Redes de Sensores Sem Fio (RSSF) em cidade inteligentes com forte restrição de energia e alta densidade de nodos. Através do estudo dos principais objetivos da comunicação de dados e do levantamento do estado-da-arte sobre os protocolos de roteamento e tecnologias para RSSF, a proposta contempla requisitos como: vazão de dados, confiabilidade de entrega e eficiência energética. A pesquisa apresenta em detalhes o protocolo AODV (Ad hoc On Demand Distance Vector), bem como sua relevância no contexto de RSSF devido a sua popularidade entre as plataformas de dispositivos comercializados. Além disso, são apresentados protocolos derivados do AODV, e a ausência de uma proposta robusta capaz de contemplar os requisitos levantados. O protocolo REL (Routing by Energy and Link Quality) é o resultado da pesquisa levantada e a proposta de solução para roteamento plano sob demanda baseado em eficiência energética e qualidade de enlace para prover um roteamento escalável, capaz de realizar balanceamento de carga e prolongar o tempo de vida da rede. O protocolo REL foi avaliado através de simulação e tesbed, a fim de garantir validação da proposta em ambiente real de escala reduzida e simulado de alta densidade. Os resultados mostraram que o protocolo REL apresenta considerável melhoria de entrega de dados através da escolha de enlaces confiáveis de transmissão e menos suscetíveis a erro, além de moderado consumo de energia capaz de prolongar o tempo de vida da rede, evitando a saturação prematura de nodos.
Resumo:
As redes de acesso usando cabos de cobre atualmente utilizam bandas de frequência até 30 MHz, especificada no padrão VDSL2. À medida que arquiteturas híbridas de fibra e cobre se tornam mais proeminentes na indústria e academia, torna-se possível utilizar cabos metálicos mais curtos (i.e. até 250 metros) conectando o último ponto de distribuição aos usuários, de modo que frequências mais altas podem ser exploradas para se alcançar taxas de transmissão de dados de 500 Mbps ou mais, como é o caso do padrão G.fast atualmente em desenvolvimento no ITU-T. Nesse trabalho, um simulador no domínio do tempo foi desenvolvido para avaliar a capacidade do sistema G.fast com diferentes tamanhos de extensão cíclica e diferentes topologias de rede especificadas pelo ITU-T. Os resultados das simulações mostram que sistemas G.fast são robustos a bridged taps e capazes de atingir altas taxas de dados para todas as topologias simuladas, provendo suporte à próxima geração de serviços de banda larga. Além disso, esse trabalho descreve o progresso da implementação de um protótipo de modem baseado no padrão G.fast em um ambiente híbrido de DSP multicore e FPGA utilizando kits de avaliação adquiridos pela UFPA. Arquiteturas, protocolos de comunicação e benchmarks são apresentados e avaliados para se chegar à conclusão de que tal protótipo é factível e fornece suporte flexível a várias linhas de pesquisa em banda larga da próxima geração.
Resumo:
O fenômeno da turbulência está presente na maioria dos escoamentos observados na indústria e na natureza. Muitas são as considerações a respeito das dificuldades relacionadas à caracterização dos escoamentos turbulentos. Uma das muitas questões trata do procedimento de análise do problema através da descrição estatística dos campos por grandezas “médias”, o que leva ao problema de fechamento e à modelagem do tensor de Reynolds, normalmente com modelos baseados no conceito de viscosidade turbulenta. Os modelos de turbulência já existentes apresentam algumas deficiências na previsão do escoamento, além de outras limitações, o que justifica a busca por novas abordagens para o tratamento da turbulência. Neste trabalho, o problema de fechamento é tratado segundo a modelagem turbulenta baseada no conceito de viscosidade turbulenta. Um novo modelo de turbulência é proposto, que admite a existência de vórtices imersos no escoamento e aplica conceitos e definições relacionados à identificação de vórtices, com o uso do critério de identificação Q , que caracteriza a região do escoamento ocupada pelo vórtice. Propõe-se a investigação da aplicabilidade do critério Q em conjunto com o modelo k − ε , para o desenvolvimento de um novo modelo de turbulência chamado k − ε −Q . Validou-se a aplicabilidade do modelo através de um código numérico computacional para tratamento de escoamentos turbulentos. A solução numérica foi obtida através da discretização do domínio fluido, utilizando o método de volumes finitos e o método multigrid foi utilizado para resolver o sistema linear resultante. Como verificação, foi utilizado este modelo de turbulência para simular o escoamento em uma cavidade quadrada com tampa deslizante e o escoamento turbulento sobre um degrau. Os resultados obtidos foram confrontados com dados experimentais e demonstraram que o modelo aqui proposto se apresenta mais eficiente que o clássico modelo k − ε , no tratamento da turbulência nesses dois problemas clássicos.
Resumo:
O objetivo central deste trabalho é o estudo e a aplicação do método Kalman-Bucy no processo de deconvolução ao impulso e de deconvolução com predição, onde é considerado que os dados observados são classificados como não-estacionários. Os dados utilizados neste trabalho são sintéticos e, com isto, esta Tese tem características de um exercício numérico e investigativo. O operador de deconvolução ao impulso é obtido a partir da teoria de CRUMP (1974) fazendo uso das soluções das equações Wiener-Hopf apresentadas por KALMAN-BUCY (1961) nas formas contínuas e discretas considerando o processo como não estacionário. O operador de predição (KBCP) está baseado nas teorias de CRUMP (1974) e MENDEL ET AL (1979). Sua estrutura assemelha-se ao filtro Wiener-Hopf onde os coeficientes do operador (WHLP) são obtidos através da autocorrelação, e no caso (KBCP) são obtidos a partir da função bi(k). o problema é definido em duas etapas: a primeira consta da geração do sinal, e a segunda da sua avaliação. A deconvolução realizada aqui é classificada como estatística, e é um modelo fortemente baseado nas propriedades do sinal registrado e de sua representação. Os métodos foram aplicados apenas em dados sintéticos de seção fonte-comum obtida a partir dos modelos com interfaces contínuas e camadas homogêneas.
Resumo:
Esta dissertação apresenta um método para estimar a orientação de fratura de um meio partindo do pressuposto que este se comporta efetivamente como um meio transversalmente isotrópico (TI). Desta forma, a orientação de fratura é obtida a partir da estimativa do eixo de simetria de um meio TI. Esta estimativa é obtida a partir dos vetores de vagarosidade e polarização de ondas qP medidos em experimentos VSP Walkaway. O processo de inversão é baseado em equações linearizadas dos vetores de vagarosidade e polarização de ondas qP e os parâmetros fracamente anisotrópicos do meio. São apresentados testes numéricos, em que a sensibilidade a fatores como grau de anisotropia, geometria do levantamento, tipo de onda utilizado e nível de ruído são analisados. São também apresentados os resultados para um conjunto de dados reais.
Resumo:
A Bacia do Solimões é caracterizada por um padrão magnético complexo, expresso ao longo de toda sua extensão, e produzido pela superposição de anomalias magnéticas que se apresentam sob a forma de feições lineares. Tais feições refletem as diferentes atividades tectônicas que atuaram na Região Amazônica através do Pré-Cambriano e Fanerozóico. Neste trabalho, foi aplicado nos dados aeromagnéticos da Bacia do Solimões um método de processamento de imagens digitais de sombreamento do relevo magnético anômalo total que, dadas suas características metodológicas, permitindo utilizá-lo como um filtro direcional, possibilitou a definição de aspectos relevantes no contexto das relações entre os lineamentos magnéticos E/W, NE/SW, e NW/SE. Nesse sentido, foram identificados padrões de lineamentos magnéticos que refletem a existência de zonas de cisalhamento transcorrentes dextrais, orientadas preferencialmente na direção E/W. A interação entre os diversos segmentos transcorrentes promoveu o desenvolvimento de um regime predominantemente transpressivo, representado por falhas reversas associadas aos lineamentos magnéticos E/W e NE/SW; e duplexes direcionais formando falhas em flor positivas e negativas associadas, respectivamente, aos lineamentos magnéticos orientados na direção N70-80E e N70-80W. A análise quantitativa permitiu explicar dois aspectos importantes em relação às feições lineares observadas nas imagens digitais. O primeiro mostra, através de modelamentos baseados na superposição de prismas bidimensionais, que estas feições lineares magnéticas podem ser explicadas pela superposição de fontes profundas intraembasamento altamente magnéticas, e fontes rasas de alta frequência, sendo estas associadas a falhas reversas ao longo dos níveis de diabásio, presentes em forma de intrusões nos sedimentos paleozóicos da Bacia do Solimões. O segundo aspecto, baseado na utilização dos conceitos da cross-covariância, constata a presença de 'offsets' dextrais, associados aos lineamentos magnéticos NE—SW, ao longo da direção E—W. Este fato mostra, quantitativamente, que o padrão magnético desta região pode ser explicado pela presença de zonas de cisalhamento transcorrestes dextrais, cujos processos tectônicos associados foram fortemente condicionados por zonas de fraquezas pré-existentes (Pré-Cambrianas, Paleozóicas) durante o Mesozóico e Cenozóico.
Resumo:
Os Sistemas de Detecção e Prevenção de Intrusão (Intrusion Detection Systems – IDS e Intrusion Prevention Systems - IPS) são ferramentas bastante conhecidas e bem consagradas no mundo da segurança da informação. Porém, a falta de integração com os equipamentos de rede como switches e roteadores acaba limitando a atuação destas ferramentas e exige um bom dimensionamento de recursos de hardware como processamento, memória e interfaces de rede de alta velocidade, utilizados para implementá-las. Diante de diversas limitações deparadas por pesquisadores e administradores de redes, surgiu o conceito de Rede Definida por Software (Software Defined Network – SDN), que ao separar os planos de controle e de dados, permite adaptar o funcionamento da rede de acordo com as necessidades de cada um. Desta forma, devido à padronização e flexibilidade propostas pelas SDNs, e das limitações apresentadas dos IPSs, esta dissertação de mestrado propõe o IPSFlow, um framework que utiliza uma rede baseada na arquitetura SDN e o protocolo OpenFlow para a criação de um IPS com ampla cobertura e que permite bloquear um tráfego caracterizado pelos IDS(s) como malicioso no equipamento mais próximo da origem. Para validar o framework, experimentos no ambiente virtual Mininet foram realizados utilizando-se o Snort como IDS para analisar tráfego de varredura (scan) gerado pelo Nmap de um host ao outro. Os resultados coletados apresentam que o IPSFlow funcionou conforme planejado ao efetuar o bloqueio de 85% do tráfego de varredura.
Resumo:
A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.