14 resultados para zero-knowledge random access machine interattività

em Universidade Federal do Pará


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os hidrogeradores são peças chaves no circuito brasileiro de energia, sua indisponibilidade e mau funcionamento podem causar multas altíssimas a concessionárias aplicadas pela ANEEL por não atenderem a demandas e até por paradas impróprias para efetivar manutenções, além de agravar confiabilidade na garantia do fornecimento aos consumidores finais. Para garantir que isso não venha acontecer, a manutenção preditiva fornece técnicas que podem apontar as falhas analisando os “sinais vitais” originados pelo próprio equipamento. Desta forma as condições mecânicas e operacionais são periodicamente monitoradas e quando as tendências são detectadas insalubres, as peças incômodas na máquina são identificadas e programadas para manutenção. Para que essa tendência seja encontrada, utiliza-se da lógica fuzzy para modelar o comportamento dos hidrogeradores, sendo mais especifico: mancais, estator e anel coletor, inferindo conclusões prováveis de falhas. Neste trabalho, mostra o processo de construção do sistema que auxilia no diagnóstico da manutenção preditiva, desde sua metodologia de desenvolvimento por macro-atividades, definição arquitetural, conformidade dos requisitos e análise do conhecimento inserido a inteligência do sistema. O sistema foi desenvolvido em plataforma labview para servir como ferramenta de apoio. Todo o conhecimento inserido no sistema foi obtido com o corpo especialista de Eletronorte e outra parte na literatura, foi necessário aplicar o conceito de regras ao maquina de inferência fuzzy, para uma forma linguística de fácil compreensão, para que os próprios especialistas ampliem e evolua o software.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As estratégias atuais de combate à malária estimulam o conhecimento mais profundo dos mecanismos de defesa humana antiplasmodiais. A cooperação de anticorpos citofilicos com monócitos sangüíneos facilitando a fagocitose de células infectadas, tem mostrado ser um mecanismo efetivo nesta defesa. Estudos comparativos entre populações semi-imunes e não imunes têm sido feitos a fim de identificar o padrão de imunoglobulinas nestas populações. Somando-se a estes, o presente trabalho objetivou avaliar a resposta de anticorpos IgG anti-P.vivax (lgG anti-PV), subclasses citofilicas: IgG1 e IgG3 e não citofilicas: IgG2, em crianças com malária por P.vivax. Foram avaliadas 34 crianças portadoras de malária vivax, diagnosticadas pela gota espessa, acompanhadas desde a fase aguda até o último controle de cura, as quais tiveram seus níveis de anticorpos IgG anti-PV e subclasses mensurados pela técnica de imunoflüorescência indireta. Os pacientes foram subdivididos em dois grupos: priminfectados (n=28) e pacientes com história de malária anterior o (n=6). A média geométrica dos títulos de anticorpos IgG anti-PV, foi o demonstrada nos diferentes períodos relativos ao controle de cura, sendo que o os níveis de anticorpos mensurados durante a fase aguda (dias zero e sete) foram comparados (teste t de Student). Níveis de anticorpos IgG anti-PV foram correlacionados com parasitemia e tempo de doença, (Correlação de Spearman). Sinais e sintomas clínicos foram descritos em ambos subgrupos. A proporção de indivíduos positivos e negativos quanto as subclasses foi comparada nos dois subgrupos (teste exato de Fisher). Os resultados mostraram um aumento inicial dos títulos de IgG anti-PV entre o dia zero (D0) e o dia sete (D7), sendo esta diferença significativa (p=0,027), independente de exposição anterior ou não à malária. Aos 60, 120 e 180 dias pós-tratamento, obteve-se uma curva descendente de títulos, com as seguintes proporções de respostas positivas: aos 60 dias: 95,2%, com títulos variando entre 40 e 2560; aos 120 dias: 62,5%, com variação de 40 e 320; e aos 180 dias apenas 28,5% de positivos, com variação entre 40 e 160. Foi encontrada correlação positiva entre tempo de doença e níveis de anticorpos totais entre indivíduos priminfectados. As médias geométricas dos títulos de anticorpos IgG anti-PV subclasses encontradas em D0 foram: IgG1 (598,41) > IgG3 (4,064) > IgG2 (1,422). Não ocorreram diferenças entre proporções de indivíduos positivos e negativos para as subclasses de IgG anti-PV, quando se comparou priminfectados e pacientes sem história anterior de malária. Concluiu-se que, no grupo estudado: 1) Ocorre inicialmente aumento de anticorpos IgG anti-PV entre o primeiro e oitavo dia de tratamento; 2) Os níveis de anticorpos totais anti-PV declinam gradativamente durante o controle de cura: 4,76% dos pacientes apresentaram resultados negativos até D60, 37,5% até D120, e 71,42% até 180 dias após o início do tratamento 3) Não há associação entre parasitemia assexuada no dia zero e títulos de anticorpos IgG anti-PV no primeiro e oitavo dias de tratamento; 4) Em crianças expostas a ataques anteriores, quanto maior o tempo de evolução da doença, maiores são os níveis de anticorpos, ao contrário do que ocorreu com crianças priminfectadas; 5) Não há correlação entre títulos de anticorpos anti-PV totais e presença de esplenomegalia; 6) Houve predominância de anticorpos citofilicos (lgG1 > IgG3), sobre os anticorpos não citofilicos, na amostra estudada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No nordeste do Pará o transporte da polpa de bauxita é através de mineroduto, sendo a viscosidade um parâmetro de controle fundamental para o bombeamento do minério. Este estudo ilustra a influência do pH na reologia da polpa por meio da determinação do ponto de carga zero (pHpcz) da bauxita. Foram efetuadas análise granulométrica, microscopia eletrônica de varredura, ensaios potenciométricos testando o cloreto de amônia como eletrólito indiferente e ensaios reológicos em diferentes valores de pH. Os resultados revelaram que o cloreto de amônia pode ser utilizado como eletrólito indiferente para esse tipo de análise e que ocorre a redução da viscosidade em valores de pH distantes do ponto de carga zero.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O crescimento econômico de Mato Grosso nas últimas quatro décadas se apresenta como reflexo das políticas públicas executadas no Estado. Contudo, o direcionamento para a produção de commodities gerou impactos significativos no ambiente e na sociedade mato-grossense. Por outro lado, acredita-se que a inovação sustentável nos segmentos industriais pode vir a se tornar fator de diversificação e otimização da matriz produtiva industrial do Estado. Assim, o objetivo da tese foi detectar a capacidade de aderência dos segmentos industriais da alimentação e madeireiro de Mato Grosso em relação aos padrões produtivos associados à inovação sustentável. O estudo exploratório descritivo foi operacionalizado através de um estudo de campo no qual 1.149 indústrias compuseram o universo, e a amostra foi de 92 respostas dos empresários: 57 madeireiros e 35 do segmento de alimentos. Os dados coletados de janeiro a julho de 2012 foram tratados estatisticamente pelo SPSS 17. As análises permitiram constatar que a inovação sustentável ainda não é realidade. Faltam condições estruturantes básicas para viabilizar o funcionamento de um sistema. Embora assim, há fortes indícios de que os empresários estão procurando inovar nos processos, buscam informação, estimulam seus funcionários a inovar e já adotam algumas práticas relacionadas com gestão sustentável. Há uma dicotomia no perfil das empresas do Estado e na forma como intentam inovar, de modo que as políticas públicas não atendem a todos de forma homogênea. Poucas empresas efetivamente desenvolvem inovação sustentável, grande parte adquire tecnologia estrangeira. Além da pesquisa quantitativa, foram realizadas visitas técnicas e entrevistas em onze instituições públicas. Confirmou-se a hipótese de que as instituições públicas foram ineficientes no processo de “desenvolvimento regional sustentável”, pois geraram apenas crescimento econômico. E são responsáveis pela estrutura produtiva atual, que desconsiderou o saber endógeno e as características territoriais, para manter as trajetórias estabelecidas. No entanto, há possibilidade de mudar a matriz produtiva atual desde que as institucionalidades sejam transformadas e a educação e o aprendizado somados às estruturas de suporte aos micros e pequenos empresários se fortaleçam através da cooperação. Sugerem-se diretrizes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudou-se a suplementação de dietas de cordeiros confinados com resíduo de biodiesel, utilizando-se 25 ovinos, SRD, machos, castrados, com média de peso de 20kg. O delineamento experimental foi de blocos ao acaso, com cinco repetições por tratamento e esquema de parcelas subdivididas para os dados de biometria. O experimento teve a duração de 70 dias. As dietas eram compostas de 34% de volumoso e 61% de concentrado, à base de milho, soja, minerais e 5% de óleo de dendê ou resíduo de biodiesel, em percentagens crescentes – zero, 25, 50, 75 e 100%. Os animais foram abatidos ao final do experimento para avaliação da carcaça. Foram observados efeitos significativos (P<0,05) de percentagem de inclusão do resíduo, para as variáveis de desempenho e biometria demonstrados nos efeitos lineares crescentes das equações de regressão, assim como para peso da carcaça quente (PCQ) –, com médias de 14; 15,92; 16,14; 16,42 e 18,02% – e peso da carcaça fria (PCF) –, com médias de 13,12; 14,78; 15,06; 15,70 e 17,25% –, para dietas com, respectivamente, 0, 25, 50, 100% de resíduo de biodiesel de dendê. A utilização de resíduo de biodiesel de dendê na alimentação de cordeiros em crescimento é alternativa para aumentar a densidade energética de suas dietas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dados de pesos padronizados aos 120 (P120), 210 (P210), 450 (P450) dias de idade, perímetro escrotal aos 450 dias de idade (PE450) e idade ao primeiro parto (IPP), de 211.744 registros de animais Nelore, provenientes de fazenda localizadas na região da Amazônia Legal, foram utilizados na análise. O efeito da interação genótipo-ambiente foi estudado por meio de estimativas de herdabilidade e de correlações entre classificações, comparando os animais da Amazônia Legal com a base geral de animais do PMGRN – Nelore Brasil. As análises bi-característica consideraram o P120 como característica-âncora, com P210, P450 e PE450. O modelo de análise considerou grupo de contemporâneos de P120, P210, P450 e da classe de idade da vaca ao parto (CIVP) como efeitos fixos e os efeitos aleatórios genéticos aditivos diretos, maternos e residuais. Nas análises de P120 com P450 e com PE450 foi desconsiderado o efeito materno no modelo. A covariância aditivo-materna foi fixada em zero, conforme protocolo estabelecido nas análises do PMGRN – Nelore Brasil. A característica IPP foi analisada separadamente, em análise de característica única e considerando como efeito fixo o GCIPP e como aleatórios os efeitos aditivos genéticos e residual. Para realizar a comparação entre classificações, por meio do procedimento PROC CORR opção spearman do SAS. As estimativas de herdabilidade para P120, P210, P450, PE450 e IPP nos dados da Amazônia Legal foram: 0,20 a 0,49; 0,21; 0,48; 0,45 e 0,21, respectivamente, e nos dados gerais do PMGRN – Nelore Brasil foram: 0,23; 0,25; 0,34; 0,43 e 0,11, respectivamente. As correlações entre classificações de rank para P120, P210, P450, PE450 e IPP foram iguais a 0,77; 0,79; 0,82; 0,78 e 0,38, respectivamente. As análises da interação genótipo-ambiente evidenciaram maiores efeitos sobre os aspectos maternos, de peso ao sobreano e IPP, enquanto que as correlações entre classificações mostraram fortes evidências de interação genótipo-ambiente em quase todas as características estudadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante o processo de extração do conhecimento em bases de dados, alguns problemas podem ser encontrados como por exemplo, a ausência de determinada instância de um atributo. A ocorrência de tal problemática pode causar efeitos danosos nos resultados finais do processo, pois afeta diretamente a qualidade dos dados a ser submetido a um algoritmo de aprendizado de máquina. Na literatura, diversas propostas são apresentadas a fim de contornar tal dano, dentre eles está a de imputação de dados, a qual estima um valor plausível para substituir o ausente. Seguindo essa área de solução para o problema de valores ausentes, diversos trabalhos foram analisados e algumas observações foram realizadas como, a pouca utilização de bases sintéticas que simulem os principais mecanismos de ausência de dados e uma recente tendência a utilização de algoritmos bio-inspirados como tratamento do problema. Com base nesse cenário, esta dissertação apresenta um método de imputação de dados baseado em otimização por enxame de partículas, pouco explorado na área, e o aplica para o tratamento de bases sinteticamente geradas, as quais consideram os principais mecanismos de ausência de dados, MAR, MCAR e NMAR. Os resultados obtidos ao comprar diferentes configurações do método à outros dois conhecidos na área (KNNImpute e SVMImpute) são promissores para sua utilização na área de tratamento de valores ausentes uma vez que alcançou os melhores valores na maioria dos experimentos realizados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A aprendizagem de relações condicionais bidirecionais (simetria) tem sido raramente demonstrada em não-humanos. Recentemente três estudos apresentaram dados positivos de repertórios comportamentais de simetria em pombos. Estes estudos apontaram como possíveis variáveis determinantes da emergência de simetria: 1) O treino misto de relações arbitrárias e de identidade simultaneamente e com um mesmo conjunto de estímulos; 2) O sujeito não ter sido exposto a treino prévio de qualquer tipo de relação com os mesmos estímulos; e 3) A utilização do procedimento de discriminação condicional sucessiva (Go/No-go). O presente estudo buscou averiguar a necessidade do uso de Go/No-go, aplicando as demais variáveis (treino misto e não exposição prévia), para a obtenção da emergência de simetria. Este estudo avaliou em dois macacos-prego (Cebus apella) a aprendizagem de relações arbitrárias e de identidade de estímulos apresentados na mesma sessão experimental e a emergência de simetria, utilizando dois procedimentos. Um sujeito (M18) foi treinado em tarefa de Go/Nogo com tentativas mistas de relações arbitrárias e relações de identidade, com o mesmo conjunto de estímulos. O sujeito passou por dois treinos Go/No-go que não foram bem sucedidos em estabelecer controle condicional. Um outro sujeito (M27) foi treinado em uma tarefa de emparelhamento ao modelo com atraso zero com tentativas mistas de relações de identidade e arbitrárias, com mesmo conjunto de estímulos. Esse segundo procedimento buscou averiguar a necessidade do uso do procedimento Go/No-go para a obtenção da emergência de simetria. As sessões de treino eram compostas por oito tentativas de identidade (quatro relações) e oito tentativas de relações arbitrárias (duas relações), apresentadas em seqüência randômica. Todas as tentativas tinham três escolhas entre as comparações. Posteriormente, M27 foi submetido a três testes (todos com reforço programado para todas as tentativas). O treino de linha de base mista (identidade e arbitrária) ocorreu em 14 sessões. O primeiro teste foi de simetria, em uma sessão de oito tentativas para cada uma das quatro relações de identidade, duas arbitrárias e duas de teste, totalizando 64 tentativas, cujo critério de desempenho era acertar sete das oito tentativas de cada relação. M27 teve 2 erros em uma das relações de identidade e acertou todas as demais, inclusive as de simetria. Para averiguar se havia uma coerência do controle de estímulos, foi feito o segundo teste no qual as respostas de escolha entre as comparações não podiam mais ser condicionais ao modelo, uma vez que se utilizou um mesmo estímulo novo no lugar dos modelos para todas as tentativas, tanto de linha de base quanto de teste. M27 cometeu três erros ao todo. Esse resultado pode indicar que havia uma relação de controle, não prevista: como dois pares de estímulos se alternavam na função S- em todas as tentativas, M27 pode ter aprendido a rejeitar esses dois pares de estímulos independente do modelo apresentado. De modo a averiguar se de fato não havia controle por seleção de acordo com o modelo, foi feito um teste apenas com duas comparações com as mesmas outras configurações do primeiro teste. M27 errou seis das 32 tentativas de linha de base de identidade, seis das 16 arbitrárias e seis das 16 de simetria. Os acertos foram, portanto, acima da linha do acaso, o que confirma parcialmente a hipótese acima e pode indicar a presença de um controle misto condicional e discriminativo entre os estímulos de comparação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresentamos um novo método de inversão gravimétrica para estimar o relevo descontínuo do embasamento de bacias sedimentares, cujos pacotes sedimentares podem ter contraste de densidade constante ou variando hiperbolicamente com a profundidade. O método combina a maximização da medida de entropia de ordem zero e a minimização da medida de entropia de primeira ordem do vetor de soluções (profundidades do embasamento). O modelointerpretativo consiste de um conjunto de primas retangulares verticais justapostos, com o contraste de densidade conhecido, cujas espessuras representam as profundidades do embasamento e são os parâmetros a serem determinados. A minimização da entropia de ordem um favorece soluções apresentando descontinuidades abruptas e a maximização da entropia de ordem zero é empregada apenas para evitar sua minimização excessiva. O método foi aplicado a dados sintéticos simulando: (i) bacias intracratônicas com o relevo do embasamento suave ou apresentando descontinuidades abruptas localizadas e (ii) bacias marginais falhadas. No caso de embasamento suave, a comparação dos resultados com aqueles obtidos através da suavidade global e da suavidade ponderada mostrou que ambos os métodos delinearam o embasamento. No caso de embasamentos falhados, seja em bacias intracratônicas ou marginais, as soluções obtidas com a regularização entrópica e a suavidade ponderada foram equivalentes, delineando o embasamento e as descontinuidades, o que não ocorreu com a suavidade global. A regularização entrópica, no entanto, não requereu informação a priori sobre a profundidade, diferentemente da suavidade ponderada. Tanto o método proposto como os métodos das suavidades global e ponderada foram aplicadas a quatro conjuntos de dados reais. O primeiro é proveniente da Ponte do Poema que está localizada no campus da Universidade Federal do Pará, Belém, Pará, permitiu certificar a aplicabilidade prática do método, uma vez que o relevo abaixo da ponte é acessível. O segundo, da porção norte do Steptoe Valley, Nevada, Estados Unidos. As soluções obtidas com a regularização entrópica e com a suavidade ponderada mostram um embasamento apresentando diversas descontinuidades verticais, o que não aconteceu com a suavidade global. O terceiro conjunto provém do graben de San Jacinto, situado na Califórnia, Estados Unidos, que levou a soluções em que o graben é assimétrico e apenas a suavidade ponderada apresentou solução com fundo achatado. O quarto conjunto de dados é oriundo do graben do Büyük Menderes, localizado na Turquia ocidental. As soluções do método proposto e da suavidade ponderada apresentaram grandes deslocamentos verticais, confirmados pela geologia, o que não aconteceu com a suavidade global.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A adesão à farmacoterapia em diversas doenças crônicas, especialmente na hipertensão arterial (HAS), tem grande importância para a prevenção, diminuição e controle de agravos e complicações, desta forma reduzindo a morbi-mortalidade cardiovascular. Avaliar os fatores modificáveis e não modificáveis, que contribuam para uma melhor adesão ao tratamento medicamentoso em pacientes do distrito DAGUA, em Belém-PA, pode servir como base para qualificação da assistência farmacêutica, gestão clínica, políticas públicas, ações e planos nos serviços de saúde pública com o intuito de melhorar a adesão dos pacientes. Foi realizado um estudo descritivo observacional de natureza transversal e análise quantitativa com amostra probabilística de 227 pacientes, cadastrados no programa HIPERDIA, no período de março de 2010 à agosto de 2011, onde avaliou-se o conhecimento e o grau de adesão a terapia medicamentosa utilizando os testes de Morisky e Green (TMG) e ao teste de Batalla relacionando às variáveis socioeconômicas, estilo de vida, esquipe e serviço de saúde e fatores relacionados ao paciente. A população estudada foi caracterizada predominantemente por mulheres (69,5%), faixa etária a partir de 60 anos (44,5%), pardos (48%), casados (44,9%), aposentados (43,6%) e com grau de escolaridade baixa, sendo (55,1%) com ensino fundamental incompleto. Do total de indivíduos (63,46%) apresentaram pressão arterial não controlada. Não aderiam ao tratamento (66,9%) de acordo com o teste de Morisky e Green e (72,38%) pelo teste de Batalla.