16 resultados para least absolute deviation (LAD) fitting
em Universidade Federal do Pará
Resumo:
A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.
Resumo:
ABSTRACT: This paper presents a performance comparison between known propagation Models through least squares tuning algorithm for 5.8 GHz frequency band. The studied environment is based on the 12 cities located in Amazon Region. After adjustments and simulations, SUI Model showed the smaller RMS error and standard deviation when compared with COST231-Hata and ECC-33 models.
Resumo:
A interpretação de anomalias gravimétricas é de grande importância no estudo de feições geológicas que ocorrem na crosta terrestre. Esta interpretação é, no entanto, dificultada pelo fato das anomalias gravimétricas serem resultantes da soma total dos efeitos produzidos por todos os contrastes de densidades de subsuperfície. Desse modo, com o intuito de separar efeitos de feições mais profundas de efeitos de feições mais rasas, bem como a caracterização da geometria desses dois conjuntos de feições, apresentamos um método de separação das componentes regional e residual do campo e a subsequente interpretação de cada componente. A separação regional-residual de dados gravimétricos é efetuada através da aproximação do campo regional por um polinômio ajustado ao campo observado por um método robusto. Este método é iterativo e usa como aproximação inicial a solução obtida através do ajuste polinomial pelo método dos mínimos quadrados. O método empregado minimiza a influência de observações contendo forte contribuição do campo residual no ajuste do campo regional. A componente regional obtida a partir da separação regional-residual é transformada em um mapa de distâncias verticais em relação a um nível de referência. Esta transformação compreende duas etapas. A primeira consiste na obtenção da continuação para baixo da componente regional, que é pressuposta ser causada por uma interface suave separando dois meios homogêneos, representando a interface crosta-manto, cujo contraste de densidade é supostamente conhecido. A segunda consiste na transformação do mapa de continuação para baixo em um mapa de distâncias verticais entre o nível de continuação (tomado como nível de referência) e a interface. Este método apresenta duas dificuldades. A primeira está ligada à instabilidade, havendo portanto a necessidade do emprego de um estabilizador o que acarreta a perda de resolução das feições que se desejam mapear. A segunda, inerente ao método gravimétrico, consiste na impossibilidade da determinação das profundidades absolutas da interface em cada ponto, bastando entretanto o conhecimento da profundidade absoluta em um ponto, através de informação independente, para que todas as outras profundidades absolutas sejam conhecidas. A componente residual obtida a partir da separação regional-residual é transformada em um mapa de contrastes de densidade aparente. Esta transformação consiste no cálculo do contraste de densidade de várias fontes prismáticas através de uma inversão linear pressupondo que as fontes reais estejam das a uma placa horizontal, com contrastes de densidade variando apenas nas direções horizontais. O desempenho do método de separação regional-residual apresentado foi avaliado, através de testes empregando dados sintéticos, fornecendo resultados superiores em relação aos métodos dos mínimos quadrados e da análise espectral. O método de interpretação da componente regional teve seu desempenho avaliado em testes com dados sintéticos onde foram produzidos mapeamentos de interfaces bem próximas das estruturas reais. O limite de resolução das feições que se desejam mapear depende não só do grau do polinômio ajustante, como também da própria limitação inerente ao método gravimétrico. Na interpretação da componente residual é necessário que se postule ou tenha informação a priori sobre a profundidade do topo e espessura da placa onde as fontes estão supostamente confinadas. No entanto, a aplicação do método em dados sintéticos, produziu estimativas razoáveis para os limites laterais das fontes, mesmo na presença de fontes interferentes, e pressupondo-se valores para profundidade do topo e espessura da placa, diferentes dos valores verdadeiros. A ambiguidade envolvendo profundidade do topo, espessura e densidade pode ser visualizada através de gráficos de valores de densidade aparente contra profundidade do topo presumida para a placa para vários valores postulados para a espessura da placa. Estes mesmos gráficos permitem, pelo aspecto das curvas, a elaboração de uma interpretação semi-quantitativa das profundidades das fontes reais. A seqüência dos três métodos desenvolvidos neste trabalho foi aplicada a dados gravimétricos da região norte do Piauí e noroeste do Ceará levando a um modelo de organização crustal que compreende espessamentos e adelgaçamentos crustais associados a um evento compressivo que possibilitou a colocação de rochas densas da base da crosta a profundidades rasas. Este modelo ê compatível com os dados geológicos de superfície. É ainda sugerida a continuidade, por mais 200 km em direção a sudoeste, do Cinturão de Cisalhamento Noroeste do Ceará por sob os sedimentos da Bacia do Parnaíba, com base nas evidências fornecidas pela interpretação da anomalia residual. Embora esta seqüência de métodos tenha sido desenvolvida com vistas ao estudo de feições crustais de porte continental, ela também pode ser aplicada ao estudo de feições mais localizadas como por exemplo no mapeamento do relevo do embasamento de/bacias sedimentares onde os sedimentos são cortados por rochas intrusivas mais densas.
Resumo:
Tradicionalmente, o método dos mínimos quadrados tem sido empregado na inversão não linear de dados de campo potencial. No caso em que as observações dos campos gravimétrico ou magnético contém apenas ruído Gaussiano. O método dos mínimos quadrados não apresenta problemas. Entretanto, quando as observações são perturbadas por ruído não Gaussiano, ou mesmo por ruído não aleatório, como é o caso de muitos ruídos geológicos, o método dos mínimos quadrados torna-se bastante ineficiente, e métodos alternativos devem ser empregados a fim de produzir interpretações realísticas. Neste trabalho, uma comparação é feita entre os métodos dos mínimos quadrados, dos mínimos absolutos e do ajuste-M, aplicados à inversão não linear de dados de campo potencial. A comparação é efetuada usando-se dados teóricos, onde diversas situações geológicas são simuladas. Os resultados mostram que na presença de ruído geológico, caracterizado por pequeno corpo raso acima do corpo principal, ou por corpo grande, adjacente ao corpo principal, o ajuste-M apresenta desempenho muito superior ao dos mínimos quadrados e dos mínimos absolutos. Na presença de ruído Gaussiano, entretanto, o ajuste-M tem um desempenho inferior aos outros dois métodos. Como o ruído Gaussiano é um ruído branco, parte dele pode ser removido por um filtro passa baixa adequado, sem muita perda do sinal, o que não ocorre com o ruído geológico que contém componentes importantes de baixo número de onda. Desse modo o ajuste-M se torna uma ferramenta importante na interpretação de áreas geologicamente complexas, onde é comum a contaminação das anomalias por ruído geológico. Os três métodos em estudo são aplicados a uma anomalia magnética real causada por uma intrusão de diabásio em forma de dique, em sedimentos arenosos da formação Piauí na Bacia do Parnaíba. Os três métodos apresentaram resultados semelhantes indicando que tanto o nível de ruído Gaussiano como geológico são baixos nesta anomalia.
Resumo:
O projeto de sistemas de comunicações móveis requer o conhecimento do ambiente em que será implementado. Para tanto, busca-se a exatidão na predição de propagação do sinal através do uso de modelos de predição. O presente trabalho propõe um modelo empírico para a estimativa da intensidade de sinal recebida em ambientes indoor, e que apresentam mais de uma fonte transmissora, utilizando Sistema de Antenas Distribuídas (DAS). O método apresenta uma generalização para o caso de múltiplas fontes, também chamado multifontes, e como caso particular com apenas uma fonte. A modelagem é feita através do uso de radiais partindo de cada transmissor, com o intuito de considerar a variabilidade do sinal em ambientes indoor. Estas várias perturbações no sinal, que causam desvanecimento rápido são caracterizadas através das distribuições estatísticas de desvanecimento. As mais utilizadas como a de Rayleigh, Rice e Nakagami são apresentadas para caracterização do canal, além dessas são calculadas as distribuições recentemente desenvolvidas, de Kappa-mi e Eta-mi. Para a validação do modelo realizaram-se campanhas de medições em um shopping center, que possui um DAS, com o teste em dois ambientes distintos, um supermercado e uma praça de alimentação. As simulações são realizadas no software MATLAB® e o desempenho dos resultados avaliados através do cálculo dos erros absoluto, desvio padrão e erro rms.
Resumo:
O estudo da perda de propagação, nas cidades da região amazônica, envolve ambiente caracterizado pelo clima tropical e, suburbano densamente arborizado. Levando consideração à importância da faixa ISM 5,8 GHz, esta dissertação apresenta um modelo propagação para a faixa de frequência em questão, agregando as características da atenuação experimentada pela onda de rádio quando se propaga em ambientes de cidades típicas região amazônica. Para tanto, medidas de potência recebida foram coletadas em 335 clientes fixos, distribuídos em 12 cidades na região norte do Brasil, sendo estes atendidos pelo programa de inclusão digital do estado do Pará, Navega Pará. Também foram realizadas medidas com mobilidade no campus da Universidade Federal do Pará (UFPA). Apresenta ainda o desempenho do modelo proposto sobre outros modelos (Modelo SUI e COST231-Hata) descritos na literatura, para redes sem fio fixas e com mobilidade. As métricas desempenho utilizadas foram o erro RMS e o desvio padrão com relação aos dados medidos. O ajuste dos parâmetros do modelo proposto é realizado através do método de mínimos quadrados lineares, aplicado em duas etapas para diminuir a incerteza sobre os parâmetros ajustados. O modelo proposto alcançou um erro RMS de 3,8 dB e desvio padrão de 2,3 dB, superando os demais modelos que obtiveram erros RMS acima de 10 dB e desvios padrão acima de 5 dB. Os resultados obtidos mostram a sua eficiência sobre outros modelos para predição de perdas na faixa de 5,8 GHz em sistemas fixos e móveis.
Resumo:
A linhaça é a semente da planta do linho (Linum usitatissimum L.), uma espécie polimorfa originária do linho, sendo considerada uma das 6 plantas atualmente reconhecidas pelo Instituto Nacional do Câncer dos Estados Unidos (US National Cancer Institute - NCI) por suas propriedades específicas no combate ao câncer. Parte desse reconhecimento deve-se a notável característica de ser a fonte mais rica de precursores de lignina (esteróide vegetal de ação análoga ao estrógeno de mamíferos) na dieta humana. A variedade utilizada neste trabalho foi a “Linseed” de cor marrom e o objetivo deste trabalho foi analisar a fluidodinâmica dessa partícula em leito de jorro, estabelecida pelas medidas de tomadas de queda de pressão no leito a partir das deflexões em relação às velocidades de ar crescente e decrescente, obtendo assim informações para a determinação de parâmetros correlacionados ao processo, como: velocidade de mínimo jorro, queda de pressão máxima, queda de pressão no jorro estável e queda de pressão no mínimo jorro. Estes valores foram comparados aos correspondentes valores obtidos por equações empíricas citadas na literatura. Foi também avaliado o comportamento da secagem da matéria prima, mediante um planejamento estatístico 22, tendo com as variáveis de entrada temperatura do gás (Tg) e o tempo de operação (t), para a quantificação das variáveis de resposta razão de umidade (Xr, adim.), germinação (G, %) e o índice de velocidade de germinação (IVG, t-1) e analisadas estatisticamente pelo planejamento fatorial completo com três repetições no ponto central. A cinética de secagem das sementes de linhaça, previamente umidificadas, foi realizada nas temperaturas de 45, 55 e 65 °C, e dentre os três modelos propostos, o modelo de Midilli et al., foi que melhor descreveu aos dados experimentais. Para os parâmetros fluidodinâmicos observou-se que a correlação de Gorshtein e Mukhlenov (1965) apresentou os menores desvios para queda e pressão de mínimo jorro e jorro estável, Abdelrazek (1969) apresentou o menor desvio para a velocidade no mínimo jorro e Pallai e Németh (1969) descreveu adequadamente a queda de pressão máxima. Foi observado que a carga de sementes e a temperatura exerceram influência significativa nos parâmetros fluidodinâmicos em leito de jorro. Com base na análise do planejamento estatístico proposto pode-se concluir que os parâmetros de entrada temperatura do gás e tempo de operação exerceram influência significativa sobre todas as variáveis de resposta, sendo observada influência quadrática das variáveis de entrada ao se observar a significância da curvatura sobre os parâmetros: Razão de umidade, Germinação e Índice de Velocidade de Germinação, propondo-se modelos representativos destes parâmetros com a presença da curvatura, apresentando um coeficiente de determinação (R2) superior a 99 %.
Resumo:
Verificar a influência de fatores do meio ambiente sobre características de produção e reprodução em grupos genéticos de bovinos leiteiros explorados em algumas fazendas nos municípios de Irituia e Mãe do rio no Nordeste Paraense. Foi utilizada uma média de 454 animais em lactação mestiças de Holandês, Pardo-Suíça e Girolando pertencentes a duas fazendas com sistema de criação semi-intensivo na época menos chuvosa. As médias e desvio-padrão para produção de leite total foram iguais a 1097,36 ± 330,47 Kg, com coeficiente de variação igual a 25,64% sendo que o grupo genético Holandesa, a época de parto menos chuvosa e o ano de 2007 apresentaram maior produção. O período de lactação apresentou efeito linear e crescente sobre a produção de leite total. O período de lactação apresentou média e desvio-padrão iguais a 218,17 ± 43,17 dias, a maior média para o período de lactação foi observada na época mais chuvosa e a média do período de lactação diminuiu no decorrer dos anos 2007 e 2008. A média e desvio padrão de intervalo entre partos encontrado no rebanho foi igual a 398,975 ± 60,85 dias. A época menos chuvosa apresentou uma média de intervalo entre partos menor que época mais chuvosa e a média de intervalo entre partos foi reduzindo a partir de 2006. A média de idade ao primeiro parto encontrado foi de 38,57 ± 5,81 meses. Os coeficientes de determinação foram maiores que 0,85 (R2a > 0,85), sendo que para o grupo genético Holandesa, os ajustes foram melhores em relação aos ajustes dos outros dois grupos genéticos. Para o grupo genético Girolando, o formato da curva de lactação diferiu dos outros dois grupos genéticos dificultando o ajuste pelas funções Gama Incompleta, Linear Hiperbólica e Polinomial Inversa. Os ajustes promovidos pela função polinomial inversa apresentaram ligeiro desvio em relação às outras duas funções. O grupo genético Holandesa apresentou produção ao pico e persistência um pouco mais elevados em relação aos outros grupos genéticos.
Resumo:
O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.
Resumo:
Neste trabalho, são apresentados a metodologia de projeto e resultados de testes experimentais de um estabilizador de sistema de potência (ESP), implementado em um sistema de geração em escala reduzida de 10 kVA, localizado no Laboratório de Controle e Sistema de Potência (LACSPOT) da Universidade Federal do Pará (UFPA). O projeto do ESP é baseado em uma estratégia de controle robusto com ênfase em incertezas paramétricas estruturadas, as quais são tratadas com ferramentas da teoria de análise intervalar. Estas incertezas são decorrentes de mudanças do ponto de operação do sistema, que provocam variações nos parâmetros de um modelo matemático linearizado referente ao comportamento dinâmico do sistema elétrico de potência no referido ponto de operação. Para o projeto do ESP robusto intervalar, são realizados uma serie de ensaios experimentais com o propósito de estimar os parâmetros de modelos linearizados da planta, representando satisfatoriamente a dinâmica dos modos poucos amortecidos do sistema de geração interligado. O método de identificação é baseado em técnica de identificação paramétrica, baseado em mínimos quadrados. A partir de um conjunto de dados de entrada e saída, para cada ponto de operação, um modelo linear, do tipo auto-regressivo com entrada exógenos (ARX), estimado para fim de uso do projeto do ESP. Por fim, uma série de testes experimentais é realizada no sistema de geração interligado a rede elétrica local, com o propósito de verificar a efetividade da técnica de controle robusto intervalar proposta para a sintonia do ESP. A partir da análise da função custo do sinal de erro de desvio de potência elétrica na saída do gerador síncrono e a função custo do sinal de controle do ESP comprova-se experimentalmente o bom desempenho obtido pela técnica de controle proposta em comparação com uma técnica de controle clássica.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Este trabalho teve como objetivo geral desenvolver uma metodologia sistemática para a inversão de dados de reflexão sísmica em arranjo ponto-médio-comum (PMC), partindo do caso 1D de variação vertical de velocidade e espessura que permite a obtenção de modelos de velocidades intervalares, vint,n, as espessuras intervalares, zn, e as velocidades média-quadrática, vRMS,n, em seções PMC individualizadas. Uma consequência disso é a transformação direta destes valores do tempo para profundidade. Como contribuição a análise de velocidade, foram desenvolvidos dois métodos para atacar o problema baseado na estimativa de velocidade intervalar. O primeiro método foi baseado na marcação manual em seções PMC, e inversão por ajuste de curvas no sentido dos quadrados-mínimos. O segundo método foi baseado na otimização da função semblance para se obter uma marcação automática. A metodologia combinou dois tipos de otimização: um Método Global (Método Price ou Simplex), e um Método Local (Gradiente de Segunda Ordem ou Conjugado), submetidos a informação à priori e vínculos. A marcação de eventos na seção tempo-distância faz parte dos processos de inversão, e os pontos marcados constituem os dados de entrada juntamente com as informações à priori do modelo a ser ajustado. A marcação deve, por princípio, evitar eventos que representem múltiplas, difrações e interseções, e numa seção pode ser feita mais de 50 marcações de eventos, enquanto que num mapa semblance não se consegue marcar mais de 10 eventos de reflexão. A aplicação deste trabalho é voltada a dados sísmicos de bacias sedimentares em ambientes marinhos para se obter uma distribuição de velocidades para a subsuperfície, onde o modelo plano-horizontal é aplicado em seções PMC individualizadas, e cuja solução pode ser usada como um modelo inicial em processos posteriores. Os dados reais da Bacia Marinha usados neste trabalho foram levantados pela PETROBRAS em 1985, e a linha sísmica selecionada foi a de número L5519 da Bacia do Camamu, e o PMC apresentado é a de número 237. A linha é composta de 1098 pontos de tiro, com arranjo unilateraldireito. O intervalo de amostragem é 4 ms. O espaçamento entre os geofones é 13,34 m com o primeiro geofone localizado a 300 m da fonte. O espaçamento entre as fontes é de 26,68 m. Como conclusão geral, o método de estimativa de velocidade intervalar apresentada neste trabalho fica como suporte alternativo ao processo de análise de velocidades, onde se faz necessário um controle sobre a sequência de inversão dos PMCs ao longo da linha sísmica para que a solução possa ser usada como modelo inicial ao imageamento, e posterior inversão tomográfica. Como etapas futuras, podemos propor trabalhos voltados direto e especificamente a análise de velocidade sísmica estendendo o caso 2D de otimização do semblance ao caso 3D, estender o presente estudo para o caso baseado na teoria do raio imagem com a finalidade de produzir um mapa continuo de velocidades para toda a seção sísmica de forma automática.
Resumo:
O objetivo deste trabalho foi avaliar a variabilidade genética de populações de avestruzes (Struthio camelus) por meio de marcadores RAPD (Polimorfismos de DNA amplificado ao acaso). Foram coletadas 121 amostras de indivíduos procedentes dos estados do Pará, Maranhão, Tocantins e Minas Gerais. O DNA genômico foi extraído a partir de sangue total. A triagem de iniciadores permitiu a seleção de 15 entre os 60 analisados que foram amplificados pelo método PCR. Os produtos da PCR foram visualizados em gel de agarose 1,5% e foi gerada uma matriz binária para os fragmentos amplificados com presença (1) e ausência (0) de banda. Para a verificação do número ótimo de bandas polimórficas foi realizada a análise de bootstrap por meio do software GQMOL. Para a análise dos dados foi utilizado o programa NTSYS-pc (Numerical Taxonomy and Multivariate Analysis Sistem), versão 2.02. A similaridade entre as amostras foi analisada através do coeficiente de Jaccard. Foi gerada uma matriz de distância cofenética, usando o módulo Sahncof, do programa NTSYS 2.2. Para realização da estruturação gênica o procedimento empregado foi a análise de variância molecular (AMOVA), processada no software Arlequin 2.0 (Schneider et al., 2000). Os 15 iniciadores geraram um total de 109 bandas polimórficas. A análise de bootstrap mostrou que a partir de 100 bandas o trabalho já se torna mais confiável, uma vez que a magnitude da correlação foi bem próxima do valor máximo (r=0,99), como também a soma de quadrados dos desvios (SQd) atingiu valor baixo 1,25 e o valor do estresse (E) foi de 0,05. Na análise entre pares de grupos, foi verificado que a maior e menor similaridade estão em torno, respectivamente, de 0,86 e 0,00. No que diz respeito à distribuição de freqüência das similaridades obtidas entre os 5.644 pares formados na matriz genética, pode-se verificar que 32,69 % dos pares ficaram incluídos nas classes com similaridades variando de 0,01 a 0,10. Nota-se que a maior porcentagem (85,59%) dos pares ficou distribuídos nas três primeiras classes das extremidades e que a minoria deles (14,41%) apresentou similaridades variando de 0,21 a 1,00. O teste de Mantel mostrou correlação de 0,81 e o dendrograma gerou 67 grupos delimitados pela Sm que foi de 0,49. A maior similaridade foi de 0,86 e a menor de 0,06. Os dados relativos à análise de variância molecular mostraram que a porcentagem de variação genética entre procedências foi baixa e significativa (24,03%, p < 0,0001), evidenciando que grande parte da variação encontra-se dentro das populações (75,97 %). Os marcadores RAPD foram eficientes na caracterização da similaridade genética.
Resumo:
As pontes ferroviárias de concreto armado estão sujeitas às ações dinâmicas variáveis devido ao tráfego de veículos. Estas ações podem resultar no fenômeno de fadiga do aço e do concreto dessas estruturas. No dimensionamento de estruturas de concreto armado sujeitas à carregamento cíclico, de modo geral, a fadiga é considerada simplificadamente, por meio de um coeficiente kf, denominado coeficiente de fadiga. Esse coeficiente majora a área de aço inicialmente calculada para atender ao Estado Limite Último (ELU), com a finalidade de limitar, em serviço, as variações de tensões no aço de modo a garantir uma vida útil de no mínimo 2.000.000 de ciclos. O presente trabalho apresenta melhorias nas hipóteses utilizadas pelo coeficiente de fadiga kf, permitindo o dimensionamento de armaduras longitudinais sujeitas à fadiga, para números de ciclos superiores a 2 milhões, que é o valor proposto pelo EB-3/67, e também de forma a atender a vida útil à fadiga especificada em projeto. Neste caso, foi necessário propor um método simplificado para a estimativa do número de ciclos operacionais, apartir de um ciclo padrão obtido pela máxima variação de momentos fletores provocados pelo tremtipo carregado. O estudo foi desenvolvido tomando-se como protótipo um viaduto ferroviário isostático em concreto armado da Estrada de Ferro Carajás (EFC). Os trens-tipo utilizados foram os quais operam atualmente na EFC, que correspondem ao trem de minério Carregado e Descarregado. Para determinação dos esforços solicitantes na estrutura foi elaborado um modelo numérico no programa SAP 2000. A vida útil à fadiga das armaduras longitudinais foram determinadas apartir da regra de dano de Miner e das curvas S-N da NBR 6118. A metodologia proposta neste trabalho permitiu o dimensionamento nas armaduras longitudinais à fadiga satisfatoriamente em relação à vida útil especificada no projeto, sendo que as vidas úteis que tiveram maior divergência em relação ao valor estipulado foram as de 300 e 400 anos.
Resumo:
O SW do município de Presidente Figueiredo, localizado no Estado do Amazonas, Nordeste do Cráton Amazônico Central, Brasil, hospeda granitoides do tipo I de idade entre 1890 a 1898 Ma (Terra Preta Granito, Suíte Água Branca), hornblenda-sienogranitos do tipo A (Sienogranito Canoas da Suíte Mapuera), rochas vulcânicas ácidas à intermediárias (Grupo Iricoumé) e granitos rapakivi de idades entre 1883 a 1889 Ma (Granito São Gabriel da Suíte Mapuera), e rochas afins (quartzo-gabro-anortosito e diorito), além de quartzo-monzonito Castanhal, milonitos e hornfels. A fácies quartzo-diorito do granito Terra Preta foi formada por processos de mistura entre um dique quartzo-gabro sinplutônico e um granodiorito hornblenda. Glóbulos parcialmente assimilados de sienogranitos hornblenda Canoas e seus contatos com o granodiorito hornblenda Terra Preta sugerem que o sienogranito Canoas é um pouco mais jovem do que o Granito Terra Preta. Xenólitos do sienogranito Canoas no interior do Granito São Gabriel mostram que o granito é mais jovem do que o sienogranito Canoas. Novas evidências geológicas e petrográficas avançam na compreensão petrológica destas rochas e sugerem que, além de cristalização fracionada, assimilação e mistura de magma, desempenharam um papel importante, pelo menos em escala local, na evolução e variação composicionais dos plutons. Tal evidência é encontrada no Granito Terra Preta misturado com materiais quartzo-diorito, félsico associado ao sienogranito Canoas e nos enclaves microgranulares intermediários, que apresentam biotita e hornblenda primárias, além de dissolução plagioclásio, corrosão de feldspatos, mantos feldspatos alcalinos, segunda geração de apatita, e elevados teores xenocristais em enclaves intermediários formados a partir da fragmentação de intrusões máficas. Análises petrográficas mostram que um evento deformacional registrado na parte Ocidental da área de estudo (com deformação progressiva de E para W) é estimado entre o magmatismo pós-colisional de 1,90 Ga e as invasões do Granito São Gabriel e rochas afins máficas/intermediárias (intraplaca). No entanto, torna-se extremamente necessário obter idades absolutas para este evento metamórfico.