17 resultados para estimação viesada
em Biblioteca de Teses e Dissertações da USP
Resumo:
Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).
Resumo:
Nas últimas décadas, a poluição sonora tornou-se um grande problema para a sociedade. É por esta razão que a indústria tem aumentado seus esforços para reduzir a emissão de ruído. Para fazer isso, é importante localizar quais partes das fontes sonoras são as que emitem maior energia acústica. Conhecer os pontos de emissão é necessário para ter o controle das mesmas e assim poder reduzir o impacto acústico-ambiental. Técnicas como \"beamforming\" e \"Near-Field Acoustic Holography\" (NAH) permitem a obtenção de imagens acústicas. Essas imagens são obtidas usando um arranjo de microfones localizado a uma distância relativa de uma fonte emissora de ruído. Uma vez adquiridos os dados experimentais pode-se obter a localização e magnitude dos principais pontos de emissão de ruído. Do mesmo modo, ajudam a localizar fontes aeroacústicas e vibro acústicas porque são ferramentas de propósito geral. Usualmente, estes tipos de fontes trabalham em diferentes faixas de frequência de emissão. Recentemente, foi desenvolvida a transformada de Kronecker para arranjos de microfones, a qual fornece uma redução significativa do custo computacional quando aplicada a diversos métodos de reconstrução de imagens, desde que os microfones estejam distribuídos em um arranjo separável. Este trabalho de mestrado propõe realizar medições com sinais reais, usando diversos algoritmos desenvolvidos anteriormente em uma tese de doutorado, quanto à qualidade do resultado obtido e à complexidade computacional, e o desenvolvimento de alternativas para tratamento de dados quando alguns microfones do arranjo apresentarem defeito. Para reduzir o impacto de falhas em microfones e manter a condição de que o arranjo seja separável, foi desenvolvida uma alternativa para utilizar os algoritmos rápidos, eliminando-se apenas os microfones com defeito, de maneira que os resultados finais serão obtidos levando-se em conta todos os microfones do arranjo.
Resumo:
Neste trabalho propomos o uso de um método Bayesiano para estimar o parâmetro de memória de um processo estocástico com memória longa quando sua função de verossimilhança é intratável ou não está disponível. Esta abordagem fornece uma aproximação para a distribuição a posteriori sobre a memória e outros parâmetros e é baseada numa aplicação simples do método conhecido como computação Bayesiana aproximada (ABC). Alguns estimadores populares para o parâmetro de memória serão revisados e comparados com esta abordagem. O emprego de nossa proposta viabiliza a solução de problemas complexos sob o ponto de vista Bayesiano e, embora aproximativa, possui um desempenho muito satisfatório quando comparada com métodos clássicos.
Resumo:
O objetivo dessa pesquisa foi avaliar aspectos genéticos que relacionados à produção in vitro de embriões na raça Guzerá. O primeiro estudo focou na estimação de (co) variâncias genéticas e fenotípicas em características relacionadas a produção de embriões e na detecção de possível associação com a idade ao primeiro parto (AFC). Foi detectada baixa e média herdabilidade para características relacionadas à produção de oócitos e embriões. Houve fraca associação genética entre características ligadas a reprodução artificial e a idade ao primeiro parto. O segundo estudo avaliou tendências genéticas e de endogamia em uma população Guzerá no Brasil. Doadoras e embriões produzidos in vitro foram considerados como duas subpopulações de forma a realizar comparações acerca das diferenças de variação anual genética e do coeficiente de endogamia. A tendência anual do coeficiente de endogamia (F) foi superior para a população geral, sendo detectado efeito quadrático. No entanto, a média de F para a sub- população de embriões foi maior do que na população geral e das doadoras. Foi observado ganho genético anual superior para a idade ao primeiro parto e para a produção de leite (305 dias) entre embriões produzidos in vitro do que entre doadoras ou entre a população geral. O terceiro estudo examinou os efeitos do coeficiente de endogamia da doadora, do reprodutor (usado na fertilização in vitro) e dos embriões sobre resultados de produção in vitro de embriões na raça Guzerá. Foi detectado efeito da endogamia da doadora e dos embriões sobre as características estudadas. O quarto (e último) estudo foi elaborado para comparar a adequação de modelos mistos lineares e generalizados sob método de Máxima Verossimilhança Restrita (REML) e sua adequação a variáveis discretas. Quatro modelos hierárquicos assumindo diferentes distribuições para dados de contagem encontrados no banco. Inferência foi realizada com base em diagnósticos de resíduo e comparação de razões entre componentes de variância para os modelos em cada variável. Modelos Poisson superaram tanto o modelo linear (com e sem transformação da variável) quanto binomial negativo à qualidade do ajuste e capacidade preditiva, apesar de claras diferenças observadas na distribuição das variáveis. Entre os modelos testados, a pior qualidade de ajuste foi obtida para o modelo linear mediante transformação logarítmica (Log10 X +1) da variável resposta.
Resumo:
A análise de dados de sobrevivência tem sido tradicionalmente baseada no modelo de regressão de Cox (COX, 1972). No entanto, a suposição de taxas de falha proporcionais assumida para esse modelo pode não ser atendida em diversas situações práticas. Essa restrição do modelo de Cox tem gerado interesse em abordagens alternativas, dentre elas os modelos dinâmicos que permitem efeito das covariáveis variando no tempo. Neste trabalho, foram revisados os principais modelos de sobrevivência dinâmicos com estrutura aditiva e multiplicativa nos contextos não paramétrico e semiparamétrico. Métodos gráficos baseados em resíduos foram apresentados com a finalidade de avaliar a qualidade de ajuste desses modelos. Uma versão tempo-dependente da área sob a curva ROC, denotada por AUC(t), foi proposta com a finalidade de avaliar e comparar a qualidade de predição entre modelos de sobrevivência com estruturas aditiva e multiplicativa. O desempenho da AUC(t) foi avaliado por meio de um estudo de simulação. Dados de três estudos descritos na literatura foram também analisados para ilustrar ou complementar os cenários que foram considerados no estudo de simulação. De modo geral, os resultados obtidos indicaram que os métodos gráficos apresentados para avaliar a adequação dos modelos em conjunto com a AUC(t) se constituem em um conjunto de ferramentas estatísticas úteis para o próposito de avaliar modelos de sobrevivência dinâmicos nos contextos não paramétrico e semiparamétrico. Além disso, a aplicação desse conjunto de ferramentas em alguns conjuntos de dados evidenciou que se, por um lado, os modelos dinâmicos são atrativos por permitirem covariáveis tempo-dependentes, por outro lado podem não ser apropriados para todos os conjuntos de dados, tendo em vista que estimação pode apresentar restrições para alguns deles.
Resumo:
Há mais de uma década o controle dos níveis de preço na economia brasileira é realizado dentro do escopo do Regime de Metas de Inflação, que utiliza modelos macroeconômicos como instrumentos para guiar as tomadas de decisões sobre política monetária. Após um período de relativo êxito (2006 - 2009), nos últimos anos apesar dos esforços das autoridades monetárias na aplicação das políticas de contenção da inflação, seguindo os mandamentos do regime de metas, esta tem se mostrado resistente, provocando um debate em torno de fatores que podem estar ocasionando tal comportamento. Na literatura internacional, alguns trabalhos têm creditado aos choques de oferta, especialmente aos desencadeados pela variação dos preços das commodities, uma participação significativa na inflação, principalmente em economias onde os produtos primários figuram como maioria na pauta exportadora. Na literatura nacional, já existem alguns trabalhos que apontam nesta mesma direção. Sendo assim, buscou-se, como objetivo principal para o presente estudo, avaliar como os choques de oferta, mais especificamente os choques originados pelos preços das commodities, têm impactado na inflação brasileira e como e com que eficiência a política monetária do país tem reagido. Para tanto, foi estimado um modelo semiestrutural contendo uma curva de Phillips, uma curva IS e duas versões da Função de Reação do Banco Central, de modo a verificar como as decisões de política monetária são tomadas. O método de estimação empregado foi o de Autorregressão Vetorial com Correção de Erro (VEC) na sua versão estrutural, que permite uma avaliação dinâmica das relações de interdependência entre as variáveis do modelo proposto. Por meio da estimação da curva de Phillips foi possível observar que os choques de oferta, tanto das commodities como da produtividade do trabalho e do câmbio, não impactam a inflação imediatamente, porém sua relevância é crescente ao longo do tempo chegando a prevalecer sobre o efeito autorregressivo (indexação) verificado. Estes choques também se apresentaram importantes para o comportamento da expectativa de inflação, produzindo assim, uma indicação de que seus impactos tendem a se espalhar pelos demais setores da economia. Através dos resultados da curva IS constatou-se a forte inter-relação entre o hiato do produto e a taxa de juros, o que indica que a política monetária, por meio da fixação de tal taxa, influencia fortemente a demanda agregada. Já por meio da estimação da primeira função de reação, foi possível perceber que há uma relação contemporânea relevante entre o desvio da expectativa de inflação em relação à meta e a taxa Selic, ao passo que a relação contemporânea do hiato do produto sobre a taxa Selic se mostrou pequena. Por fim, os resultados obtidos com a segunda função de reação, confirmaram que as autoridades monetárias reagem mais fortemente aos sinais inflacionários da economia do que às movimentações que acontecem na atividade econômica e mostraram que uma elevação nos preços das commodities, em si, não provoca diretamente um aumento na taxa básica de juros da economia.
Resumo:
O milho-doce é um tipo especial de milho, de alto valor nutricional que acumula polissacarídeos solúveis de caráter adocicado no endosperma. O consumo deste vegetal está crescendo no Brasil. Sendo esse um dos maiores países produtores de milho do mundo, há também um enorme potencial de produção de milho-doce. Atualmente, existem 53 cultivares de milho-doce registradas no país, mas apenas uma predomina nas lavouras desta cultura. Nota-se uma demanda por novas cultivares de milho-doce adaptadas às condições tropicais, com altas produtividades e excelente qualidade dos grãos. Há também uma escassez de informações sobre a avaliação e obtenção de cultivares de milho-doce. Os objetivos deste trabalho compreenderam: (i) verificação da viabilidade da utilização de um testador com elevado nível de endogamia e mais selecionado, em relação aos testadores com menores níveis de endogamia e menos selecionados, para obtenção de testcrosses; (ii) verificação do progresso realizado nas médias dos testcrosses; (iii) estimação das correlações entre a produtividade de espigas e os componentes de produção; (iv) aplicação de um índice de seleção para caracterizar e selecionar os melhores testcrosses e (v) verificação da variância genética disponível após a seleção e autofecundação. Foram avaliadas duas populações de milho-doce, em que uma é testadora da outra. Os três tipos de testadores utilizados foram obtidos a partir de uma mistura de linhagens selecionadas da geração anterior, sendo assim eles possuíam duas etapas de seleção e três níveis de endogamia. Visando a seleção de linhagens, 176 testcrosses foram avaliados em duas épocas de plantio, em delineamento casualizado em blocos com três repetições. Foram avaliados os caracteres dias para florescimento masculino(FM), altura das plantas(AP), número de espigas comerciais(EC), produtividade das espigas comerciais(PE), comprimento das espigas(CE), diâmetro das espigas(DE) e enchimento de ponta(EP). Foram observadas diferenças significativas entre as médias dos testcrosses nas análises de variância individuais e conjuntas. As interações entre testcrosses e testadores, nas análises individuais, não apresentaram diferenças significativas, indicando que não houve mudança no ordenamento dos testcrosses quando se utilizaram diferentes testadores. Para a mesma interação, nas análises conjuntas foram estimadas as correlações de Spearman, que se mostraram, na grande maioria, significativas, ou seja, foi detectada correlação entre o ranqueamento dos testcrosses. Para todos os caracteres avaliados, os testcrosses exibiram médias iguais ou superiores à melhor testemunha. Não houve evidências claras da diminuição da variância genética dos testcrosses quando foram utilizados testadores mais endogâmicos e mais selecionados. O testador com endogamia equivalente à das linhagens testadas e mais selecionado mostrou-se tão eficiente quanto os testadores com endogamia menor e menos selecionado. Foram observados valores consideráveis para os progressos realizados nas médias dos testcrosses, na maioria superiores a 1%, quando a seleção se deu nos testadores e nas linhagens, destacando que a utilização de testadores selecionados maximiza as médias dos testcrosses. Observaram-se correlações genéticas positivas (rG≥0,556) entre a produtividade de espigas comerciais e os caracteres EC, CE, DE e EP. O índice utilizado classificou os testcrosses em relação a todos os caracteres avaliados simultaneamente e permitiu a seleção dos melhores.
Resumo:
A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.
Resumo:
A estrutura populacional e o desequilíbrio de ligação são dois processos fundamentais para estudos evolutivos e de mapeamento associativo. Tradicionalmente, ambos têm sido investigados por meio de métodos clássicos comumente utilizados. Tais métodos certamente forneceram grandes avanços no entendimento dos processos evolutivos das espécies. No entanto, em geral, nenhum deles utiliza uma visão genealógica de forma a considerar eventos genéticos ocorridos no passado, dificultando a compreensão dos padrões de variação observados no presente. Uma abordagem que possibilita a investigação retrospectiva com base no atual polimorfismo observado é a teoria da coalescência. Assim, o objetivo deste trabalho foi analisar, com base na teoria da coalescência, a estrutura populacional e o desequilíbrio de ligação de um painel mundial de acessos de sorgo (Sorghum bicolor). Para tanto, análises de mutação, migração com fluxo gênico e recombinação foram realizadas para cinco regiões genômicas relacionadas à altura de plantas e maturidade (Dw1, Dw2, Dw4, Ma1 e Ma3) e sete populações previamente selecionadas. Em geral, elevado fluxo gênico médio (Μ = m/μ = 41,78 − 52,07) foi observado entre as populações considerando cada região genômica e todas elas simultaneamente. Os padrões sugeriram intenso intercâmbio de acessos e história evolutiva específica para cada região genômica, mostrando a importância da análise individual dos locos. A quantidade média de migrantes por geração (Μ) não foi simétrica entre pares recíprocos de populações, de acordo com a análise individual e simultânea das regiões. Isso sugere que a forma pela qual as populações se relacionaram e continuam interagindo evolutivamente não é igual, mostrando que os métodos clássicos utilizados para investigar estrutura populacional podem ser insatisfatórios. Baixas taxas médias de recombinação (ρL = 2Ner = 0,030 − 0,246) foram observadas utilizando o modelo de recombinação constante ao longo da região. Baixas e altas taxas médias de recombinação (ρr = 2Ner = 0,060 − 3,395) foram estimadas utilizando o modelo de recombinação variável ao longo da região. Os métodos tradicional (r2) e via coalescência (E[r2 rhomap]) utilizados para a estimação do desequilíbrio de ligação mostraram resultados próximos para algumas regiões genômicas e populações. No entanto, o r2 sugeriu padrões descontínuos de desequilíbrio em várias ocasiões, dificultando o entendimento e a caracterização de possíveis blocos de associação. O método via coalescência (E[r2 rhomap]) forneceu resultados que pareceram ter sido mais consistentes, podendo ser uma estratégia eventualmente importante para um refinamento dos padrões não-aleatórios de associação. Os resultados aqui encontrados sugerem que o mapeamento genético a partir de um único pool gênico pode ser insuficiente para detectar associações causais importantes para características quantitativas em sorgo.
Resumo:
The subject of this thesis is the real-time implementation of algebraic derivative estimators as observers in nonlinear control of magnetic levitation systems. These estimators are based on operational calculus and implemented as FIR filters, resulting on a feasible real-time implementation. The algebraic method provide a fast, non-asymptotic state estimation. For the magnetic levitation systems, the algebraic estimators may replace the standard asymptotic observers assuring very good performance and robustness. To validate the estimators as observers in closed-loop control, several nonlinear controllers are proposed and implemented in a experimental magnetic levitation prototype. The results show an excellent performance of the proposed control laws together with the algebraic estimators.
Resumo:
Em testes nos quais uma quantidade considerável de indivíduos não dispõe de tempo suciente para responder todos os itens temos o que é chamado de efeito de Speededness. O uso do modelo unidimensional da Teoria da Resposta ao Item (TRI) em testes com speededness pode nos levar a uma série de interpretações errôneas uma vez que nesse modelo é suposto que os respondentes possuem tempo suciente para responder todos os itens. Nesse trabalho, desenvolvemos uma análise Bayesiana do modelo tri-dimensional da TRI proposto por Wollack e Cohen (2005) considerando uma estrutura de dependência entre as distribuições a priori dos traços latentes a qual modelamos com o uso de cópulas. Apresentamos um processo de estimação para o modelo proposto e fazemos um estudo de simulação comparativo com a análise realizada por Bazan et al. (2010) na qual foi utilizada distribuições a priori independentes para os traços latentes. Finalmente, fazemos uma análise de sensibilidade do modelo em estudo e apresentamos uma aplicação levando em conta um conjunto de dados reais proveniente de um subteste do EGRA, chamado de Nonsense Words, realizado no Peru em 2007. Nesse subteste os alunos são avaliados por via oral efetuando a leitura, sequencialmente, de 50 palavras sem sentidos em 60 segundos o que caracteriza a presença do efeito speededness.
Resumo:
Com o objetivo de aumentar o lucro de plantas químicas, a Otimização em Tempo Real (RTO) é uma ferramenta que busca determinar as condições ótimas operacionais do processo em estado estacionário, respeitando as restrições operacionais estabelecidas. Neste trabalho foi realizada a implementação prática de um ciclo RTO em um processo de destilação por recompressão de vapor (VRD), propileno-propano, da Refinaria de Paulínia (Petrobras S.A.), a partir de dados históricos da planta. Foram consideradas as principais etapas de um ciclo clássico de RTO: identificação de estado estacionário, reconciliação de dados, estimação de parâmetros e otimização econômica. Essa unidade foi modelada, simulada e otimizada em EMSO (Environment for Modeling, Simulation and Optimization), um simulador de processos orientado a equações desenvolvido no Brasil. Foram analisados e comparados dois métodos de identificação de estado estacionário, um baseado no teste estatístico F e outro baseado em wavelets. Ambos os métodos tiveram resultados semelhantes e mostraram-se capazes de identificar os estados estacionários de forma satisfatória, embora seja necessário o ajuste de parâmetros na sua implementação. Foram identificados alguns pontos estacionários para serem submetidos ao ciclo RTO e foi possível verificar a importância de partir de um estado estacionário para a continuidade do ciclo, já que essa é uma premissa do método. A partir dos pontos analisados, os resultados deste estudo mostram que o RTO é capaz de aumentar o ganho econômico entre 2,5-24%, dependendo das condições iniciais consideradas, o que pode representar ganhos de até 18 milhões de dólares por ano. Além disso, para essa unidade, verificou-se que o compressor é um equipamento limitante no aumento de ganho econômico do processo.
Resumo:
Estudo radiométrico em sedimentos com posição estratigráfica conhecida, das Bacias do Paraná e do Amazonas, permite estabelecer critérios de seleção de amostras e procedimentos experimentais adequados para a obtenção de idades significativas. Foram efetuadas 120 determinações Rb-Sr e 44 K-Ar. As idades K-Ar foram empregadas essencialmente para auxiliar a interpretação dos dados Rb-Sr. As interpretações Rb-Sr foram efetuadas mediante gráficos com linhas isócronas. Na avaliação estatística dos dados, o método usual dos mínimos quadrados, revelou-se deficiente na estimação dos parâmetros, em alguns exemplos testados. Na presente investigação, a melhor isócrona em cada caso foi definida levando-se em conta uma ponderação adequada para os pontos e uma correlação entre os erros específica e conveniente. A formação Ponta Grossa foi estudada em 8 amostras provenientes de testemunhos de 5 sondagens da Petrobrás S. A. na Bacia do Paraná. Os resultados obtidos em pelo menos 2 deles são concordantes com a idade estratigráfica. Nos outros 2 poços, apesar dos poucos dados, as isócronas mostram uma possível concordância, indicando que a diagênese teria ocorrido logo após a sedimentação marinha. A formação Rio Bonito, estudada em 8 amostras do poço TV-4-SC, apresentou 3 isócronas aproximadamente paralelas, com idades mais ou menos semelhantes e concordantes com a idade estratigráfica. Tal comportamento indicaria uma homogeneização isotópica mesmo entre as frações grosseiras. Dentre as amostras estudadas na Bacia do Paraná, os sedimentos da Formação Itararé foram os únicos que não puderam ser interpretados adequadamente. Isto evidenciou que as isócronas Rb-Sr devem ser restritas a rochas de apenas um determinado tipo litológico, quando examinamos Formações como a Itataré, de ambientes variados (fluvial, lacustre, glacial, marinho). A formação Trombetas foi estudada em 7 amostras de 2 poços localizados no Médio Amazonas. Ambas as isócronas obtidas, indicando idade ordoviciana-siluriana permitem supor que houve apenas uma homogeneização isotópica parcial após a deposição. Os dados podem ser considerados concordantes se forem levados em conta os erros experimentais das isócronas. As Formações Maecuru e Ereré foram estudadas em 6 amostras do poço MS-4-AM. A litologia desfavorável das 4 amostras da Formação Ereré (Membro Ariramba), levaram o autor a definir uma "isócrona mínima", cuja idade revelou-se próxima da admitida estratigraficamente. A Formação Maecuru (Membro Jatapu), estudada em 2 arenitos arcozianos, apesar do material não ser considerado satisfatório para datações, evidenciaram uma isócrona de referência cuja idade é compatível com a situação estratigráfica. A Formação Curuá foi analisada em 3 amostras do poço NA-1-PA. Tanto as rochas totais como as frações situaram-se sobre uma isócrona de referência cuja idade calculada apresentou concordância, com a idade estratigráfica, dentro do erro experimental. A boa correlação linear verificada leva a admitir uma diagênese precoce, acompanhada de equilíbrio entre os isótopos de Sr. A Formação Itaituba foi investigada em 7 amostras de 2 poços, situados um de cada lado do Alto de Purus. Os folhetos evidenciaram grande dispersão dos pontos sobre o diagrama Rb87/Sr86 x Sr87/Sr86, devida a teores variáveis de minerais detríticos difíceis de serem identificados petrograficamente. Novamente foi traçada uma "isócrona mínima" da qual participaram materiais calcíferos. As idades identicas, bem como a concordância com a idade estratigráfica da formação, parecem demonstrar a validade da técnica empregada. Os dados do presente trabalho indicam que rochas sedimentares podem ser datadas pelo método Rb-Sr, desde que sejam obedecidos alguns critérios importantes de seleção do material. Além disso devem ser empregadas técnicas apropriadas, tais como separação ) granulométrica de frações menores que 2 ou 4 μ, ou lixiaviação com HCl. As isócronas a serem traçadas, as quais indicariam a época da diagênese, devem incluir material de litologia semelhante, de um só ambiente de formação. As análises K-Ar podem servir como dados auxiliares, principalmente para avaliar a quantidade de material detrítico existente no sistema.
Resumo:
Esta tese apresenta o desenvolvimento e aplicação de modelos de turbulência, transição laminar-turbulenta e de interações fluido-estrutura ao escoamento externo em cilindro rígido estacionário e em vibrações induzidas por vórtices. Tais desenvolvimentos foram realizados no código ReFRESCO, baseado em técnicas de dinâmica de fluidos computacional (CFD). Realizou-se um estudo quanto ao desempenho do modelo k- SST em extensa faixa de números de Reynolds, segundo o qual se identificaram as deficiências de modelagem para este escoamento. A modelagem adaptativa das escalas (SAS) e o modelo de transição por correlações locais (LCTM), ambos combinados ao SST, melhoraram a aderência aos resultados experimentais para este escoamento, em uma contribuição original deste trabalho. A aplicação de técnicas de verificação e validação possibilitou a estimação de incertezas e erros para os modelos e números de Reynolds e também de identificada como outra contribuição deste trabalho. A combinação da modelagem em SST, SAS e LCTM com movimentos impostos de realizada para números de Reynolds moderados, diferentes frequências e amplitudes de vibração, algo que poucas publicações abordam em detalhes. Com relação aos movimentos livres, este trabalho traz contribuições com a aplicação dos modelos SST e SAS ao estudo de vibrações induzidas por vórtices em dois graus de liberdade, baixa razão de massa e números de Reynolds moderados, mais altos do que normalmente observados na literatura. Por fim, a investigação da importância relativa de efeitos da turbulência aos casos de movimentos livres e impostos, com relação ao caso de cilindro estacionário, comprovou a conjetura formulada na parte inicial deste trabalho, no que tange à escolha do modelo de turbulência em determinadas aplicações. Tal escolha mostrou-se menos decisiva no caso do cilindro em movimento imposto e ainda menos nos movimentos livres, em comparação ao caso estacionário, uma vez que a resposta em movimentos do corpo filtra grande parte dos efeitos turbulentos de ordem superior. Esta observação mostra-se relevante, uma vez que pode permitir simplificações na modelagem e aplicação de ferramentas de CFD em uma classe importante de projetos de engenharia.
Resumo:
We evaluate the use of Generalized Empirical Likelihood (GEL) estimators in portfolios efficiency tests for asset pricing models in the presence of conditional information. Estimators from GEL family presents some optimal statistical properties, such as robustness to misspecification and better properties in finite samples. Unlike GMM, the bias for GEL estimators do not increase as more moment conditions are included, which is expected in conditional efficiency analysis. We found some evidences that estimators from GEL class really performs differently in small samples, where efficiency tests using GEL generate lower estimates compared to tests using the standard approach with GMM. With Monte Carlo experiments we see that GEL has better performance when distortions are present in data, especially under heavy tails and Gaussian shocks.