1000 resultados para matriz de covariância


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A análise de sucessivas medições de uma característica em um grupo de indivíduos é um procedimento desejável no melhoramento genético de culturas, pois espera-se que a superioridade ou inferioridade inicial de um indivíduo em relação aos demais mantenha-se ao longo das medições. A veracidade dessa expectativa pode ser aferida pelo coeficiente de repetibilidade das características avaliadas. Os objetivos deste trabalho foram (1) determinar o coeficiente de repetibilidade pelos métodos da Análise de Variância, Componentes Principais (matriz de correlação e covariância) e Análise Estrutural das seguintes características: massa média, comprimento longitudinal, diâmetro equatorial, massa média da polpa e da casca e espessura da casca do fruto; e (2) determinar o número mínimo de avaliações para um eficiente processo de seleção de genótipos de maracujazeiro-azedo. O trabalho foi desenvolvido no Departamento de Fitotecnia da Universidade Federal de Viçosa, analisando-se 20 progênies de meios-irmãos segregantes de maracujazeiro-azedo. Observaram-se diferenças entre as estimativas dos coeficientes de repetibilidade obtidos pelo método da análise da variância e pelos métodos multivariados, havendo superioridade nas estimativas com o emprego dos últimos métodos nos programas de melhoramento do maracujazeiro-azedo. O método dos componentes principais, com base na matriz de covariância, sempre apresentou estimativas maiores, principalmente para espessura da casca e comprimento longitudinal do fruto, sendo esse método mais eficiente para a estimação do coeficiente de repetibilidade das características avaliadas. A realização de 18 medições nos frutos de maracujazeiro-azedo será suficiente para predizer o valor real dos indivíduos com 90% de acurácia no primeiro ano de produção, com relação à massa fresca do fruto, massa de polpa e casca, comprimento longitudinal e diâmetro equatorial.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A hibridação interespecífica entre o caiaué (Elaeis oleífera (Kunth) Cortés) e o dendezeiro (E. guineensis Jacq.) tem sido explorada com o objetivo de desenvolver cultivares tão produtivas quanto as de dendezeiro, aliada à resistência a pragas e doenças, principalmente o amarelecimento fatal, elevada taxa de ácidos graxos insaturados e redução de porte características do caiaué. Por ser uma cultura perene com longo ciclo de produção, além dos altos custos para manutenção e avaliação dos experimentos de melhoramento genético, é necessário definir o período mínimo de avaliação para que a seleção dos híbridos seja realizada com eficiência e mínimo dispêndio de tempo e recursos. Este estudo teve como objetivo estimar os coeficientes de repetibilidade dos caracteres número de cachos, peso total de cachos e peso médio de cachos de híbridos interespecíficos e definir o número de anos consecutivos de avaliação necessário para seleção eficiente dos melhores cruzamentos e indivíduos. Os coeficientes de repetibilidade foram estimados pelos métodos da análise de variância, componentes principais com base na matriz de covariância (CPCV) e de correlações, e análise estrutural com base na matriz de correlações. O método dos CPCV demonstrou ser o mais adequado para o estudo da repetibilidade da produção de cachos, indicando quatro anos consecutivos de avaliação para selecionar progênies, representadas por dez plantas, com coeficientes de determinação (R²) superiores a 85%, e que para seleção individual de plantas são necessários pelo menos seis anos consecutivos de avaliação para atingir R² superior a 80%.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo analisar o potencial de imagens SAR polarimétricas do sensor TerraSAR-X, no modo StripMap, para mapear o uso e cobertura da terra na região sudoeste da Amazônia brasileira. No procedimento metodológico imagens de amplitude nas polarizações A HH e A VV, Aderivada da matriz de covariância, bem como da entropia A Entropia derivada da decomposição de alvos por auto-valores fizeram parte, de forma individual ou combinada, do conjunto de dados investigados. Na classificação das imagens foram empregados dois classificadores: um baseado nas funções estatísticas de máxima verossimilhança (MAXVER); e outro, o método contextual (Context). Os resultados temáticos dessas classificações foram avaliados através da matriz de confusão e pelo índice Kappa. De forma sintetizada pode-se afirmar que as componentes Adesempenho alcançou com 78% de exatidão global e índice Kappa de 0,70.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho foi estimar o tamanho amostral mínimo (n) para comparar tratamentos em experimentos de consumo e de digestibilidade com bovinos, envolvendo múltiplos caracteres. Foram utilizados dados de digestibilidade de 72 novilhas com média de 18 meses de idade e 250 kg de peso. O experimento foi realizado na Embrapa-Centro de Pesquisa de Pecuária do Sudeste, São Carlos, SP, de 1988 a 1989, em delineamento inteiramente casualizado, com nove tratamentos organizados em esquema fatorial 3 x 3 (três grupos genéticos: Canchim, ½ Canchim + ½ Nelore e Nelore, e três níveis de proteína bruta: 6, 10 e 13%, com oito repetições cada, sendo a unidade experimental a novilha). Foram analisados consumo de ração (g/kg0,75) por quilograma de peso metabólico, energia digestível, nitrogênio retido (NR), NR (mg/kg0,75) e digestibilidades da matéria seca, proteína bruta, fibra em detergente neutro e fibra em detergente ácido. O valor mínimo de n, que permite detectar diferenças significativas (delta) entre vetores de médias de tratamentos, foi obtido por meio de um programa SAS (Statistical Analysis System), considerando modelo de distribuição normal t-variada, média zero e matriz de covariância sigma, estatística T² de Hotelling, distribuição F com parâmetro de não centralidade (d²D), erros do tipo I (alfa), poder do teste (1 beta) e delta. O valor de n variou de 6 a 47, sendo mais influenciado por alteração nos valores de delta, do que nos valores de alfa e poder do teste.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo do trabalho foi avaliar um método para estimar o número de indivíduos (n) a ser utilizado em experimentos que envolvam análises multivariadas de medidas repetidas no tempo, avaliadas sobre a mesma unidade experimental. O método foi testado com dados de produção de leite com 10 controles mensais (t = 1, 2, ... , 10) ou condições de avaliação de vacas da raça Holandesa. As estimativas de n foram obtidas por meio de um programa desenvolvido no Statistical Analysis System (SAS), considerando distribuição normal t variada, vetor de média zero e matriz de covariância sigma, estatística T² de Hotelling e distribuição F com parâmetro de não-centralidade delta²delta. A ligação dos dados observados com o método é feita por meio da matriz de variância-covariância. Para t > 2 condições de avaliação, o método estima o valor de n que permite detectar diferença mínima significativa (delta) entre médias de condições de avaliação, considerando diferentes níveis de erros do tipo I (alfa), poder do teste F (1-beta) e delta. Para as 10 condições de avaliação consideradas, as estimativas de n variaram de 11 a 89, sendo mais influenciadas por variações na delta, seguidas de alfa e beta.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho foi utilizar o método Bayesiano no ajuste do modelo de Wood a dados de produção de leite de cabras da raça Saanen. Dois grupos de animais da primeira e segunda lactação foram considerados. Amostras das distribuições marginais a posteriori dos parâmetros do modelo de Wood e das funções de produção derivadas desses parâmetros - pico de produção, tempo do pico de produção, persistência e produção total de leite - foram obtidas pelo algoritmo Gibbs Sampler. As inferências foram feitas em cada população e os resultados mostraram diferenças na taxa de decréscimo da produção após o pico e na persistência, indicando maior produção nos animais de segunda lactação. Realizou-se um estudo de simulação de dados para avaliar o método Bayesiano sob diferentes estruturas de matrizes de covariâncias dos parâmetros. Os resultados desse estudo indicam que o método é eficiente no estudo das curvas de lactação quando a matriz de covariância apresenta alta correlação dos parâmetros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho foi determinar a repetibilidade e o número de avaliações necessárias para se obter coeficiente de determinação superior a 90% em variáveis produtivas e qualitativas de forragem e de excreta bovina, em pastagem de capim-braquiária (Urochloa decumbens). As variáveis avaliadas foram: produção fecal, composição mineral das fezes e da forragem ao redor, biometria das fezes, massa e rejeição de forragem ao redor das fezes, volume urinário e composição mineral da urina. Utilizou-se lotação intermitente fixa, com três dias de ocupação e 32 ou 67 de descanso, nas épocas chuvosa e seca, respectivamente. As análises de repetibilidade foram obtidas pelo programa Genes, com o método dos componentes principais baseado na matriz de covariância. Os coeficientes de repetibilidade (r) foram elevados, e os R² iguais ou superiores a 90%, exceto quanto à massa de forragem (20-40 cm), diferença de altura da forragem com fezes entre o pré e pós-pastejo e teor de N na urina, no tratamento com 3,2 unidades animais por hectare (r<0,50). Para obter R²>90%, seriam necessárias 11, 9 e 9 avaliações para as variáveis forragem, fezes e urina, respectivamente.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar eficiência de modelos de regressão aleatória (MRA) para detectar locus de características quantitativas (QTL) para características de crescimento, em suínos. Utilizou-se uma população divergente F2 Piau x Comercial. A eficiência da metodologia proposta na detecção de QTL foi comparada à da metodologia tradicional de regressão por intervalo de mapeamento. Para tanto, utilizaram-se MRA com efeitos aleatórios poligênicos, de ambiente permanente e de QTL, tendo-se utilizado o enfoque de matriz de covariância "identical‑by‑descent" associada aos efeitos de QTL. Testou-se a significância dos efeitos de QTL mediante a razão de verossimilhanças, tendo-se considerado o modelo como completo quando houve efeito de QTL, ou nulo, quando não. A comparação entre os modelos foi feita nas posições dos marcadores (seis marcadores microssatélites) e nas intermediárias, entre os marcadores. O MRA detectou QTL significativo na posição 65 cM do cromossomo 7 e, portanto, foi mais eficiente que a metodologia tradicional, que não detectou QTL significativo em nenhum dos fenótipos avaliados. A metodologia proposta possibilitou a detecção de QTL com efeito sobre toda a trajetória de crescimento, dentro da amplitude de idade considerada (do nascimento aos 150 dias).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A determinação e a mensuração da importância das principais fontes de vantagem competitiva, ainda é um tema em discussão na área de Estratégia. Uma linha de pesquisa, iniciada em meados dos anos 80, tem seu foco principal na determinação e quantificação da importância dos fatores que poderiam explicar as diferenças no desempenho de um grupo de empresas, utilizando a decomposição da variância dos valores do desempenho através das técnicas de Regressão Linear ou de Componentes de Variância. Nesta linha de pesquisa, desenvolveram-se uma série de trabalhos empíricos cujo propósito principal é quantificar, entre outros fatores, qual a importância do setor industrial em que a empresa atua, qual a importância do ano, qual a importância de se fazer parte de um grupo econômico e qual a importância dos fatores idiossincráticos da empresa na explicação do desempenho apresentado em determinados períodos. Dos resultados destes trabalhos surgiram discussões importantes sobre o papel da estratégia corporativa e sobre a importância relativa de tais fatores na determinação da vantagem competitiva. Este trabalho se insere nesta linha de pesquisa, cujo objetivo é, utilizando uma base de dados brasileira muito mais abrangente e completa que os estudos anteriores, quer nacionais e internacionais, primeiramente verificar se a realidade apontada nos estudos internacionais se assemelha à do Brasil. Em segundo lugar, contribuir com um refinamento teórico, refazendo estas análises utilizando modelos lineares mistos, mais apropriados para estes conjuntos de dados, que os modelos de componentes de variância. Em terceiro lugar, utilizando dois tipos de matriz de covariância, verifica se o desempenho de um determinado ano influi no desempenho dos anos imediatamente subseqüentes, verificando, assim, a possível existência de medidas repetidas para a variável ano. Finalmente, analisa se parte da variabilidade do desempenho das empresas brasileiras pode ser atribuído ao fato da empresa se localizar em determinada Unidade da Federação

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os equipamentos fotográficos digitais têm inovado a aerofotogrametria no que diz respeito à rapidez na coleta de informações geográficas referenciadas bem como o baixo custo da operação em comparação com os sistemas aerofotogramétricos convencionais. Na geração de produtos cartográficos, utilizando sistemas fotográficos digitais ou convencionais, o conhecimento dos parâmetros que definem a geometria interna da câmara é de fundamental importância. Este trabalho descreve uma das principais metodologias utilizadas atualmente para calibração analítica de câmaras. A câmara utilizada nesse trabalho é uma Kodak DCS460, e pertence à Fundação Universidade Federal do Rio Grande. O processo de calibração foi realizado na Universidade Federal do Paraná, com apoio do Programa de Pós-Graduação em Ciências Geodésicas, e o método utilizado foi o Método das Câmaras Convergentes Através do método paramétrico com injunções, o modelo final utilizado computacionalmente recupera os parâmetros intrínsecos como distância focal calibrada, posição do ponto principal, constantes da distorção radial simétrica e descentrada, bem como a matriz variância-covariância dos resultados obtidos no ajustamento. Os resultados da calibração foram analisados na matriz variância-covariância e foram satisfatórios. Para aplicação dos parâmetros em dados reais, uma imagem da região de Porto Alegre foi utilizada como objeto de estudo para geração de uma ortofoto, que é uma imagem corrigida geometricamente das distorções causadas pela variação de posição e altitude da plataforma. O Modelo Digital do Terreno é uma peça fundamental na geração de uma ortofoto e foi gerado a partir das curvas de nível fornecidas pela Prefeitura Municipal de Porto Alegre. Duas ortofotos foram geradas, a primeira levando em conta apenas o valor nominal da distância focal, e a segunda os parâmetros gerados no processo de calibração. Os resultados obtidos para a focal nominal apresentam resíduos maiores que os determinados com a distância focal calibrada, mostrando a necessidade de aplicação do método de calibração, como queria demonstrar.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho se dedica a analisar o desempenho de modelos de otimização de carteiras regularizadas, empregando ativos financeiros do mercado brasileiro. Em particular, regularizamos as carteiras através do uso de restrições sobre a norma dos pesos dos ativos, assim como DeMiguel et al. (2009). Adicionalmente, também analisamos o desempenho de carteiras que levam em consideração informações sobre a estrutura de grupos de ativos com características semelhantes, conforme proposto por Fernandes, Rocha e Souza (2011). Enquanto a matriz de covariância empregada nas análises é a estimada através dos dados amostrais, os retornos esperados são obtidos através da otimização reversa da carteira de equilíbrio de mercado proposta por Black e Litterman (1992). A análise empírica fora da amostra para o período entre janeiro de 2010 e outubro de 2014 sinaliza-nos que, em linha com estudos anteriores, a penalização das normas dos pesos pode levar (dependendo da norma escolhida e da intensidade da restrição) a melhores performances em termos de Sharpe e retorno médio, em relação a carteiras obtidas via o modelo tradicional de Markowitz. Além disso, a inclusão de informações sobre os grupos de ativos também pode trazer benefícios ao cálculo de portfolios ótimos, tanto em relação aos métodos tradicionais quanto em relação aos casos sem uso da estrutura de grupos.