1000 resultados para Método dos mínimos quadrados
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Química e Bioquímica
Resumo:
A cura constitui um elemento fundamental em processos de produção de compósitos com resinas termoendurecíveis. Tendo como objectivo uma eficaz consolidação de um molde compósito, a cura da resina assume um papel crucial, sendo portanto, importante avaliar o grau de cura atingido sob determinadas condições impostas. Neste estudo, foram analisados dois sistemas de resina epóxida, destinados ao fabrico de um molde para radome de avião, por dois processos de moldação diferentes. A cinética de cura dos referidos sistemas foi caracterizada pela técnica de calorimetria diferencial de varrimento (DSC) utilizando os métodos dinâmico e isotérmico. Os métodos analíticos empregues na determinação dos parâmetros cinéticos de cura foram: o de Málek e dos mínimos quadrados. Neste trabalho, os ensaios DSC foram conduzidos de forma a estudar a transição vítrea (curada e não-curada), parâmetros termodinâmicos e grau de cura, velocidade de reacção e a taxa de cura com a temperatura para ambas as resinas. A determinação do modelo cinético para a taxa de cura com a temperatura foi feita em ambas as amostras, tendo sido possível também obter a expressão da velocidade de reacção para a resina Hexply 913. O confronto das referidas expressões com os dados experimentais revelou um considerável grau de concordância. Os resultados obtidos mostram que a resina para autoclave (Hexply 913) deverá ser curada em duas fases: uma cura inicial com o radome a 90ºC e depois a 125ºC para conferir a pré-forma desejada e seguidamente uma pós-cura sem o radome a uma das temperaturas alternativas sugeridas pelo fabricante. O estudo indica também que o sistema Toolfusion® 1A/1B, na cura inicial a 65ºC, atinge um grau de cura máximo de 11,4%, sendo que as isotérmicas posteriores de 150ºC e 190ºC incrementam o nível de reticulação para valores de 77,3% e de 95,4%, respectivamente.
Resumo:
O objetivo deste trabalho foi apresentar alternativas para estimar o coeficiente de heterogeneidade do solo a partir do coeficiente de correlação intraclasse em diferentes estruturas de delineamentos experimentais. As estimativas dos coeficientes de heterogeneidade do solo obtidas por este método foram comparadas àquelas obtidas por meio de mínimos quadrados generalizados. Não houve diferenças entre as estimativas obtidas por ambos os métodos; nesse caso recomenda-se a estimativa com base no coeficiente de correlação intraclasse por ser mais simples e prática. Considerando-se o coeficiente de heterogeneidade do solo, obteve-se diversos tamanhos de parcela, para diferentes combinações de coeficiente de variação, número de repetições, grau de diferença que se espera detectar entre dois tratamentos e nível de significância.
Resumo:
O objetivo deste trabalho foi selecionar as variáveis de manejo do camarão marinho Litopenaeus vannamei que mais influenciaram nas variáveis-respostas ao cultivo (produção, produtividade, peso final e taxa de sobrevivência), em modelos matemáticos. O banco de dados foi composto por 83 cultivos, realizados no período de 2003 a 2005, obtidos de uma fazenda comercial localizada no litoral sul de Pernambuco. Para estimar os parâmetros dos modelos, utilizou-se a técnica dos mínimos quadrados. A seleção das variáveis foi realizada com o processo "backward elimination" associado ao método de transformação de Box e Cox. A adequação das equações e os pressupostos de normalidade e homocedasticidade, para os erros, foram analisadas com base na análise de variância e análise de resíduo. É possível relacionar essas variáveis e estabelecer predições com as equações.
Resumo:
Objetivou-se caracterizar a variabilidade espacial da incidência de Colletotrichum truncatum (Schwein) em sementes colhidas de soja e determinar o melhor modelo e método de semivariograma que represente a incidência de C. truncatum dessas sementes. O experimento foi realizado em condições de campo na safra 2009/10, em 3 parcelas de 9,9 x 10 m, com sementes inoculadas com C.truncatum. O inóculo correspondeu a 0,8; 1,6 e 2,4% do total semeado. Foram demarcadas 3 malhas com receptores GNSS, totalizando 112 pontos em cada parcela distanciados a 1,3 m na linha. No final do ciclo da soja, realizaram-se a colheita, a secagem e a análise sanitária das sementes pelo método 'blotter test', referente aos 336 pontos demarcados. Quatro modelos de semivariogramas foram ajustados aos dados coletados utilizando os métodos mínimos quadrados ordinários (OLS), mínimos quadrados ponderados (WLS), máxima verossimilhança (ML) e máxima verossimilhança restrita (REML). A validação cruzada foi empregada para escolha final do modelo e método do semivariograma. Em seguida, efetuaram-se a krigagem e o desvio padrão da krigagem. Os mapas de krigagem ilustraram a transmissão da semente para a semente e a sua variância. Verificou-se estrutura de dependência espacial da transmissão de C. truncatum via semente. O melhor modelo de semivariograma foi o esférico e o melhor ajuste foi o REML. Houve alcance de 0,95, 4,03 e 7,05 m para as parcelas com 0,8, 1,6 e 2,4% de sementes inoculadas respectivamente. Quanto maior o inóculo primário da parcela, maior foi a transmissão para as sementes próximas à fonte de inóculo.
Resumo:
As técnicas de espectroscopia por reflexão no infravermelho próximo (NIRRS) e por reflexão difusa no infravermelho médio com transformada de Fourier (DRIFTS) foram empregadas com o método de regressão multivariado por mínimos quadrados parciais (PLS) para a determinação simultânea dos teores de proteína e cinza em amostras de farinha de trigo da variedade Triticum aestivum L. Foram coletados espectros no infravermelho em duplicata de 100 amostras, empregando-se acessórios de reflexão difusa. Os teores de proteína (8,85-13,23%) e cinza (0,330-1,287%), empregados como referência, foram determinados pelo método Kjeldhal e método gravimétrico, respectivamente. Os dados espectrais foram utilizados no formato log(1/R), bem como suas derivadas de primeira e segunda ordem, sendo pré-processados usando-se os dados centrados na média (MC) ou escalados pela variância (VS) ou ambos. Cinqüenta e cinco amostras foram usadas para calibração e 45 para validação dos modelos, adotando-se como critério de construção os valores mínimos do erro padrão de calibração (SEC) e do erro padrão de validação (SEV). Estes valores foram inferiores a 0,33% para proteína e a 0,07% para cinza. Os métodos desenvolvidos apresentam como vantagens a não agressão ao ambiente, bem como permitem uma determinação direta, simultânea, rápida e não destrutiva dos teores de proteína e cinza em amostras de farinha de trigo.
Resumo:
Resumen basado en el de la publicación
Resumo:
Dissertação apresentada ao Programa de Pós-graduação em Administração - Mestrado da Universidade Municipal de São Caetano do Sul.
Resumo:
O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.
Resumo:
O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.
Resumo:
Mensalmente são publicados relatórios pelo Departamento de Agricultura dos Estados Unidos (USDA) onde são divulgados dados de condições das safras, oferta e demanda globais, nível dos estoques, que servem como referência para todos os participantes do mercado de commodities agrícolas. Esse mercado apresenta uma volatilidade acentuada no período de divulgação dos relatórios. Um modelo de volatilidade estocástica com saltos é utilizado para a dinâmica de preços de milho e de soja. Não existe um modelo ‘ideal’ para tal fim, cada um dos existentes têm suas vantagens e desvantagens. O modelo escolhido foi o de Oztukel e Wilmott (1998), que é um modelo de volatilidade estocástica empírica, incrementado com saltos determinísticos. Empiricamente foi demonstrado que um modelo de volatilidade estocástica pode ser bem ajustado ao mercado de commodities, e o processo de jump-diffusion pode representar bem os saltos que o mercado apresenta durante a divulgação dos relatórios. As opções de commodities agrícolas que são negociadas em bolsa são do tipo americanas, então alguns métodos disponíveis poderiam ser utilizados para precificar opções seguindo a dinâmica do modelo proposto. Dado que o modelo escolhido é um modelo multi-fatores, então o método apropriado para a precificação é o proposto por Longstaff e Schwartz (2001) chamado de Monte Carlo por mínimos quadrados (LSM). As opções precificadas pelo modelo são utilizadas em uma estratégia de hedge de uma posição física de milho e de soja, e a eficiência dessa estratégia é comparada com estratégias utilizando-se instrumentos disponíveis no mercado.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
Este trabalho observa como as variáveis macroeconômicas (expectativa de inflação, juro real, hiato do produto e a variação cambial) influenciam a dinâmica da Estrutura a Termo da Taxa de Juros (ETTJ). Esta dinâmica foi verificada introduzindo a teoria de Análise de Componentes Principais (ACP) para capturar o efeito das componentes mais relevantes na ETTJ (nível, inclinação e curvatura). Utilizando-se as estimativas por mínimos quadrados ordinários e pelo método generalizado dos momentos, foi verificado que existe uma relação estatisticamente significante entre as variáveis macroeconômicas e as componentes principais da ETTJ.
Resumo:
A lei dos planos de saúde, elaborada pela ANS, regulamentou o reajuste nos preços dos planos de saúde individuais no Brasil, este estudo busca analisar os efeitos da mesma sobre o consumo de serviços médicos no país. A análise foi elaborada através de modelos probit e mínimos quadrados ordinários, com o método de diferenças em diferenças e utilizando as PNADs 1998 e 2008. A probabilidade de realização de consultas médicas e/ou internações hospitalares foi estimada por probit e o número de consultas e dias de internações no período de um ano através de MQO. O resultado obtido aponta para inalteração do risco moral na demanda pelos serviços médicos, no entanto, outro resultado interessante foi obtido ao analisar os beneficiários de plano de saúde individuais, sua probabilidade de realizar uma consulta médica e/ou ser internado em hospitais foi maior do que os planos de saúde corporativos.