862 resultados para Mínimos quadrados ordinários com a correcção de White e Variável dummy
Resumo:
There are a great number of evidences showing that education is extremely important in many economic and social dimensions. In Brazil, education is a right guaranteed by the Federal Constitution; however, in the Brazilian legislation the right to the three stages of basic education: Kindergarten, Elementary and High School is better promoted and supported than the right to education at College level. According to educational census data (INEP, 2009), 78% of all enrolments in College education are in private schools, while the reverse is found in High School: 84% of all matriculations are in public schools, which shows a contradiction in the admission into the universities. The Brazilian scenario presents that public universities receive mostly students who performed better and were prepared in elementary and high school education in private schools, while private universities attend students who received their basic education in public schools, which are characterized as low quality. These facts have led researchers to raise the possible determinants of student performance on standardized tests, such as the Brazilian Vestibular exam, to guide the development of policies aimed at equal access to College education. Seeking inspiration in North American models of affirmative action policies, some Brazilian public universities have suggested rate policies to enable and facilitate the entry of "minorities" (blacks, pardos1, natives, people of low income and public school students) to free College education. At the Federal University of the state Rio Grande do Norte (UFRN), the first incentives for candidates from public schools emerged in 2006, being improved and widespread during the last 7 years. This study aimed to analyse and discuss the Argument of Inclution (AI) - the affirmative action policy that provides additional scoring for students from public schools. From an extensive database, the Ordinary Least Squares (OLS) technique was used as well as a Quantile Regression considering as control the variables of personal, socioeconomic and educational characteristics of the candidates from the Brazilian Vestibular exam 2010 of the Federal University of the state Rio Grande do Norte (UFRN). The results demonstrate the importance of this incentive system, besides the magnitude of other variables
Resumo:
Tese (doutorado)—Universidade de Brasília, Faculdade de Economia, Administração e Contabilidade, Programa de Pós-Graduação em Administração, 2016.
Resumo:
Dissertação de mest. em Gestão Empresarial, Faculdade de Economia, Univ. do Algarve, 2006
Resumo:
Este estudo investiga a otimização da resistência ao cisalhamento no plano de juntas de sobreposição co-curadas do compósito termoplástico unidirecional auto-reforçado de polietileno de baixa densidade reciclado reforçado por fibras de polietileno de ultra alto peso molecular através da relação desta resistência com os parâmetros processuais de prensagem a quente para a conformação da junta (pressão, temperatura, tempo e comprimento). A matriz teve sua estrutura química analisada para verificar potenciais degradações devidas à sua origem de reciclagem. Matriz e reforço foram caracterizados termicamente para definir a janela de temperatura de processamento de junta a ser estudada. A elaboração das condições de cura dos corpos de prova foi feita de acordo com a metodologia de Projeto de Experimento de Superfície de Resposta e a relação entre a resistência ao cisalhamento das juntas e os respectivos parâmetros de cura foi obtida através de equação de regressão gerada pelo método dos Mínimos Quadrados Ordinários. A caracterização mecânica em tração do material foi analisada micro e macromecanicamente. A análise química da matriz não demonstrou a presença de grupos carboxílicos que evidenciassem degradação por ramificações de cadeia e reticulação advindos da reciclagem do material. As metodologias de ensaio propostas demonstraram ser eficazes, podendo servir como base para a constituição de normas técnicas. Demonstrou-se que é possível obter juntas com resistência ótima ao cisalhamento de 6,88 MPa quando processadas a 1 bar, 115°C, 5 min e com 12 mm. A análise da fratura revelou que a ruptura por cisalhamento das juntas foi precedida por múltiplas fissuras longitudinais induzidas por sucessivos debondings, tanto dentro quanto fora da junta, devido à tensão transversal acumulada na mesma, proporcional a seu comprimento. A temperatura demonstrou ser o parâmetro de processamento mais relevante para a performance da junta, a qual é pouco afetada por variações na pressão e tempo de cura.
Resumo:
This work presents a modelling and identification method for a wheeled mobile robot, including the actuator dynamics. Instead of the classic modelling approach, where the robot position coordinates (x,y) are utilized as state variables (resulting in a non linear model), the proposed discrete model is based on the travelled distance increment Delta_l. Thus, the resulting model is linear and time invariant and it can be identified through classical methods such as Recursive Least Mean Squares. This approach has a problem: Delta_l can not be directly measured. In this paper, this problem is solved using an estimate of Delta_l based on a second order polynomial approximation. Experimental data were colected and the proposed method was used to identify the model of a real robot
Resumo:
A metodologia tradicional de identificação de parâmetros na análise modal de estruturas é realizada a partir de sinais medidos de força de entrada e de movimento de resposta da estrutura em condições laboratoriais controladas. Entretanto, quando é necessária a obtenção dos parâmetros modais de estruturas de máquinas em operação, as condições para controlar e medir a excitação nestas situações impossibilita a realização da análise modal tradicional. Neste caso, o teste modal é realizado utilizando somente dados de resposta do sistema. A Análise Modal Operacional (AMO) é um método de extração modal em que nenhuma excitação artificial necessita ser aplicada ao sistema, utilizando-se a própria excitação operacional como entrada para medição da resposta do sistema. A técnica clássica de Análise Modal Operacional NExT considera, para isso, que a excitação operacional do sistema seja um ruído branco. Esta técnica faz a consideração de que as funções de correlação obtidas de estruturas podem ser consideradas como funções de resposta ao impulso e então métodos tradicionais de identificação modal no domínio do tempo podem ser empregados. Entretanto, caso a excitação operacional contenha componentes harmônicos que se sobressaiam, estes podem ser confundidos como modos naturais do sistema. Neste trabalho é demonstrada que através da função densidade de probabilidade da banda estreita contendo o pico de um modo, é possível identifica-lo como natural ou operacional (proveniente da excitação operacional da estrutura). É apresentada também uma modificação no método de identificação modal Exponencial Complexa Mínimos Quadrados (LSCE), passando a considerar sinais harmônicos de freqüências conhecidas presentes na excitação operacional, em um ensaio utilizando a técnica NExT. Para validação desses métodos, utiliza-se um modelo teórico de parâmetros modais conhecidos analiticamente e como estudo de caso experimental, um sistema formado por uma viga bi-apoiada suportando um motor elétrico com desbalanceamento de massa.
Resumo:
O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.
Resumo:
Tradicionalmente, o método dos mínimos quadrados tem sido empregado na inversão não linear de dados de campo potencial. No caso em que as observações dos campos gravimétrico ou magnético contém apenas ruído Gaussiano. O método dos mínimos quadrados não apresenta problemas. Entretanto, quando as observações são perturbadas por ruído não Gaussiano, ou mesmo por ruído não aleatório, como é o caso de muitos ruídos geológicos, o método dos mínimos quadrados torna-se bastante ineficiente, e métodos alternativos devem ser empregados a fim de produzir interpretações realísticas. Neste trabalho, uma comparação é feita entre os métodos dos mínimos quadrados, dos mínimos absolutos e do ajuste-M, aplicados à inversão não linear de dados de campo potencial. A comparação é efetuada usando-se dados teóricos, onde diversas situações geológicas são simuladas. Os resultados mostram que na presença de ruído geológico, caracterizado por pequeno corpo raso acima do corpo principal, ou por corpo grande, adjacente ao corpo principal, o ajuste-M apresenta desempenho muito superior ao dos mínimos quadrados e dos mínimos absolutos. Na presença de ruído Gaussiano, entretanto, o ajuste-M tem um desempenho inferior aos outros dois métodos. Como o ruído Gaussiano é um ruído branco, parte dele pode ser removido por um filtro passa baixa adequado, sem muita perda do sinal, o que não ocorre com o ruído geológico que contém componentes importantes de baixo número de onda. Desse modo o ajuste-M se torna uma ferramenta importante na interpretação de áreas geologicamente complexas, onde é comum a contaminação das anomalias por ruído geológico. Os três métodos em estudo são aplicados a uma anomalia magnética real causada por uma intrusão de diabásio em forma de dique, em sedimentos arenosos da formação Piauí na Bacia do Parnaíba. Os três métodos apresentaram resultados semelhantes indicando que tanto o nível de ruído Gaussiano como geológico são baixos nesta anomalia.
Resumo:
A presente dissertação consta de estudos sobre deconvolução sísmica, onde buscamos otimizar desempenhos na operação de suavização, na resolução da estimativa da distribuição dos coeficientes de reflexão e na recuperação do pulso-fonte. Os filtros estudados são monocanais, e as formulações consideram o sismograma como o resultado de um processo estocástico estacionário, e onde demonstramos os efeitos de janelas e de descoloração. O principio aplicado é o da minimização da variância dos desvios entre o valor obtido e o desejado, resultando no sistema de equações normais Wiener-Hopf cuja solução é o vetor dos coeficientes do filtro para ser aplicado numa convolução. O filtro de deconvolução ao impulso é desenhado considerando a distribuição dos coeficientes de reflexão como uma série branca. O operador comprime bem os eventos sísmicos a impulsos, e o seu inverso é uma boa aproximação do pulso-fonte. O janelamento e a descoloração melhoram o resultado deste filtro. O filtro de deconvolução aos impulsos é desenhado utilizando a distribuição dos coeficientes de reflexão. As propriedades estatísticas da distribuição dos coeficientes de reflexão tem efeito no operador e em seu desempenho. Janela na autocorrelação degrada a saída, e a melhora é obtida quando ela é aplicada no operador deconvolucional. A transformada de Hilbert não segue o princípio dos mínimos-quadrados, e produz bons resultados na recuperação do pulso-fonte sob a premissa de fase-mínima. O inverso do pulso-fonte recuperado comprime bem os eventos sísmicos a impulsos. Quando o traço contém ruído aditivo, os resultados obtidos com auxilio da transformada de Hilbert são melhores do que os obtidos com o filtro de deconvolução ao impulso. O filtro de suavização suprime ruído presente no traço sísmico em função da magnitude do parâmetro de descoloração utilizado. A utilização dos traços suavizados melhora o desempenho da deconvolução ao impulso. A descoloração dupla gera melhores resultados do que a descoloração simples. O filtro casado é obtido através da maximização de uma função sinal/ruído. Os resultados obtidos na estimativa da distribuição dos coeficientes de reflexão com o filtro casado possuem melhor resolução do que o filtro de suavização.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Química, Programa de Pós-Graduação em Química, 2015.
Resumo:
Amyloglucosidase enzyme was produced by Aspergillus niger NRRL 3122 from solid-state fermentation, using deffated rice bran as substrate. The effects of process parameters (pH, temperature) in the equilibrium partition coefficient for the system amyloglucosidase - resin DEAE-cellulose were investigated, aiming at obtaining the optimum conditions for a subsequent purification process. The highest partition coefficients were obtained using 0.025M Tris-HCl buffer, pH 8.0 and 25ºC. The conditions that supplied the highest partition coefficient were specified, the isotherm that better described the amyloglucosidase process of adsorption obtained. It was observed that the adsorption could be well described by Langmuir equation and the values of Qm and Kd estimated at 133.0 U mL-1 and 15.4 U mL-1, respectively. From the adjustment of the kinetic curves using the fourth-order Runge-Kutta algorithm, the adsorption (k1) and desorption (k2) constants were obtained through optimization by the least square procedure, and the values calculated were 2.4x10-3 mL U-1 min-1 for k1 and 0.037 min-1 for k2 .
Resumo:
Inúmeros experimentos em ciências agrárias apresentam variáveis que podem dar origem a problemas de multicolinearidade. Em se tratando da aplicabilidade de modelos de regressão, o problema da multicolinearidade tem como principal consequência o inflacionamento dos erros padrão e, com isso, o valor da estatística t-student é reduzido de tal forma que interfere nos resultados inferenciais. Várias medidas são propostas, na literatura, para resolver o problema de multicolinearidade. Entretanto, o desempenho dessas medidas está sujeito ao grau de multicolinearidade que as variáveis poderão apresentar, bem como ao tamanho amostral. Frente a este problema, este trabalho tem por objetivo avaliar alguns estimadores ridge, utilizando simulação Monte Carlo, bem como, apresentar a aplicação desses estimadores em um experimento, com dados reais, na área de entomologia. Mediante esta aplicação, os resultados expressivos alcançados foram obtidos em função da eficiência dos estimadores ridge avaliados, em relação ao estimador de mínimos quadrados. Em se tratando dos resultados computacionais, concluiu-se que estimadores ridge avaliados são recomendáveis, em experimentos que considerem as variáveis com diferentes graus de multicolinearidade, para amostras maiores do que n=50.
Resumo:
Este trabalho objetivou ajustar equações para estimar a biomassa total de plantas de bambu, do gênero Guadua, bem como comparar o ajuste de equações por regressão linear com a técnica de mineração de dados. Foram utilizados 38 colmos de bambu, nos quais foram mensuradas as variáveis diâmetro à altura do peito (dap), diâmetro do colo do colmo e altura do colmo, seguido da determinação de massa total por método destrutivo. A biomassa determinada em 25 colmos foi utilizada para ajuste de equações pelo método dos mínimos quadrados e 13 colmos serviram para a validação da melhor equação. As frações de biomassa por compartimento diferem significativamente (p < 0,05) entre si. A maior fração da biomassa corresponde ao colmo, representando 69,2% do total, seguida pela dos rizomas, dos galhos e da folhagem, com 15,7; 10,8 e 4,2%, respectivamente. A melhor equação ajustada para estimar a biomassa total apresentou coeficiente de determinação de 0,93 e erro padrão da estimativa de 15%. Já a técnica de mineração de dados apresentou coeficiente de determinação de 0,81, com erro padrão de 23,8%. Pode-se estimar acuradamente a biomassa de Guadua por regressão linear e por mineração dos dados. Neste trabalho, o método de regressão apresentou melhor desempenho. A limitação de dados pode ser o fator determinante para o pior desempenho da técnica de mineração de dados, pois requer uma massa de dados mais ampla para funcionar satisfatoriamente.
Resumo:
Revisão das causas de óbito de crianças com menos de um ano de idade no município de Salvador Bahia (Brasil) no período de 1962 a 1971, tendo sido investigada do ponto de vista estatístico, a tendência secular da mortalidade infantil. Para alguns dos dados foi ajustada uma reta pela equação matemática da forma Y = a + bx através do método dos mínimos quadrados, enquanto que para outros ajustou-se uma exponencial modificada do tipo Y = k + ab x. A tendência global da mortalidade infantil no período de 1962 a 1970 é descendente, tendo no entanto se elevado em 1971 atingindo um coeficiente praticamente igual ao alcançado no ano de 1964. Fato semelhante ocorreu com a mortalidade por enterite e outras doenças diarréicas.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)