926 resultados para Mínimos quadrados ordinários


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é comparar o método de estimação dos mínimos quadrados ponderados para ajuste de modelos ao semivariograma com o método de tentativa e erro, muito usado na prática, pela técnica de auto-validação "jack- knifing".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work proposes a new technique for phasor estimation applied in microprocessor numerical relays for distance protection of transmission lines, based on the recursive least squares method and called least squares modified random walking. The phasor estimation methods have compromised their performance, mainly due to the DC exponential decaying component present in fault currents. In order to reduce the influence of the DC component, a Morphological Filter (FM) was added to the method of least squares and previously applied to the process of phasor estimation. The presented method is implemented in MATLABr and its performance is compared to one-cycle Fourier technique and conventional phasor estimation, which was also based on least squares algorithm. The methods based on least squares technique used for comparison with the proposed method were: forgetting factor recursive, covariance resetting and random walking. The techniques performance analysis were carried out by means of signals synthetic and signals provided of simulations on the Alternative Transient Program (ATP). When compared to other phasor estimation methods, the proposed method showed satisfactory results, when it comes to the estimation speed, the steady state oscillation and the overshoot. Then, the presented method performance was analyzed by means of variations in the fault parameters (resistance, distance, angle of incidence and type of fault). Through this study, the results did not showed significant variations in method performance. Besides, the apparent impedance trajectory and estimated distance of the fault were analysed, and the presented method showed better results in comparison to one-cycle Fourier algorithm

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação tem o propósito principal de fornecer evidências empíricas acerca dos fatores que influenciam as decisões dos gestores quanto ao prazo de divulgação das demonstrações contábeis anuais das companhias não financeiras listadas na BM&FBOVESPA. O prazo de divulgação, chamado defasagem, foi medido como o intervalo em dias entre o encerramento do exercício social e a data da primeira apresentação das Demonstrações Financeiras Padronizadas (DFPs). O foco da pesquisa foi a influência, sobre a defasagem, dos seguintes fatores não observáveis: monitoramento, complexidade contábil, governança corporativa, relatório de auditoria e performance. Com base na literatura revisada, foram formuladas proxies destinadas a captar os efeitos desses fatores. Para a consecução dos objetivos, foram estimados modelos econométricos por meio dos métodos: (i) Mínimos Quadrados Ordinários (MQO) com dados em corte transversal; (ii) MQO com dados agrupados (OLS pooled); e (iii) painel de dados. Os testes foram aplicados sobre um painel balanceado de dados, ou seja, 644 observações de 322 companhias, referentes aos exercícios 2010 e 2011. Os resultados das estimações revelaram que tendem a divulgar mais rapidamente suas demonstrações companhias: (i) com maior número de acionistas; (ii) com maior nível de endividamento; (iii) que aderiram a um entre os níveis diferenciados de governança corporativa da BM&FBOVESPA; (iv) que possuem maiores proporções de diretores independentes na composição da diretoria (board); e (v) que foram auditadas por uma entre as firmas de auditoria do grupo Big-4. Por outro lado, constatou-se que tendem a atrasar suas divulgações companhias que: (i) estão sujeitas à consolidação de balanços; (ii) tiveram suas demonstrações contábeis ressalvadas pelos auditores independentes; (iii) e que registraram resultados negativos (prejuízos). Adicionalmente, foram formuladas proxies para captar os efeitos das surpresas contidas nos resultados, uma delas tendo como base o benchmark para as expectativas do mercado, qual seja, a previsão dos analistas, no entanto, não foram constatados impactos das surpresas sobre o prazo de divulgação. Também não foram verificadas influências, sobre o timing, oriundas da proporção de investidores institucionais, da formação de blocos de controle, da regulação estatal, do nível de rentabilidade, do porte e tampouco da negociação de valores mobiliários em mercados estrangeiros. Os achados desta pesquisa podem contribuir não apenas para a literatura dedicada a essa linha de pesquisa, como também para investidores, analistas de mercado e reguladores. As nuances observadas para os exercícios analisados, que marcaram a adoção integral do padrão contábil alinhado às normas IFRS e a recuperação da economia brasileira em relação aos impactos da crise financeira mundial, permitiram relevantes constatações. Além disso, a relevância deste estudo é ampliada pelo ineditismo presente na aplicação de proxies ainda não utilizadas em ambiente nacional para explicar os prazos de divulgação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo principal desta dissertação é analisar os impactos da abertura comercial vista no Brasil no início da década de 1990 entre 1990 a 1996 na margem de lucro das indústrias de transformação passando por três padrões monetários diferentes (cruzeiro, cruzeiro real e real). A especificação e metodologia adotadas no trabalho são as de Goldar e Aggawal (2004), que fazem uma análise de dados em painel para efeitos fixos e randômicos para as indústrias de transformação indianas como um todo e, posteriormente, aplicando os mesmos testes separando os vinte e oito setores da indústria brasileira de transformação em setores de bens de capital e intermediários no primeiro grupo e bens de capital no segundo. Este trabalho ainda inclui esta metodologia aplicando, além das duas já citadas, o teste de mínimos quadrados ordinários (MQO) para permitir uma melhor análise com três testes diferentes antes e depois de separar os setores por meio de variáveis explicativas como barreiras à importação, concentração industrial, participação salarial, produtividade do trabalho, representatividade setorial e variação na taxa de crescimento da produção do setor entre os anos. Conclui-se que o aumento observado na margem de lucro foi impactado significativamente pelas variáveis expostas acima e estes resultados são importantes para que possamos auferir de que forma impactaram positivamente ou contribuíram negativamente na margem de lucro auferida pela indústria brasileira de transformação entre 1990 e 1996.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar a competitividade do grão de café brasileiro no mercado americano. Diante das características particulares do mercado de grão de café verde, da variedade de possíveis interações estratégicas entre os competidores e da escassez de observações de qualidade, procura-se demonstrar neste estudo que a abordagem da demanda residual é a técnica mais adequada para atingir este fim. Estimamos a elasticidade da curva de demanda residual dos principais exportadores de café para os EUA através dos métodos de mínimos quadrados ordinários, mínimos quadrados dois estágios, mínimos quadrados três estágios e SUR. Observa-se, a partir dos resultados obtidos, poucos indícios de que o grão de café verde brasileiro, tanto do tipo arabica quanto dos demais, tenha um grau de competitividade significativo no mercado americano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Existe uma variedade de ensaios tratando do tema de segmentação do mercado de trabalho, porém todos utilizando a estratégia de avaliar diversas categorias de atividade conjuntamente, algo que tem tornado aparentemente mais árdua a obtenção de um consenso acerca da existência ou ausência de segmentação no caso brasileiro. Neste estudo, avalia-se apenas uma categoria específica, que é a de empregadas domésticas, na tentativa de se reduzir esta dificuldade, ao mesmo tempo em que se estuda um grupo relevante da força brasileira de trabalho, cujas representantes somam 1/6 dos postos de trabalho femininos ou 7% do total de pessoas empregadas no país. Desta forma, caso se consiga encontrar evidências robustas de que esta parcela significativa do mercado de trabalho seja segmentada, não se poderá supor que a sua totalidade tenha a característica de um mercado integrado. E esta é conclusão a que se chega por meio da aplicação de dois métodos (mínimos quadrados ordinários e a decomposição de Blinder-Oaxaca), reforçando a impressão geral de que existe diferencial de ganho entre os setores formal e informal, ainda que se faça o controle das características produtivas de cada grupo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.