836 resultados para Regressão Linear Múltipla
Resumo:
Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS
Resumo:
Séries de dados de velocidades máximas anuais do vento, classificadas segundo o tipo de tormenta (ventos EPS ou TS) e a direção (octantes), são utilizadas para o ajuste de um modelo baseado em regressão linear múltipla, permitindo a estimativa dos ventos extremos no interior da região definida pelas estações meteorológicas disponíveis. A correlação entre as velocidades do vento e a temperatura do ar durante tormentas também é investigada, bem como o comportamento estatístico das temperaturas durante ventos fortes.
Resumo:
Este trabalho de conclusão aborda uma empresa que revisa anualmente, dentro do processo de planejamento estratégico e operacional, o andamento das atividades e projetos importantes do ano anterior, verifica o cumprimento de metas relativas aos indicadores de desempenho empresarial e de satisfação de clientes e, por último, define os projetos, atividades e metas para o próximo período. De quatro em quatro anos, nas trocas de gestão, há uma avaliação de cenários, em que são levadas em conta as forças e fraquezas internas e as ameaças e oportunidades de mercado, para redefinição de diretrizes estratégicas. Durante o ano de 2001 foi introduzida uma nova sistemática, em cima dos resultados consolidados do ano 2000, para priorização de indicadores de desempenho empresarial baseados na satisfação do cliente que é objeto deste trabalho. Utilizou-se a Matriz da Qualidade do QFD – Quality Function Deployment para relacionar os itens de satisfação do cliente, originários de pesquisa realizada anualmente, com os indicadores empresariais internos, computados periodicamente para avaliação da qualidade dos serviços e produtos, da utilização e do clima da força de trabalho e da saúde financeira da empresa. Os itens de satisfação foram ponderados pela importância atribuída pelo cliente, calculada através de regressão linear múltipla, uma inovação importante em relação ao tratamento dado pela empresa até então O trabalho realizado foi apoiado na teoria referente ao QFD, à Medição da Satisfação do Cliente, ao Balanced Scorecard – BSC, aos Indicadores de Desempenho e à Matriz Importância-Desempenho. Concluiu-se que a priorização de indicadores de desempenho com a utilização desta sistemática acrescenta qualidade ao processo de planejamento da empresa, principalmente pela ponderação dos itens de satisfação pela importância calculada. Sugere-se, no final, algumas melhorias na sistemática e uma seqüência ideal de procedimentos, a par da identificação dos benefícios já alcançados.
Resumo:
Esta dissertação apresenta a implementação das etapas do método DMAIC (Definir, Medir, Analisar, Melhorar e Controlar) no desenvolvimento de um projeto Seis Sigma em uma indústria petroquímica. O objetivo do projeto Seis Sigma foi reduzir a variabilidade de uma característica de qualidade crítica para o cliente e diminuir a dispersão dos tempos de reação entre as bateladas na produção de elastômeros. Neste trabalho são apresentadas as principais técnicas e ferramentas estatísticas utilizadas nas cinco etapas do método DMAIC, tais como brainstorming, mapeamento de processo, diagrama de causa e efeito, matriz da causa e efeito, gráfico de Pareto, FMEA e análise de regressão linear múltipla. A pesquisa desenvolvida de forma participativa, através da interação entre o pesquisador e os especialistas do processo, evidenciou a importância do conhecimento técnico do processo e um bom planejamento para a aquisição dos dados, como pontos importantes para a realização de um projeto de melhoria bem sucedido. O estudo apontou ainda, deficiências no sistema de controle de temperatura do reator, no sistema de medição para a característica de qualidade viscosidade Mooney e no sistema de dosagem dos insumos.
Resumo:
A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.
Resumo:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.
Resumo:
O propósito deste estudo é analisar a capacidade dos modelos econométricos ARMA, ADL, VAR e VECM de prever inflação, a fim de verificar qual modelagem é capaz de realizar as melhores previsões num período de até 12 meses, além de estudar os efeitos da combinação de previsões. Dentre as categorias de modelos analisados, o ARMA (univariado) e o ADL (bivariado e multivariado), foram testados com várias combinações de defasagens. Foram realizadas previsões fora-da-amostra utilizando 3 períodos distintos da economia brasileira e os valores foram comparados ao IPCA realizado, a fim de verificar os desvios medidos através do EQM (erro quadrático médio). Combinações das previsões usando média aritmética, um método de média ponderada proposto por Bates e Granger (1969) e média ponderada através de regressão linear múltipla foram realizadas. As previsões também foram combinadas com a previsão do boletim FOCUS do Banco Central. O método de Bates e Granger minimiza a variância do erro da combinação e encontra uma previsão com variância do erro menor ou igual à menor variância dos erros das previsões individuais, se as previsões individuais forem não viesadas. A conclusão é que, com as técnicas de séries temporais utilizadas, alguns modelos individuais fornecem previsões com EQM relativamente baixos. Destacando-se, dentre eles, os modelos VAR e VECM. Porém, com a combinação de previsões os EQM obtidos são menores do que os das previsões individuais usadas para combinação. Na maioria dos casos, a combinação de previsões com o boletim FOCUS também melhorou significativamente os resultados e forneceu previsões com EQM menores do que os das previsões individuais, destacando-se, dentre os métodos de combinações utilizados, a combinação via regressão linear múltipla.
Resumo:
The main purpose of this study is identify and select the assessment indicators for Brand Equity (BE), in the fuels segment. Within this perspective, we have chosen to assess the influences based on the following attributes: Brand Loyalty (Lealdade à Marca ( LM), Brand Recognition (Conhecimento da Marca ( CM), Perceived Quality (Qualidade Percebida ( QP) and Brand Associations (Associações à Marca ( AM), through perception of consumers in Rio de Janeiro and São Paulo States. Based on deep interviews in the qualitative phase and in surveys, in the quantitative phase, we began the data analysis through Multiple Linear Regression, according to Atilgan et al. (2005) model and Ha (1996). In the first model, the (CM) was considered non-explanatory to (BE¿, and we¿ve chosen to remove it from the following study model. In the final model, besides remaining variables, demographic variables were included, such as: Family Income (Renda Familiar ( RF) and Federation State (Estado da Federação ( EF), as independent variables. The main relevant findings, through perception of consumers, indicated that the (BE) of company analyzed was better ranked in Rio de Janeiro than in São Paulo and, as for the income, higher level classes tend to have less understanding on the value of (BE) of Petrobras BR. The study finish with mentions the contribution of the research and management implication, as well as limitations and suggestions to further researchers.
Resumo:
Este trabalho estuda as relações causais entre cargas de trabalho classificadas em organizacionais, psicossociais, físico-ambientais e posturais/ do mobiliário e os seus efeitos enquanto determinantes de desgaste/ adoecimento entre os trabalhadores bancários. Tem como objetivo avaliar o “peso” e a hierarquia de cada fator ou grupo de fatores causais para a produção do efeito sobre a saúde, nesta forma auxiliando a mobilização pela transformação das realidades de trabalho. O estudo se constitui como uma apreciação ergonômica, sendo parte de um projeto mais amplo, de Vigilância em Saúde do Trabalhador, o qual é protagonizado pelo Sindicato dos Bancários de Porto Alegre. Na metodologia, valoriza a percepção coletiva dos trabalhadores acerca de suas condições de trabalho e saúde, entendendo-os como os sujeitos sociais mais habilitados para revelar o essencial a ser transformado. O estudo foi realizado através da aplicação de um questionário sigiloso e auto-aplicado, respondido por 1518 trabalhadores, dentre estes 1087 bancários, 192 estagiários e 230 terceirizados, distribuídos entre quatro instituições bancárias, dois Bancos Públicos e dois Privados. O desgaste/ adoecimento foi analisado através de estatísticas descritivas e analíticas, pelas diferenças de médias, Análise de Variança – ANOVA, Teste Duncan, Teste Exato de Fisher com Simulação de Monte Carlo, Regressão Linear Múltipla, Coeficientes de Pearson e de Determinação Entre os achados com significância estatística, tem-se uma maior intensidade das cargas de trabalho, do estresse e do desgaste/ adoecimento percebido entre os bancários do Público A e do Privado C, no sexo feminino, na função de caixa, da faixa etária entre 40 a 49 anos, entre bancários com tempo de banco acima de dois anos e jornadas de trabalho entre 8 e 10 horas. Entre todos os fatores causais analisados por diferenças de médias, as cargas de trabalho foram as que mais impactaram o desgaste/ adoecimento. Pelo Teste de Regressão Linear Múltipla e Coeficiente de Determinação, constatou-se que as cargas de trabalho do tipo organização do trabalho e psicossociais, em termos genéricos, têm pesos semelhantes entre si e impactam muito mais o desgaste/ adoecimento comparativamente às físico-ambientais e posturais/ do mobiliário. O impacto dessas cargas sobre o desgaste/ adoecimento é especialmente mais intenso no Banco Privado Grande D, que é mais moderno e reestruturado. Os fatores de maior peso estatisticamente significantes para todos os Bancos foram a atividade estressante, a desvalorização do trabalho, a exigência de esforço mental e de repetitividade das tarefas, além dos posturais. No Banco Privado Grande D, outros fatores como as posturas das chefias, remuneração inadequada, volume de trabalho excessivo, pausas insuficientes e exigência de alcançar metas também demonstraram ter grande peso explicativo para o desgaste/ adoecimento. Conclui-se que as cargas de trabalho são hierarquicamente distintas em relação à sua capacidade de determinação do adoecimento e que a reestruturação produtiva no sistema bancário incrementa grandemente os riscos à saúde dos trabalhadores.
Resumo:
A dissertação objetivou identificar os principais determinantes que exercem influência no número de gestoras independentes de recursos de terceiros (Assets) em funcionamento no Brasil, um segmento que apresentou franco crescimento na última década. O método de análise empregado foi quantitativo, utilizando o modelo de regressão linear múltipla, e teve, como base de dados analisados, dados históricos de 15 variáveis macroeconômicas da economia brasileira. O período analisado contempla 14 anos (de 1994 a 2008). Dado o enfoque deste trabalho, considerou-se necessária uma revisão das principais mudanças ocorridas na economia e no setor financeiro do país, bem como seus reflexos nas taxas de juros, níveis de poupança, endividamento interno e externo e no setor bancário. Através da análise realizada foi possível perceber, através do emprego da análise de correlação, que as variáveis macroeconômicas são altamente relacionadas entre si, bem como identificar que as principais variáveis que têm impacto no mercado de Assets em funcionamento são: bancos em funcionamento no país; volume de recursos depositados em poupança e expectativa de inflação.
Resumo:
Estado e sociedade brasileiros conviveram em descompasso, nos anos 80. A conseqüência imediata desse fenômeno foi o atendimento insuficiente de necessidades básicas da sociedade, nesse período, com aumento da entropia em vários subsistemas sociais brasileiros, dentre os quais o subsistema de saúde. Nesta tese, trabalhando com dados econômicos, sociais e de saúde, e construindo algumas variáveis-indicadores, confrontou-se, naquele período, necessidades da sociedade com ações do Estado, na área da saúde. Utilizando técnicas estatísticas - análise gráfica, associação estatística dos indicadores selecionados (matriz de correlação de PEARSON), análise em componentes principais, análise de agrupamento e análise de regressão linear múltipla com variáveis logaritímizadas - foi possível visualizar causas e conseqüências dessa alta entropia, caracterizada por desperdício de recursos e várias situações propensas à geração de crises nas organizações, setores e instituições do subsistema de saúde brasileiro. Propõe-se um método de alocação de recursos federais, objetivando minimizar desigualdades entre as Unidades da Federação, a partir de seus desempenhos na área de saúde.
Resumo:
A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).
Resumo:
O curso de mestrado profissional em administração (MPA) da Fundação Getúlio Vargas é formatado para profissionais que têm interesse em combinar uma sólida base acadêmica com atividades voltadas para a aplicação prática. O objetivo deste trabalho está alinhado com objetivo do curso ao realizar a aplicação prática dos conceitos da resource-based view das firmas aos resultados dos jogos do campeonato brasileiro com o propósito de identificar quais fatores explicam o desempenho operacional dos times de futebol da primeira divisão, o que irá contribuir para auxiliar os clubes de futebol no Brasil nas suas decisões de investimentos e alocação de recursos financeiros. Ao analisar a qualidade dos jogadores e sua posição relativa em relação ao time, a motivação para o jogo, os fatores "casa" e "camisa", todos considerados recursos valiosos, raros, inimitáveis e operacionalmente utilizáveis, procurar-se-á contribuir para esse processo de decisão de investimentos e construção de vantagens competitivas pelos clubes. Aplicando-se o método de análise multivariada de dados conhecida como regressão linear múltipla, foi possível identificar que existem fatores que influenciam o desempenho dos times independente da sua situação dentro do jogo, seja como mandante como visitante: a posição relativa da qualidade do elenco em relação ao time adversário contribui positivamente e o número de cartões vermelhos contribui negativamente. Ao jogar "em casa", a posição relativa da qualidade dos jogadores do ataque do time mandante em relação aos jogadores da defesa do time visitante contribui positivamente para a vitória do time da "casa". Porém, no caso do time visitante, a posição relativa da qualidade dos jogadores da defesa em relação aos jogadores do ataque do time mandante e a "camisa" (neste caso, apenas se ela "carrega" consigo algum título que dê ao time uma reputação a nível internacional) são os fatores que contribuem positivamente para a vitória. Portanto, a disposição tática dos recursos também é um fator relevante que deve ser considerado em pesquisas futuras. Desta forma, não basta ter os recursos e explorá-los aleatoriamente porque o ambiente de disputa não é estático, assim como não é, de forma análoga, o ambiente de negócios.
Resumo:
Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
Resumo:
Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.