933 resultados para Modelos lineares (Estatística)


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação, Mestrado, Contabilidade e Fiscalidade, Instituto Politécnico de Santarém, Escola Superior de Gestão e Tecnologia, 2016

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação, Mestrado, Contabilidade e Fiscalidade, Instituto Politécnico de Santarém, Escola Superior de Gestão e Tecnologia, 2016

Relevância:

40.00% 40.00%

Publicador:

Resumo:

No estudo de séries temporais, os processos estocásticos usuais assumem que as distribuições marginais são contínuas e, em geral, não são adequados para modelar séries de contagem, pois as suas características não lineares colocam alguns problemas estatísticos, principalmente na estimação dos parâmetros. Assim, investigou-se metodologias apropriadas de análise e modelação de séries com distribuições marginais discretas. Neste contexto, Al-Osh and Alzaid (1987) e McKenzie (1988) introduziram na literatura a classe dos modelos autorregressivos com valores inteiros não negativos, os processos INAR. Estes modelos têm sido frequentemente tratados em artigos científicos ao longo das últimas décadas, pois a sua importância nas aplicações em diversas áreas do conhecimento tem despertado um grande interesse no seu estudo. Neste trabalho, após uma breve revisão sobre séries temporais e os métodos clássicos para a sua análise, apresentamos os modelos autorregressivos de valores inteiros não negativos de primeira ordem INAR (1) e a sua extensão para uma ordem p, as suas propriedades e alguns métodos de estimação dos parâmetros nomeadamente, o método de Yule-Walker, o método de Mínimos Quadrados Condicionais (MQC), o método de Máxima Verosimilhança Condicional (MVC) e o método de Quase Máxima Verosimilhança (QMV). Apresentamos também um critério automático de seleção de ordem para modelos INAR, baseado no Critério de Informação de Akaike Corrigido, AICC, um dos critérios usados para determinar a ordem em modelos autorregressivos, AR. Finalmente, apresenta-se uma aplicação da metodologia dos modelos INAR em dados reais de contagem relativos aos setores dos transportes marítimos e atividades de seguros de Cabo Verde.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

No estudo de séries temporais, os processos estocásticos usuais assumem que as distribuições marginais são contínuas e, em geral, não são adequados para modelar séries de contagem, pois as suas características não lineares colocam alguns problemas estatísticos, principalmente na estimação dos parâmetros. Assim, investigou-se metodologias apropriadas de análise e modelação de séries com distribuições marginais discretas. Neste contexto, Al-Osh and Alzaid (1987) e McKenzie (1988) introduziram na literatura a classe dos modelos autorregressivos com valores inteiros não negativos, os processos INAR. Estes modelos têm sido frequentemente tratados em artigos científicos ao longo das últimas décadas, pois a sua importância nas aplicações em diversas áreas do conhecimento tem despertado um grande interesse no seu estudo. Neste trabalho, após uma breve revisão sobre séries temporais e os métodos clássicos para a sua análise, apresentamos os modelos autorregressivos de valores inteiros não negativos de primeira ordem INAR (1) e a sua extensão para uma ordem p, as suas propriedades e alguns métodos de estimação dos parâmetros nomeadamente, o método de Yule-Walker, o método de Mínimos Quadrados Condicionais (MQC), o método de Máxima Verosimilhança Condicional (MVC) e o método de Quase Máxima Verosimilhança (QMV). Apresentamos também um critério automático de seleção de ordem para modelos INAR, baseado no Critério de Informação de Akaike Corrigido, AICC, um dos critérios usados para determinar a ordem em modelos autorregressivos, AR. Finalmente, apresenta-se uma aplicação da metodologia dos modelos INAR em dados reais de contagem relativos aos setores dos transportes marítimos e atividades de seguros de Cabo Verde.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O atual nível das mudanças uso do solo causa impactos nas mudanças ambientais globais. Os processos de mudanças do uso e cobertura do solo são processos complexos e não acontecem ao acaso sobre uma região. Geralmente estas mudanças são determinadas localmente, regionalmente ou globalmente por fatores geográficos, ambientais, sociais, econômicos e políticos interagindo em diversas escalas temporais e espaciais. Parte desta complexidade é capturada por modelos de simulação de mudanças do uso e cobertura do solo. Uma etapa do processo de simulação do modelo CLUE-S é a quantificação da influência local dos impulsores de mudança sobre a probabilidade de ocorrência de uma classe de uso do solo. Esta influência local é obtida ajustando um modelo de regressão logística. Um modelo de regressão espacial é proposto como alternativa para selecionar os impulsores de mudanças. Este modelo incorpora a informação da vizinhança espacial existente nos dados que não é considerada na regressão logística. Baseado em um cenário de tendência linear para a demanda agregada do uso do solo, simulações da mudança do uso do solo para a microbacia do Coxim, Mato Grosso do Sul, foram geradas, comparadas e analisadas usando o modelo CLUE-S sob os enfoques da regressão logística e espacial para o período de 2001 a 2011. Ambos os enfoques apresentaram simulações com muito boa concordância, medidas de acurácia global e Kappa altos, com o uso do solo para o ano de referência de 2004. A diferença entre os enfoques foi observada na distribuição espacial da simulação do uso do solo para o ano 2011, sendo o enfoque da regressão espacial que teve a simulação com menor discrepância com a demanda do uso do solo para esse ano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo dos diferentes fenômenos de separação tem sido cada vez mais importante para os diferentes ramos da indústria e ciência. Devido à grande capacidade computacional atual, é possível modelar e analisar os fenômenos cromatográficos a nível microscópico. Os modelos de rede vêm sendo cada vez mais utilizados, para representar processos de separação por cromatografia, pois através destes pode-se representar os aspectos topológicos e morfológicos dos diferentes materiais adsorventes disponíveis no mercado. Neste trabalho visamos o desenvolvimento de um modelo de rede tridimensional para representação de uma coluna cromatográfica, a nível microscópico, onde serão modelados os fenômenos de adsorção, dessorção e dispersão axial através de um método estocástico. Também foram utilizadas diferentes abordagens com relação ao impedimento estérico Os resultados obtidos foram comparados a resultados experimentais. Depois é utilizado um modelo de rede bidimensional para representar um sistema de adsorção do tipo batelada, mantendo-se a modelagem dos fenômenos de adsorção e dessorção, e comparados a sistemas reais posteriormente. Em ambos os sistemas modelados foram analisada as constantes de equilíbrio, parâmetro fundamental nos sistemas de adsorção, e por fim foram obtidas e analisadas isotermas de adsorção. Foi possível concluir que, para os modelos de rede, os fenômenos de adsorção e dessorção bastam para obter perfis de saída similares aos vistos experimentalmente, e que o fenômeno da dispersão axial influência menos que os fenômenos cinéticos em questão

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo verificar se há diferença quanto ao nível de significância estatística no cálculo do retorno anormal realizado através de quatro modelos estatísticos utilizados em estudos de eventos, tendo como objeto de estudo empresas no mercado de ações no Brasil durante o período de março de 2003 até julho de 2010 na Bovespa. Considerando a importância do cálculo do retorno anormal nos estudos de eventos, bem como possíveis variações de resultados decorrentes da escolha do modelo de cálculo, este estudo utiliza um tema bastante conhecido, qual seja, o anúncio de recompra de ações feito pela própria companhia emissora dos títulos. A metodologia utilizada nesta pesquisa foi quantitativa, utilizando o estudo de corte transversal. Os resultados apontam que há diferença entre os níveis de significância encontrados. Ao analisar o gráfico dos modelos calculados no período da janela do evento, verificou-se que as empresas que recompraram ações a fizeram quando os papéis estavam com retorno anormal acumulado negativo e, após a recompra, os papéis tiveram retornos anormais acumulados positivos. Recalculou-se os dois modelos que utilizam o Ibovespa em sua fórmula de cálculo, através de um Ibovespa sem ponderação e conclui-se que os resultados apontam na direção de se evitar o uso de índices ponderados de mercado, preferindo a utilização de carteiras compostas apenas com uma ação para cada empresa componente da carteira de controle. Após este recálculo, verificou-se que o modelo que era menos próximo dos demais graficamente era o modelo de retorno ajustado ao mercado ponderado. Por fim, as evidências empíricas indicam que o mercado de capitais brasileiro ajusta tempestivamente os papéis das empresas que realizaram recompra de ações, em linha com o que prescreve a hipótese do mercado eficiente na sua forma semiforte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese investiga os efeitos agudos da poluição atmosférica no pico de fluxo expiratório (PFE) de escolares com idades entre 6 e 15 anos, residentes em municípios da Amazônia Brasileira. O primeiro artigo avaliou os efeitos do material particulado fino (PM2,5) no PFE de 309 escolares do município de Alta Floresta, Mato Grosso (MT), durante a estação seca de 2006. Modelos de efeitos mistos foram estimados para toda a amostra e estratificados por turno escolar e presença de sintomas de asma. O segundo artigo expõe as estratégias utilizadas para a determinação da função de variância do erro aleatório dos modelos de efeitos mistos. O terceiro artigo analisa os dados do estudo de painel com 234 escolares, realizado na estação seca de 2008 em Tangará da Serra, MT. Avaliou-se os efeitos lineares e com defasagem distribuída (PDLM) do material particulado inalável (PM10), do PM2,5 e do Black Carbon (BC) no PFE de todos os escolares e estratificados por grupos de idade. Nos três artigos, os modelos de efeitos mistos foram ajustados por tendência temporal, temperatura, umidade e características individuais. Os modelos também consideraram o ajuste da autocorrelação residual e da função de variância do erro aleatório. Quanto às exposições, foram avaliados os efeitos das exposições de 5hs, 6hs, 12hs e 24hs, no dia corrente, com defasagens de 1 a 5 dias e das médias móveis de 2 e 3 dias. No que se refere aos resultados de Alta Floresta, os modelos para todas as crianças indicaram reduções no PFE variando de 0,26 l/min (IC95%: 0,49; 0,04) a 0,38 l/min (IC95%: 0,71; 0,04), para cada aumento de 10g/m3 no PM2,5. Não foram observados efeitos significativos da poluição no grupo das crianças asmáticas. A exposição de 24hs apresentou efeito significativo no grupo de alunos da tarde e no grupo dos não asmáticos. A exposição de 0hs a 5:30hs foi significativa tanto para os alunos da manhã quanto para a tarde. Em Tangará da Serra, os resultados mostraram reduções significativas do PFE para aumentos de 10 unidades do poluente, principalmente para as defasagens de 3, 4 e 5 dias. Para o PM10, as reduções variaram de 0,15 (IC95%: 0,29; 0,01) a 0,25 l/min (IC95%: 0,40 ; 0,10). Para o PM2,5, as reduções estiveram entre 0,46 l/min (IC95%: 0,86 to 0,06 ) e 0,54 l/min (IC95%: 0,95; 0,14). E no BC, a redução foi de aproximadamente 0,014 l/min. Em relação ao PDLM, efeitos mais importantes foram observados nos modelos baseados na exposição do dia corrente até 5 dias passados. O efeito global foi significativo apenas para o PM10, com redução do PFE de 0,31 l/min (IC95%: 0,56; 0,05). Esta abordagem também indicou efeitos defasados significativos para todos os poluentes. Por fim, o estudo apontou as crianças de 6 a 8 anos como grupo mais sensível aos efeitos da poluição. Os achados da tese sugerem que a poluição atmosférica decorrente da queima de biomassa está associada a redução do PFE de crianças e adolescentes com idades entre 6 e 15 anos, residentes na Amazônia Brasileira.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cirurgias ortognáticas bimaxilares representam um desafio para os cirurgiões, especialmente para reproduzir o plano de tratamento na sala operatória. O uso de guias cirúrgicos permite uma melhor reprodução do planejamento, mas, para isto, uma técnica precisa de cirurgia de modelos é essencial. O objetivo deste estudo é comparar a precisão do reposicionamento mandibular obtido com dois diferentes métodos de cirurgia de modelos utilizados para o planejamento de cirurgias bimaxilares com a seqüência cirúrgica invertida. Neste estudo, um crânio de resina foi utilizado para simular um paciente. As moldagens foram tomadas e os modelos foram vazados e montados em um articulador semi-ajustável por meio da transferência do arco-facial e do registro de mordida em cera. Traçados de previsão de 10 planos de tratamento diferentes foram feitos no software Dolphin Imaging e, então, reproduzidos com o método padrão (CM I) e método modificado (CM II) de cirurgia de modelos (T1). Para aprimorar a avaliação do reposicionamento mandibular, as cirurgias de modelo foram repetidas após um mês (T2). Os modelos mandibulares foram medidos na Plataforma de Erickson antes e depois do reposicionamento para contrastar os resultados. As diferenças no tempo de reposicionamento também foram registradas. Estatística descritiva e teste t foram usados para análisar os dados e comparar os resultados. Este estudo sugere que o reposicionamento vertical e látero-lateral dos modelos mandibulares foram semelhantes com ambos os métodos, entretanto, houve uma maior imprecisão no sentido ântero-posterior quando o método padrão de cirurgia modelos foi utilizado para o planejamento de cirurgias ortognáticas com a seqüência invertida. O tempo necessário para reposicionar o modelo mandibular no articulador semi-ajustável com a abordagem modificada (CM II) foi significativamente menor do que para reposicionar o modelo maxilar na Plataforma de Erickson (CM I).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os principais desafios relacionados ao problema de classificação de enzimas em banco de dados de estruturas de proteínas são: 1) o ruído presente nos dados; 2) o grande número de variáveis; 3) o número não-balanceado de membros por classe. Para abordar esses desafios, apresenta-se uma metodologia para seleção de parâmetros, que combina recursos de matemática (ex: Transformada Discreta do Cosseno) e da estatística (ex:.g., correlação de variáveis e amostragem com reposição). A metodologia foi validada considerando-se os três principais métodos de classificação da literatura, a saber; árvore de decisão, classificação Bayesiana e redes neurais. Os experimentos demonstram que essa metodologia é simples, eficiente e alcança resultados semelhantes àqueles obtidos pelas principais técnicas para seleção de parâmetros na literatura.Termos para indexação classificação de enzimas,predição de função de proteínas, estruturas de proteínas, banco de dados de proteínas, seleção de parâmetros, métodos para classsificação de dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A análise das séries temporais de valores inteiros tornou-se, nos últimos anos, uma área de investigação importante, não só devido à sua aplicação a dados de contagem provenientes de diversos campos da ciência, mas também pelo facto de ser uma área pouco explorada, em contraste com a análise séries temporais de valores contínuos. Uma classe que tem obtido especial relevo é a dos modelos baseados no operador binomial thinning, da qual se destaca o modelo auto-regressivo de valores inteiros de ordem p. Esta classe é muito vasta, pelo que este trabalho tem como objectivo dar um contributo para a análise estatística de processos de contagem que lhe pertencem. Esta análise é realizada do ponto de vista da predição de acontecimentos, aos quais estão associados mecanismos de alarme, e também da introdução de novos modelos que se baseiam no referido operador. Em muitos fenómenos descritos por processos estocásticos a implementação de um sistema de alarmes pode ser fundamental para prever a ocorrência de um acontecimento futuro. Neste trabalho abordam-se, nas perspectivas clássica e bayesiana, os sistemas de alarme óptimos para processos de contagem, cujos parâmetros dependem de covariáveis de interesse e que variam no tempo, mais concretamente para o modelo auto-regressivo de valores inteiros não negativos com coeficientes estocásticos, DSINAR(1). A introdução de novos modelos que pertencem à classe dos modelos baseados no operador binomial thinning é feita quando se propõem os modelos PINAR(1)T e o modelo SETINAR(2;1). O modelo PINAR(1)T tem estrutura periódica, cujas inovações são uma sucessão periódica de variáveis aleatórias independentes com distribuição de Poisson, o qual foi estudado com detalhe ao nível das suas propriedades probabilísticas, métodos de estimação e previsão. O modelo SETINAR(2;1) é um processo auto-regressivo de valores inteiros, definido por limiares auto-induzidos e cujas inovações formam uma sucessão de variáveis independentes e identicamente distribuídas com distribuição de Poisson. Para este modelo estudam-se as suas propriedades probabilísticas e métodos para estimar os seus parâmetros. Para cada modelo introduzido, foram realizados estudos de simulação para comparar os métodos de estimação que foram usados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As Administrações Portuárias foram evoluindo ao longo do tempo, sendo, atualmente, organismos de capitais exclusivamente públicos. Sendo crescente a competitividade entre os Portos e as exigências em termos de qualidade na prestação de serviços, as Administrações Portuárias têm sentido a necessidade de se moldarem às necessidades dos seus clientes. No presente estudo tentou perceber-se de que modo é que a informação estatística utilizada nos Portos nacionais auxilia na tomada de decisão diária dos administradores. Com vista à concretização do objetivo proposto, foi utilizada uma metodologia qualitativa, tendo a informação sido recolhida através da análise documental e de entrevistas de elite realizadas a administradores portuários. O presente estudo começa por apresentar o percurso dos Portos, expondo a sua evolução e os modelos de gestão utilizados. Posteriormente, são apresentadas as atividades desenvolvidas durante o estágio na Organização de Acolhimento – Administração do Porto de Aveiro, S.A.. De seguida, é realizado o tratamento e análise da informação recolhida através das entrevistas a administradores portuários. Por último, são expostas as considerações finais, de modo a aferir qual a importância da estatística para a gestão portuária, são identificadas as limitações encontradas durante a realização do estudo e feitas propostas de trabalho para o futuro. O estudo mostrou que, apesar de ser apenas uma parte do processo, a estatística é imprescindível para gestão dos Portos, sendo, contudo, primordial que seja desenvolvida para melhorar o processo de tomada de decisão. Algumas das mudanças sugeridas incluem obrigar os concessionários a ceder dados à Autoridade Portuária, definir indicadores globais e dinâmicos a nível nacional que permitam analisar a evolução de cada Porto, fazer benchmarking, e selecionar um conjunto de indicadores internos de performance, para que os administradores possam ter uma visão do passado, do presente e estarem preparados para o que o futuro acarreta. Acredita-se que a análise efetuada no âmbito deste estudo poderá contribuir para que se efetuem pequenas mudanças, no sentido de contribuir para uma melhor utilização da estatística na gestão portuária.