926 resultados para Desempenho de modelos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trata da avaliação do desempenho de modelos alternativos de precificação de ações no mercado de capitais brasileiro. Testamos modelos de risco uni e multifatorial e um modelo comportamental baseado em características.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivou-se desenvolver modelos para prever a concentração de proteína bruta (PB) e a digestibilidade in vitro da matéria seca (DIVMS) deste alimento por meio da espectroscopia NIR avaliando duas formas de preparação da amostra e dois equipamentos NIR. Conclui-se, que modelos desenvolvidos com espectros de vagem de algaroba pré-secas e moídas, tanto em equipamento Perten quanto em FOSS, foram considerados confiáveis e com desempenho superior àqueles desenvolvidos com amostras frescas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A avaliação e gestão do desempenho organizacional são consideradas, atualmente, ferramentas essenciais para a gestão de qualquer empresa, pública ou privada. O setor da saúde não tem estado alheio a esta corrente e muitas são as publicações que apontam as potenciais vantagens associadas à avaliação e gestão de desempenho neste setor como forma de garantir a sustentabilidade das organizações. No entanto, não se conhece qual o estado de implementação dos sistemas de avaliação de desempenho nas organizações prestadoras de cuidados de saúde em Portugal, nem se conhece a perceção dos profissionais sobre a utilidade destes sistemas de avaliação. Esta dissertação procura assim dar um pequeno contributo para esta temática, fazendo um primeiro levantamento sobre o estado da implementação dos sistemas de avaliação de desempenho nos hospitais portugueses. Em específico, neste trabalho, estudamos, entre outros aspetos, qual a percentagem de hospitais e centros hospitalares públicos, privados e em parceria que estão a adotar modelos de avaliação de desempenho, que tipo de modelos estão a ser implementados, que tipo de indicadores estão a ser usados, o grau de eficácia percecionado da avaliação de desempenho, tal como razões subjacentes à não utilização da avaliação de desempenho ou à sua ineficácia. A metodologia usada para dar resposta aos objetivos desta investigação centrou-se no envio de questionários em formato papel para o Conselho de Administração de todos os hospitais e centros hospitalares a operar em Portugal no ano de 2012. Obtivemos uma taxa de resposta global de 58%, englobando os vários tipos de modelos de gestão dos hospitais portugueses. Os resultados obtidos revelam que a maioria dos hospitais da nossa amostra (87,5%) procede à avaliação de desempenho e que a utiliza como uma ferramenta de gestão. A minoria dos hospitais que não procede à avaliação regular de desempenho (na sua totalidade hospitais privados) aponta como principais justificações, o facto de usar outras ferramentas de controlo, o elevado investimento inicial requerido e a morosidade no processo de implementação. Na maioria dos hospitais que usa a avaliação de desempenho como uma ferramenta de gestão, esta é considerada como fundamental ou importante, permitindo não só a avaliação da organização como um todo, mas também a avaliação dos funcionários e a identificação de erros e medidas corretivas. A minoria dos hospitais que refere alguma ineficácia no sistema de avaliação de desempenho aponta como principais justificações para essa ineficácia, o fraco envolvimento das chefias, a elevada burocracia associada ao processo, a falta de concordância com os indicadores utilizados e a não execução da avaliação de acordo com o que tinha sido planeado inicialmente. Estes resultados são consistentes com os resultados de outros estudos internacionais relativos à implementação de sistemas de avaliação de desempenho em organizações públicas e privadas, e permitem enfatizar, por um lado, o potencial associado à avaliação de desempenho nas organizações prestadoras de cuidados de saúde, e por outro, a importância de não descurar certos aspetos de modo a garantir a sua eficácia.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Os Modelos de Equações Simultâneas (SEM) são modelos estatísticos com muita tradição em estudos de Econometria, uma vez que permitem representar e estudar uma vasta gama de processos económicos. Os estimadores mais usados em SEM resultam da aplicação do Método dos Mínimos Quadrados ou do Método da Máxima Verosimilhança, os quais não são robustos. Em Maronna e Yohai (1997), os autores propõem formas de “robustificar” esses estimadores. Um outro método de estimação com interesse nestes modelos é o Método dos Momentos Generalizado (GMM), o qual também conduz a estimadores não robustos. Estimadores que sofrem de falta de robustez são muito inconvenientes uma vez que podem conduzir a resultados enganadores quando são violadas as hipóteses subjacentes ao modelo assumido. Os estimadores robustos são de grande valor, em particular quando os modelos em estudo são complexos, como é o caso dos SEM. O principal objectivo desta investigação foi o de procurar tais estimadores tendo-se construído um estimador robusto a que se deu o nome de GMMOGK. Trata-se de uma versão robusta do estimador GMM. Para avaliar o desempenho do novo estimador foi feito um adequado estudo de simulação e foi também feita a aplicação do estimador a um conjunto de dados reais. O estimador robusto tem um bom desempenho nos modelos heterocedásticos considerados e, nessas condições, comporta-se melhor do que os estimadores não robustos usados no estudo. Contudo, quando a análise é feita em cada equação separadamente, a especificidade de cada equação individual e a estrutura de dependência do sistema são dois aspectos que influenciam o desempenho do estimador, tal como acontece com os estimadores usuais. Para enquadrar a investigação, o texto inclui uma revisão de aspectos essenciais dos SEM, o seu papel em Econometria, os principais métodos de estimação, com particular ênfase no GMM, e uma curta introdução à estimação robusta.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Os mecanismos que levam ao desempenho superior e, por consequência, os fatores que os explicam, são focos de várias áreas de pesquisa em Administração de Empresas. A decomposição da variabilidade do desempenho vem sendo utilizada para esse fim, inicialmente procurando entender a contribuição de fatores intrínsecos às organizações (efeito empresa) e de fatores relacionados ao setor econômico (efeito setor); mais recentemente outros fatores ganharam interesse, como é o caso das contribuições da corporação e do país para o desempenho. Esta tese introduziu um novo fator aos estudos de decomposição da variabilidade do desempenho: o efeito cadeia de suprimentos, quantificando a influência da afiliação a uma determinada cadeia para o desempenho da empresa. Outra contribuição desta tese é o amplo mapeamento da estrutura de variância de desempenho das empresas brasileiras, expandindo pesquisas anteriores em termos de tamanho de amostra, método de análise mais adequado (modelagem multinível) e dimensões de desempenho utilizadas. As análises empíricas consideraram indicadores de lucro e de crescimento, com a amostra mais ampla contendo 592.905 observações de 77.468 empresas brasileiras e 485 setores de negócios, em um período de 10 anos. Os dados foram obtidos das bases de dados das pesquisas econômicas estruturais do Instituto Brasileiro de Geografia e Estatística (IBGE). Modelos de 3 níveis – observações de desempenho, empresas e setores – mostraram que o efeito empresa individual responde pela maior parcela da variância do desempenho; esses modelos também apontaram para características peculiares da realidade brasileira, como as diferenças das estruturas de variância quando os diversos setores são analisados separadamente, principalmente em termos da intensidade do efeito setor – mais relevante, por exemplo, para as empresas de serviços do que para as empresas dos demais setores – e como as diferenças nas estruturas de variância para as diversas regiões do Brasil, sendo as empresas das regiões Norte, Nordeste e Centro-Oeste mais dependentes da contribuição do setor para seu desempenho do que as empresas da região Sul e Sudeste. Ao se introduzir um quarto nível – a cadeia de suprimentos – ao modelo, foi possível identificar que a magnitude do efeito cadeia alcança entre 15% a 25% da variabilidade explicada, medida pela raiz quadrada dos componentes de variância, representando cerca de 50% a 90% da magnitude do efeito setor. Além de evidenciar a importância da gestão das cadeias de suprimentos, os achados apontam para uma nova compreensão do efeito setor, já que indicam que os benefícios tradicionalmente atribuídos ao setor econômico são em parte decorrentes da afiliação da empresa a uma determinada cadeia, e não à similaridade das atividades que ela compartilha com outras empresas do mesmo setor.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Levando em conta a necessidade de implantar medidas que orientem a melhoria contínua da qualidade da assistência prestada pelas instituições de saúde e hospitais brasileiros, independentemente de perfil, porte, entidade mantenedora, complexidade e vinculação institucional, e admitindo que o processo de acreditação hospitalar é um modelo aproximado de consenso e racionalização para as instituições de saúde, especialmente na educação continuada dos profissionais, a fim de garantir a qualidade da assistência por meio de padrões previamente estabelecidos, este estudo procura responder a seguinte questão: Como a gestão da qualidade pode impactar no desempenho de organizações hospitalares? Para encontrar a resposta, parte-se de uma fundamentação teórica que analisou organização hospitalar e desempenho e modelos de avaliação de desempenho organizacional. Entre estes, os modelos de gestão da qualidade na saúde; avaliação em saúde; modelos de acreditação e certificação em saúde, processos de avaliação de desempenho em saúde e prêmios da qualidade. A metodologia consistiu da aplicação de questionários, desenhados com base em levantamento bibliográfico, a diretores e gerentes de instituições acreditadas e da realização de entrevistas com profissionais que trabalham diretamente com gestão da qualidade nesses hospitais. Buscou-se dessa forma avaliar o desempenho de organizações acreditadas utilizando a metodologia dos prêmios da qualidade baseados em fundamentos de excelência com padrões culturais e internalizados em organizações de classe mundial e reconhecidos internacionalmente. Concluiu-se que a acreditação favorece a mensuração de seus resultados, o aprimoramento da gestão de indicadores, como também a padronização e o incentivo para a melhoria continua. Porém, o fato de ser acreditado não garante bons resultados em todos os critérios de excelência do modelo PNQ. Outras variáveis podem interferir no alcance de bons resultados, como a própria gestão das grandes operadoras de saúde, a associação com instituições de excelência e o reconhecimento por outros selos.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A análise de um modelo de erosão é um crítico passo no desenvolvimento de uma ferramenta de predição da erosão aplicável e válida; isso é crucial para avaliar o desempenho dos modelos existentes para assegurar que as estimativas de um modelo condizem com a realidade. O objetivo do presente trabalho foi avaliar modelos para a predição do subfator cobertura e manejo (CiII) relativo à erosão entressulcos. Um experimento fatorial completo foi conduzido com cinco doses de resíduo de milho (0; 0,05; 0,15; 0,40 e 0,80 kg m-2), quatro declives e duas repetições, sob condições de prévio umedecimento para determinar as taxas de erosão entressulcos (Di) e enxurrada (R). Num primeiro experimento, foi avaliada a erodibilidade entressulcos (Ki) e o subfator cobertura e manejo (CiII), em parcelas experimentais de 0,5 x 0,75 m, em solo recentemente preparado. Num segundo experimento, foram avaliados Di, R, Ki e CiII, também em parcelas de 0,5 x 0,75 m, em solo recém- preparado. Os valores de Di, R, Ki e CiII, obtidos no segundo experimento, foram utilizados na avaliação dos modelos testados. Os modelos CiII = e-2,50 CS/100 e CiII = e -2,238 CS/100 apresentaram boas estimativas para o subfator CiII.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar o desempenho de modelos isotrópicos de estimativa do total de radiação incidente em superfícies inclinadas e propor estimativas com base nas correlações entre os índices de claridade horizontais e inclinados, em diferentes condições de cobertura de céu, em Botucatu, SP. Foram avaliadas superfícies com inclinação de 12,85º, 22,85º e 32,85º, pelos modelos isotrópicos propostos por Liu & Jordan, Revfeim, Jimenez & Castro, Koronakis, a teoria Circunsolar, e a correlação entre os índices de claridade horizontais e inclinados, para diferentes condições de cobertura de céu. O banco de dados de radiação global utilizado corresponde ao período de 1998 a 2007, com intervalos de 4/1998 a 8/2001 para a inclinação de 22,85º, de 9/2001 a 2/2003 para 12,85º e de 1/2004 a 12/2007 para 32,85º. O desempenho dos modelos foi avaliado pelos indicadores estatísticos erro absoluto médio, raiz quadrada do quadrado médio do erro e índice d de Wilmott. Os modelos de Liu & Jordan, Koronakis e de Revfeim apresentaram os melhores desempenhos em dias nublados, em todas as inclinações. As coberturas de céu parcialmente difuso e parcialmente aberto, nos maiores ângulos de inclinação, apresentaram as maiores dispersões entre valores estimados e medidos, independentemente do modelo. As equações estatísticas apresentaram bons resultados em aplicações com agrupamentos de dados mensais.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A practical approach to estimate rock thermal conductivities is to use rock models based just on the observed or expected rock mineral content. In this study, we evaluate the performances of the Krischer and Esdorn (KE), Hashin and Shtrikman (HS), classic Maxwell (CM), Maxwell-Wiener (MW), and geometric mean (GM) models in reproducing the measures of thermal conductivity of crystalline rocks.We used 1,105 samples of igneous and metamorphic rocks collected in outcroppings of the Borborema Province, Northeastern Brazil. Both thermal conductivity and petrographic modal analysis (percent volumes of quartz, K-feldspar, plagioclase, and sum of mafic minerals) were done. We divided the rocks into two groups: (a) igneous and ortho-derived (or meta-igneous) rocks and (b) metasedimentary rocks. The group of igneous and ortho-derived rocks (939 samples) covers most the lithologies de_ned in the Streckeisen diagram, with higher concentrations in the fields of granite, granodiorite, and tonalite. In the group of metasedimentary rocks (166 samples), it were sampled representative lithologies, usually of low to medium metamorphic grade. We treat the problem of reproducing the measured values of rock conductivity as an inverse problem where, besides the conductivity measurements, the volume fractions of the constituent minerals are known and the effective conductivities of the constituent minerals and model parameters are unknown. The key idea was to identify the model (and its associated estimates of effective mineral conductivities and parameters) that better reproduces the measures of rock conductivity. We evaluate the model performances by the quantity  that is equal to the percentage of number of rock samples which estimated conductivities honor the measured conductivities within the tolerance of 15%. In general, for all models, the performances were quite inferior for the metasedimentary rocks (34% <  < 65%) as compared with the igneous and ortho-derived rocks (51% <  < 70%). For igneous and ortho-derived rocks, all model performances were very similar ( = 70%), except the GM-model that presented a poor performance (51% <  < 65%); the KE and HS-models ( = 70%) were slightly superior than the CM and MW-models ( = 67%). The quartz content is the dominant factor in explaining the rock conductivity for igneous and ortho-derived rocks; in particular, using the MW-model the solution is in practice vi UFRN/CCET– Dissertação de mestrado the series association of the quartz content. On the other hand, for metasedimentary rocks, model performances were different and the performance of the KEmodel ( = 65%) was quite superior than the HS ( = 53%), CM (34% <  < 42%), MW ( = 40%), and GM (35% <  < 42%). The estimated effective mineral conductivities are stable for perturbations both in the rock conductivity measures and in the quartz volume fraction. The fact that the metasedimentary rocks are richer in platy-minerals explains partially the poor model performances, because both the high thermal anisotropy of biotite (one of the most common platy-mineral) and the difficulty in obtaining polished surfaces for measurement coupling when platyminerals are present. Independently of the rock type, both very low and very high values of rock conductivities are hardly explained by rock models based just on rock mineral content.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A avaliação de desempenho docente tem sido considerada o alfa e o ômega dos sistemas educativos, nas últimas décadas. Em Portugal, desde 2007, esta questão tornou-se mais acutilante devido às alterações introduzidas no Estatuto da Carreira Docente que originaram uma alteração profunda nas práticas de avaliação do desempenho docente. A implementação do novo modelo despoletou forte resistência por parte destes profissionais, alimentada por uma base concetual distante da realidade das escolas portuguesas e por tibiezas na execução do processo de avaliação. O principal objetivo deste estudo consistiu em apresentar os contributos de professores para um modelo de avaliação do desempenho docente, assumindo as expetativas e as perceções destes profissionais como referente imprescindível para a sustentabilidade avaliativa do modelo. Para além disso, procedeu-se a uma breve descrição e avaliação do modelo de avaliação docente, implementado entre 2007 e 2011, recuperando perceções depuradas pelo tempo. O estudo, descritivo e inferencial, conciliou abordagens de natureza quantitativa e qualitativa, tendo recorrido a um questionário, aplicado a 585 docentes em funções no Algarve, e à entrevista, realizada a quatro informadores privilegiados do processo avaliativo. Os resultados alcançados apontaram para i) de um conjunto de pareceres favoráveis face a alguns aspetos do modelo de avaliação vigente entre 2007 e 2011; ii) uma avaliação globalmente negativa do mesmo modelo, iii) a definição de componentes das diferentes dimensões de modelo avaliativo, onde se identificou a preponderância da vertente formativa; a articulação da avaliação dos docentes com a avaliação de escola e com outros documentos de gestão escolar; a coincidência dos ciclos avaliativos com a progressão na carreira; a autoavaliação como principal instrumento de recolha de dados; a observação facultativa de aulas; a existência de avaliadores com formação em supervisão ou avaliação e capacitados com um perfil adequado; e o uso dos resultados da avaliação para a melhoria das práticas letivas e para a progressão na carreira, sendo ainda de considerar a possibilidade de acionar mecanismos de recuperação, caso existissem indicadores de insucesso na prática profissional do docente. O estudo termina com o enunciado de recomendações para a reconceptualização do modelo de avaliação dos docentes, permitindo reconhecer e eliminar os fatores conflituantes, tendo em vista a concretização da avaliação docente como estratégia impulsionadora da melhoria do desempenho dos professores, da escola e do sistema educativo. Palavras-chave: avaliação educacional; avaliação de desempenho docente; modelos de avaliação de desempenho docente; desenvolvimento profissional do professor, educadores e professores dos ensinos básico e secundário; ABSTRACT:Teacher performance appraisal has been considered the alpha and omega of educational systems in recent decades. In Portugal, since 2007, this issue has become more incisive due to amendments to the Teaching Career Statute that brought deep changes in assessment practices of teacher performance. The application of the new system has triggered strong resistance by these professionals, powered by a distant conceptual basis of the reality of Portuguese schools and weaknesses in the implementation of the appraisal process. The aim of this study is to present the teachers contributions to this teacher performance appraisal model, taking the expectations and perceptions of these professionals as an essential reference for the sustainability of the appraisal process. In addition, a brief description and evaluation of the teacher performance appraisal model, implemented between 2007 and 2011, was given, recovering perceptions filtered by time. The study, descriptive and inferential, reconciled quantitative and qualitative approaches, has used a questionnaire applied to 585 teachers serving on the Algarve, and an interview to four held key informants of the teacher appraisal process. The achieved results showed i) a set of favorable opinions about some aspects of the current evaluation model between 2007 and 2011; ii) a generally negative evaluation of the same model, iii) the definition of components of different dimensions of the appraisal system, which showed preponderance of formative purposes; the joint assessment of teachers with school evaluation and other school management documents; the coincidence of the evaluation cycles with career advancement; self-evaluation as the main data collection instrument; the optional classroom observation; the existence of evaluators under supervision in training or evaluation and empowered with the right profile; and the use of evaluation results to improve teaching practices and to career advancement, still considering the possibility of using recovery mechanisms if there were failure indicators in professional teaching practice. The study ends with the statement of recommendations for the reconceptualization of teacher performance appraisal, which allowed to recognize and eliminate conflicting factors, with a view to implementing the teaching appraisal as a compelling strategy for improving teacher performance, school and educational system. Keywords: educational evaluation; teacher performance appraisal; teacher performance appraisal systems; teacher professional development; early years teachers, primary and secondary school teachers.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A Lontra Euroasiática foi alvo de quatro prospeções na Península Ibérica (1990-2008). Em 2003, foi publicado um modelo de distribuição da lontra, com base nos dados de presença/ausência das prospeções publicadas em 1998. Dadas as suas características, este tipo de modelos pode tornar-se um elemento chave nas estratégias de recuperação da lontra como também, de outras espécies, se comprovada a sua fiabilidade e capacidade de antecipar tendências na distribuição das mesmas. Assim, esta dissertação confrontou as previsões do modelo com os dados de distribuição de 2008, a fim de identificar potências áreas de discordância. Os resultados revelam que, o modelo de distribuição de lontra proposto, apesar de ter por base dados de 1998 e de não considerar explicitamente processos biológicos, conseguiu captar o essencial da relação espécie-ambiente, resultando num bom desempenho preditivo para a distribuição da mesma em Espanha, uma década depois da sua construção; Evolution of otter (Lutra lutra L.) distribution in the Iberian Peninsula: Models at different scales and their projection through space and time Abstract: The Eurasian otter was already surveyed four times in the Iberian Peninsula (1990-2008). In 2003, a distribution model for the otter based on presence/absence data from the survey published in 1998, was published. This type of models has advantages that can make it in a key element for otter conservation strategies and also, for other species, but only, if their reliability and capability to predict species distribution tendencies are validated. The present thesis compares the model predictions with 2008 data, in order to find potential mismatch areas. Results suggest that, although the distribution model for the otter was based on data from 1998 and, doesn’t include explicitly biological mechanisms, it managed to correctly identify the essence of the species-environment relationship, what was translated in a good predictive performance for its actual distribution in Spain, after a decade of its construction.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Um dos grandes desafios enfrentados pela indústria do petróleo é reduzir o impacto causado pela cristalização indesejável de hidrocarbonetos parafínicos de elevada massa molar em tubulações e equipamentos de produção. A cristalização de parafinas em petróleo é normalmente detectada através da determinação da temperatura inicial de aparecimento de cristais (TIAC), que pode ser estimada através de modelagem termodinâmica com base na composição do petróleo. Os objetivos deste trabalho são: estudar os principais modelos termodinâmicos adotados para descrever a precipitação de parafinas; verificar a validade desses modelos para os petróleos brasileiros e determinar qual modelo é o mais adequado para esses óleos. Para tanto, três formas de cálculo da razão entre as fugacidades das fases sólida e líquida e cinco modelos para calcular os coeficientes de atividade dos componentes em cada fase são aplicados aos dados de composição de vinte e três petróleos brasileiros. Os resultados mostram que o modelo ideal de múltiplas fases sólidas e o modelo de Escobar-Remolina geram valores bastante abaixo da TIAC experimental. Para os modelos de única fase sólida ideal, de Won e de Coutinho, foi possível observar que: a) a grande maioria dos erros é negativa; b) que estes se distribuem melhor em torno de zero quando se utiliza a correlação de Coutinho para o cálculo dos valores de i; c) os valores de erro médio para os modelos de Coutinho, de Won e ideal com única fase sólida se equivalem, qualquer que seja o modelo utilizado para o cálculo de i, exceto para o caso em que todos os compostos presentes na fase líquida podem precipitar; d) os valores obtidos através do modelo de Coutinho apresentam erro sistemático em relação ao modelo ideal de única fase sólida; e) as diferentes formas de se calcular a razão entre as fugacidades da fase sólida e líquida (i) influenciam fortemente a capacidade preditiva dos modelos, o que não era esperado; f) o perfil do primeiro cristal formado nos petróleos é influenciado pelas moléculas mais pesadas presentes nos resíduos, o que mostra a necessidade de se desenvolver metodologias precisas e robustas de caracterização de resíduos; g) a inclusão de uma estimativa para a composição dos resíduos efetivamente melhorou o desempenho dos modelos em petróleos médio; h) em petróleos pesados, houve um aumento do erro de previsão da TIAC devido à pouca ou nenhuma quantidade de parafinas nos resíduos desses óleos. A necessidade de uma melhor caracterização dos resíduos de petróleos é corroborada pelo fato da TIAC calculada pelos modelos ser, via de regra, mais baixa que a TIAC experimental e pela melhora no desempenho dos modelos quando se estimou a composição dos resíduos, em petróleos médios

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The main objective of this work was to monitor a set of physical-chemical properties of heavy oil procedural streams through nuclear magnetic resonance spectroscopy, in order to propose an analysis procedure and online data processing for process control. Different statistical methods which allow to relate the results obtained by nuclear magnetic resonance spectroscopy with the results obtained by the conventional standard methods during the characterization of the different streams, have been implemented in order to develop models for predicting these same properties. The real-time knowledge of these physical-chemical properties of petroleum fractions is very important for enhancing refinery operations, ensuring technically, economically and environmentally proper refinery operations. The first part of this work involved the determination of many physical-chemical properties, at Matosinhos refinery, by following some standard methods important to evaluate and characterize light vacuum gas oil, heavy vacuum gas oil and fuel oil fractions. Kinematic viscosity, density, sulfur content, flash point, carbon residue, P-value and atmospheric and vacuum distillations were the properties analysed. Besides the analysis by using the standard methods, the same samples were analysed by nuclear magnetic resonance spectroscopy. The second part of this work was related to the application of multivariate statistical methods, which correlate the physical-chemical properties with the quantitative information acquired by nuclear magnetic resonance spectroscopy. Several methods were applied, including principal component analysis, principal component regression, partial least squares and artificial neural networks. Principal component analysis was used to reduce the number of predictive variables and to transform them into new variables, the principal components. These principal components were used as inputs of the principal component regression and artificial neural networks models. For the partial least squares model, the original data was used as input. Taking into account the performance of the develop models, by analysing selected statistical performance indexes, it was possible to conclude that principal component regression lead to worse performances. When applying the partial least squares and artificial neural networks models better results were achieved. However, it was with the artificial neural networks model that better predictions were obtained for almost of the properties analysed. With reference to the results obtained, it was possible to conclude that nuclear magnetic resonance spectroscopy combined with multivariate statistical methods can be used to predict physical-chemical properties of petroleum fractions. It has been shown that this technique can be considered a potential alternative to the conventional standard methods having obtained very promising results.