996 resultados para Mínimos quadrados parciais
Resumo:
Reatores tubulares de polimerização podem apresentar um perfil de velocidade bastante distorcido. Partindo desta observação, um modelo estocástico baseado no modelo de dispersão axial foi proposto para a representação matemática da fluidodinâmica de um reator tubular para produção de poliestireno. A equação diferencial foi obtida inserindo a aleatoriedade no parâmetro de dispersão, resultando na adição de um termo estocástico ao modelo capaz de simular as oscilações observadas experimentalmente. A equação diferencial estocástica foi discretizada e resolvida pelo método Euler-Maruyama de forma satisfatória. Uma função estimadora foi desenvolvida para a obtenção do parâmetro do termo estocástico e o parâmetro do termo determinístico foi calculado pelo método dos mínimos quadrados. Uma análise de convergência foi conduzida para determinar o número de elementos da discretização e o modelo foi validado através da comparação de trajetórias e de intervalos de confiança computacionais com dados experimentais. O resultado obtido foi satisfatório, o que auxilia na compreensão do comportamento fluidodinâmico complexo do reator estudado.
Resumo:
Estudo radiométrico em sedimentos com posição estratigráfica conhecida, das Bacias do Paraná e do Amazonas, permite estabelecer critérios de seleção de amostras e procedimentos experimentais adequados para a obtenção de idades significativas. Foram efetuadas 120 determinações Rb-Sr e 44 K-Ar. As idades K-Ar foram empregadas essencialmente para auxiliar a interpretação dos dados Rb-Sr. As interpretações Rb-Sr foram efetuadas mediante gráficos com linhas isócronas. Na avaliação estatística dos dados, o método usual dos mínimos quadrados, revelou-se deficiente na estimação dos parâmetros, em alguns exemplos testados. Na presente investigação, a melhor isócrona em cada caso foi definida levando-se em conta uma ponderação adequada para os pontos e uma correlação entre os erros específica e conveniente. A formação Ponta Grossa foi estudada em 8 amostras provenientes de testemunhos de 5 sondagens da Petrobrás S. A. na Bacia do Paraná. Os resultados obtidos em pelo menos 2 deles são concordantes com a idade estratigráfica. Nos outros 2 poços, apesar dos poucos dados, as isócronas mostram uma possível concordância, indicando que a diagênese teria ocorrido logo após a sedimentação marinha. A formação Rio Bonito, estudada em 8 amostras do poço TV-4-SC, apresentou 3 isócronas aproximadamente paralelas, com idades mais ou menos semelhantes e concordantes com a idade estratigráfica. Tal comportamento indicaria uma homogeneização isotópica mesmo entre as frações grosseiras. Dentre as amostras estudadas na Bacia do Paraná, os sedimentos da Formação Itararé foram os únicos que não puderam ser interpretados adequadamente. Isto evidenciou que as isócronas Rb-Sr devem ser restritas a rochas de apenas um determinado tipo litológico, quando examinamos Formações como a Itataré, de ambientes variados (fluvial, lacustre, glacial, marinho). A formação Trombetas foi estudada em 7 amostras de 2 poços localizados no Médio Amazonas. Ambas as isócronas obtidas, indicando idade ordoviciana-siluriana permitem supor que houve apenas uma homogeneização isotópica parcial após a deposição. Os dados podem ser considerados concordantes se forem levados em conta os erros experimentais das isócronas. As Formações Maecuru e Ereré foram estudadas em 6 amostras do poço MS-4-AM. A litologia desfavorável das 4 amostras da Formação Ereré (Membro Ariramba), levaram o autor a definir uma "isócrona mínima", cuja idade revelou-se próxima da admitida estratigraficamente. A Formação Maecuru (Membro Jatapu), estudada em 2 arenitos arcozianos, apesar do material não ser considerado satisfatório para datações, evidenciaram uma isócrona de referência cuja idade é compatível com a situação estratigráfica. A Formação Curuá foi analisada em 3 amostras do poço NA-1-PA. Tanto as rochas totais como as frações situaram-se sobre uma isócrona de referência cuja idade calculada apresentou concordância, com a idade estratigráfica, dentro do erro experimental. A boa correlação linear verificada leva a admitir uma diagênese precoce, acompanhada de equilíbrio entre os isótopos de Sr. A Formação Itaituba foi investigada em 7 amostras de 2 poços, situados um de cada lado do Alto de Purus. Os folhetos evidenciaram grande dispersão dos pontos sobre o diagrama Rb87/Sr86 x Sr87/Sr86, devida a teores variáveis de minerais detríticos difíceis de serem identificados petrograficamente. Novamente foi traçada uma "isócrona mínima" da qual participaram materiais calcíferos. As idades identicas, bem como a concordância com a idade estratigráfica da formação, parecem demonstrar a validade da técnica empregada. Os dados do presente trabalho indicam que rochas sedimentares podem ser datadas pelo método Rb-Sr, desde que sejam obedecidos alguns critérios importantes de seleção do material. Além disso devem ser empregadas técnicas apropriadas, tais como separação ) granulométrica de frações menores que 2 ou 4 μ, ou lixiaviação com HCl. As isócronas a serem traçadas, as quais indicariam a época da diagênese, devem incluir material de litologia semelhante, de um só ambiente de formação. As análises K-Ar podem servir como dados auxiliares, principalmente para avaliar a quantidade de material detrítico existente no sistema.
Resumo:
Neste trabalho foi desenvolvida uma investigação experimental com o objetivo de ampliar o conhecimento sobre caracterização tecnológica de materiais de construção, com ênfase no aspecto da alternabilidade. Foram estudadas rochas de 15 localidades representando os seguintes 11 tipos litológicos: basalto compacto, basalto vesicular, basalto microvesicular, diabásio, quartzito, calcário, granito, charnockito, piroxenito, migmatitoe arenito. Os ensaios de laboratório foram conduzidos em corpos de prova cilídricos, cúbicos e britados obtidos a partir das amostras enviadas, para determinação dos seguintes índices: massa específica aparente, porosidade aparente, absorção, abrasão Los Angeles, resistência ao impacto em corpos de prova regulares, resistência ao impacto Treton, resistência ao esmagamento, resistência à compressão simples axial, índice escleromético, resistência ao desgaste a úmido e durabilidade. Foram executados quase 3000 ensaios para obtenção de índices fisicomecânicos e de durabilidade, por um período de aproximadamente 2 anos. Todos os ensaios foram efetuados em amostras inicialmente lavadas, secas em estufa a 100-110°C por aproximadamente 10 horas e posteriormente, esfriadas à temperatura ambiente durante pelo menos 2-3 horas, antes de cada ensaio. Os seguintes ensaios novos foram introduzidos: índice esclerométrico, impacto em corpos de prova moldados e desgaste úmido, com discussões a respeito de sua aplicabilidade. Os resultados de cada grupo de corpos de prova em diferentes rochas, para estes ensaios novos, foram submetidos à análise estatística para obtenção de valores médios e coeficientes de variação para determinar a precisão e o número de ensaios necessários para cada uma destas propriedades. Os resultados médios foram submetidos à correlação estatística e análises de regressão pelo método dos mínimos quadrados, para os quais foram determinados os coeficientes de correlação ) simples, erros padrão de estimativa e relações funcionais para cada par selecionado de variáveis. Estas relações foram apresentadas graficamente para comparação visual com os correspondentes resultados de ensaios. A partir dos resultados obtidos quanto à precisão e reprodutibilidade dos ensaios e verificada sua aplicabilidade, foram elaboradas propostas para métodos de ensaios. Os ensaios de durabilidade, que constituem a segunda parte deste trabalho, foram executados nas rochas acima mencionadas, cujas amostras foram submetidas a ciclos sucessivos de, saturação em solução de sulfato e secagem em estufa, saturação em etilenoglicol e secagem em estufa, saturação em água e secagem em estufa, lixiviação contínua no exterior Soxhlet e exposição natural, em 2 séries de ensaios. A primeira série consistiu na comparação de processos de alteração e a segunda série, na investigação do comportamento mecânico dos materiais rochosos face a diferentes condições fisicoquímicas de alteração artificial e natural. P parâmetro mecânico utilizado neste caso, foi a resistência ao impacto Treton. Os resultados obtidos na primeira série, foram submetidos à análise de regressão, obtendo-se gráficos de comparação de linhas teóricas de velocidades de alteração pelos diferentes processos e, gráficos mostrando a influência do fator de escala no processo de alteração. Os resultados da segunda série de ensaios, permitiram estabelecer 2 parâmetros numéricos: queda percentual de resistência mecânica e coeficiente de alterabilidade específica, que refletem a suscetibilidade das rochas a estes diferentes processos de alteração. A correlação estatística, entre estes parâmetros numéricos da alteração e a relação entre as tensões máximas de ruptura, no estado saturado e no estado seco, do ensaio de compressão simples axial, indicou ser esta relação, um índice promissor da alterabilidade de rochas. Finalmente, discutida a validade ) destes índices, tendo em vista os resultados encontrados e a ausência na literatura de procedimentos adequados, que permitam classificar as rochas quanto ao comportamento mecânico face à alteração natural ou artificial, foram elaboradas propostas de métodos de ensaios, que poderão preencher esta lacuna.
Resumo:
The increasing economic competition drives the industry to implement tools that improve their processes efficiencies. The process automation is one of these tools, and the Real Time Optimization (RTO) is an automation methodology that considers economic aspects to update the process control in accordance with market prices and disturbances. Basically, RTO uses a steady-state phenomenological model to predict the process behavior, and then, optimizes an economic objective function subject to this model. Although largely implemented in industry, there is not a general agreement about the benefits of implementing RTO due to some limitations discussed in the present work: structural plant/model mismatch, identifiability issues and low frequency of set points update. Some alternative RTO approaches have been proposed in literature to handle the problem of structural plant/model mismatch. However, there is not a sensible comparison evaluating the scope and limitations of these RTO approaches under different aspects. For this reason, the classical two-step method is compared to more recently derivative-based methods (Modifier Adaptation, Integrated System Optimization and Parameter estimation, and Sufficient Conditions of Feasibility and Optimality) using a Monte Carlo methodology. The results of this comparison show that the classical RTO method is consistent, providing a model flexible enough to represent the process topology, a parameter estimation method appropriate to handle measurement noise characteristics and a method to improve the sample information quality. At each iteration, the RTO methodology updates some key parameter of the model, where it is possible to observe identifiability issues caused by lack of measurements and measurement noise, resulting in bad prediction ability. Therefore, four different parameter estimation approaches (Rotational Discrimination, Automatic Selection and Parameter estimation, Reparametrization via Differential Geometry and classical nonlinear Least Square) are evaluated with respect to their prediction accuracy, robustness and speed. The results show that the Rotational Discrimination method is the most suitable to be implemented in a RTO framework, since it requires less a priori information, it is simple to be implemented and avoid the overfitting caused by the Least Square method. The third RTO drawback discussed in the present thesis is the low frequency of set points update, this problem increases the period in which the process operates at suboptimum conditions. An alternative to handle this problem is proposed in this thesis, by integrating the classic RTO and Self-Optimizing control (SOC) using a new Model Predictive Control strategy. The new approach demonstrates that it is possible to reduce the problem of low frequency of set points updates, improving the economic performance. Finally, the practical aspects of the RTO implementation are carried out in an industrial case study, a Vapor Recompression Distillation (VRD) process located in Paulínea refinery from Petrobras. The conclusions of this study suggest that the model parameters are successfully estimated by the Rotational Discrimination method; the RTO is able to improve the process profit in about 3%, equivalent to 2 million dollars per year; and the integration of SOC and RTO may be an interesting control alternative for the VRD process.
Resumo:
Dissertação, Mestrado, Contabilidade e Fiscalidade, Instituto Politécnico de Santarém, Escola Superior de Gestão e Tecnologia, 2016
Resumo:
O presente estudo visa à análise da relação entre as capacidades, conforme definidas por Brinkerhoff (2010), e a performance das Cortes de Contas brasileiras. As capacidades no atual estudo se referem à quantidade de funcionários de cada Tribunal de Contas, seu orçamento, percentual de servidores do seu quadro efetivo e cumprimento das normas constitucionais quanto a sua formação. A performance foi medida pelas variáveis: “Produtividade”, ou o número de processos julgados ou apreciados pelos Ministros ou Conselheiros; “Iniciativa”, ou seja, quantidade de fiscalizações in loco realizadas; “Valor das multas e débitos imputados”, entendidas como a propensão a punir das Cortes de Contas; e “Grau de rejeição das contas de governo”, que é definida como a razão do número de pareceres prévios rejeitando as contas de governo pelo total de pareceres emitidos. A atual pesquisa parte do estudo de Melo, Pereira e Figueiredo (2009) - que identifica diversas relações entre a estrutura dos Tribunais de Contas e sua atuação - propondo novas variáveis para uma análise mais ampla e real da performance das Cortes de Contas. As hipóteses do estudo foram testadas por meio de regressão estatística utilizando o método de mínimos quadrados. Os dados foram coletados diretamente dos Tribunais de Contas. Os testes realizados confirmaram que a quantidade de recursos humanos de cada Corte influencia positivamente todas as variáveis de performance referidas anteriormente, e que quanto maior o orçamento de cada Tribunal maior sua produtividade, sua iniciativa e o valor das multas e débitos imputados. O presente estudo também comprovou que quanto maior o percentual de servidores do quadro efetivo da Corte de Contas, maior é sua produtividade, o que corrobora as teorias de Evans (2004). A partir dos dados coletados na pesquisa, foi possível verificar que o percentual médio de servidores efetivos nas Corte de Contas é de 69% enquanto nas Cortes Judiciárias esse percentual é de 89%. Isso mostra que há bastante margem para aumento da produtividade dos órgãos de contas. Conclui-se que quanto mais recursos financeiros e humanos disponíveis, e quanto maior o percentual de servidores concursados, mais os Tribunais de Contas são produtivos, sancionadores e proativos.
Resumo:
A Administração Financeira surge no início do século XIX juntamente com o movimento de consolidação das grandes empresas e a formação dos mercados nacionais americano enquanto que no Brasil os primeiros estudos ocorrem a partir da segunda metade do século XX. Desde entãoo país conseguiu consolidar alguns centros de excelência em pesquisa, formar grupo significativo de pesquisadores seniores e expandir as áreas de pesquisa no campo, contudo, ainda são poucos os trabalhos que buscam retratar as características da produtividade científica em Finanças. Buscando contribuir para a melhor compreensão do comportamento produtivo dessa área a presente pesquisa estuda sua produção científica, materializada na forma de artigos digitais, publicados em 24 conceituados periódicos nacionais classificados nos estratos Qualis/CAPES A2, B1 e B2 da Área de Administração, Ciências Contábeis e Turismo. Para tanto são aplicadas a Lei de Bradford, Lei do Elitismo de Price e Lei de Lotka. Pela Lei de Bradford são identificadas três zonas de produtividade sendo o núcleo formado por três revistas, estando uma delas classificada no estrato Qualis/CAPES B2, o que evidencia a limitação de um recorte tendo como único critério a classificação Qualis/CAPES. Para a Lei do Elitismo de Price, seja pela contagem direta ou completa, não identificamos comportamento de uma elite semelhante ao apontado pela teoria e que conta com grande número de autores com apenas uma publicação.Aplicando-se o modelo do Poder Inverso Generalizado, calculado por Mínimos Quadrados Ordinários (MQO), verificamos que produtividade dos pesquisadores, quando feita pela contagem direta, se adequa àquela definida pela Lei de Lotka ao nível de α = 0,01 de significância, contudo, pela contagem completa não podemos confirmar a hipótese de homogeneidade das distribuições, além do fato de que nas duas contagens a produtividade analisada pelo parâmetro n é maior que 2 e, portanto, a produtividade do pesquisadores de finanças é menor que a defendida pela teoria.
Resumo:
The modern industrial progress has been contaminating water with phenolic compounds. These are toxic and carcinogenic substances and it is essential to reduce its concentration in water to a tolerable one, determined by CONAMA, in order to protect the living organisms. In this context, this work focuses on the treatment and characterization of catalysts derived from the bio-coal, by-product of biomass pyrolysis (avelós and wood dust) as well as its evaluation in the phenol photocatalytic degradation reaction. Assays were carried out in a slurry bed reactor, which enables instantaneous measurements of temperature, pH and dissolved oxygen. The experiments were performed in the following operating conditions: temperature of 50 °C, oxygen flow equals to 410 mL min-1 , volume of reagent solution equals to 3.2 L, 400 W UV lamp, at 1 atm pressure, with a 2 hours run. The parameters evaluated were the pH (3.0, 6.9 and 10.7), initial concentration of commercial phenol (250, 500 and 1000 ppm), catalyst concentration (0, 1, 2, and 3 g L-1 ), nature of the catalyst (activated avelós carbon washed with dichloromethane, CAADCM, and CMADCM, activated dust wood carbon washed with dichloromethane). The results of XRF, XRD and BET confirmed the presence of iron and potassium in satisfactory amounts to the CAADCM catalyst and on a reduced amount to CMADCM catalyst, and also the surface area increase of the materials after a chemical and physical activation. The phenol degradation curves indicate that pH has a significant effect on the phenol conversion, showing better results for lowers pH. The optimum concentration of catalyst is observed equals to 1 g L-1 , and the increase of the initial phenol concentration exerts a negative influence in the reaction execution. It was also observed positive effect of the presence of iron and potassium in the catalyst structure: betters conversions were observed for tests conducted with the catalyst CAADCM compared to CMADCM catalyst under the same conditions. The higher conversion was achieved for the test carried out at acid pH (3.0) with an initial concentration of phenol at 250 ppm catalyst in the presence of CAADCM at 1 g L-1 . The liquid samples taken every 15 minutes were analyzed by liquid chromatography identifying and quantifying hydroquinone, p-benzoquinone, catechol and maleic acid. Finally, a reaction mechanism is proposed, cogitating the phenol is transformed into the homogeneous phase and the others react on the catalyst surface. Applying the model of Langmuir-Hinshelwood along with a mass balance it was obtained a system of differential equations that were solved using the Runge-Kutta 4th order method associated with a optimization routine called SWARM (particle swarm) aiming to minimize the least square objective function for obtaining the kinetic and adsorption parameters. Related to the kinetic rate constant, it was obtained a magnitude of 10-3 for the phenol degradation, 10-4 to 10-2 for forming the acids, 10-6 to 10-9 for the mineralization of quinones (hydroquinone, p-benzoquinone and catechol), 10-3 to 10-2 for the mineralization of acids.
Resumo:
In the last decades the study of integer-valued time series has gained notoriety due to its broad applicability (modeling the number of car accidents in a given highway, or the number of people infected by a virus are two examples). One of the main interests of this area of study is to make forecasts, and for this reason it is very important to propose methods to make such forecasts, which consist of nonnegative integer values, due to the discrete nature of the data. In this work, we focus on the study and proposal of forecasts one, two and h steps ahead for integer-valued second-order autoregressive conditional heteroskedasticity processes [INARCH (2)], and in determining some theoretical properties of this model, such as the ordinary moments of its marginal distribution and the asymptotic distribution of its conditional least squares estimators. In addition, we study, via Monte Carlo simulation, the behavior of the estimators for the parameters of INARCH(2) processes obtained using three di erent methods (Yule- Walker, conditional least squares, and conditional maximum likelihood), in terms of mean squared error, mean absolute error and bias. We present some forecast proposals for INARCH(2) processes, which are compared again via Monte Carlo simulation. As an application of this proposed theory, we model a dataset related to the number of live male births of mothers living at Riachuelo city, in the state of Rio Grande do Norte, Brazil.
Resumo:
In the last decades the study of integer-valued time series has gained notoriety due to its broad applicability (modeling the number of car accidents in a given highway, or the number of people infected by a virus are two examples). One of the main interests of this area of study is to make forecasts, and for this reason it is very important to propose methods to make such forecasts, which consist of nonnegative integer values, due to the discrete nature of the data. In this work, we focus on the study and proposal of forecasts one, two and h steps ahead for integer-valued second-order autoregressive conditional heteroskedasticity processes [INARCH (2)], and in determining some theoretical properties of this model, such as the ordinary moments of its marginal distribution and the asymptotic distribution of its conditional least squares estimators. In addition, we study, via Monte Carlo simulation, the behavior of the estimators for the parameters of INARCH(2) processes obtained using three di erent methods (Yule- Walker, conditional least squares, and conditional maximum likelihood), in terms of mean squared error, mean absolute error and bias. We present some forecast proposals for INARCH(2) processes, which are compared again via Monte Carlo simulation. As an application of this proposed theory, we model a dataset related to the number of live male births of mothers living at Riachuelo city, in the state of Rio Grande do Norte, Brazil.
Resumo:
Trace gases are important to our environment even though their presence comes only by ‘traces’, but their concentrations must be monitored, so any necessary interventions can be done at the right time. There are some lower and upper boundaries which produce nice conditions for our lives and then monitoring trace gases comes as an essential task nowadays to be accomplished by many techniques. One of them is the differential optical absorption spectroscopy (DOAS), which consists mathematically on a regression - the classical method uses least-squares - to retrieve the trace gases concentrations. In order to achieve better results, many works have tried out different techniques instead of the classical approach. Some have tried to preprocess the signals to be analyzed by a denoising procedure - e.g. discrete wavelet transform (DWT). This work presents a semi-empirical study to find out the most suitable DWT family to be used in this denoising. The search seeks among many well-known families the one to better remove the noise, keeping the original signal’s main features, then by decreasing the noise, the residual left after the regression is done decreases too. The analysis take account the wavelet decomposition level, the threshold to be applied on the detail coefficients and how to apply them - hard or soft thresholding. The signals used come from an open and online data base which contains characteristic signals from some trace gases usually studied.
Resumo:
Trace gases are important to our environment even though their presence comes only by ‘traces’, but their concentrations must be monitored, so any necessary interventions can be done at the right time. There are some lower and upper boundaries which produce nice conditions for our lives and then monitoring trace gases comes as an essential task nowadays to be accomplished by many techniques. One of them is the differential optical absorption spectroscopy (DOAS), which consists mathematically on a regression - the classical method uses least-squares - to retrieve the trace gases concentrations. In order to achieve better results, many works have tried out different techniques instead of the classical approach. Some have tried to preprocess the signals to be analyzed by a denoising procedure - e.g. discrete wavelet transform (DWT). This work presents a semi-empirical study to find out the most suitable DWT family to be used in this denoising. The search seeks among many well-known families the one to better remove the noise, keeping the original signal’s main features, then by decreasing the noise, the residual left after the regression is done decreases too. The analysis take account the wavelet decomposition level, the threshold to be applied on the detail coefficients and how to apply them - hard or soft thresholding. The signals used come from an open and online data base which contains characteristic signals from some trace gases usually studied.
Resumo:
Dissertação, Mestrado, Contabilidade e Fiscalidade, Instituto Politécnico de Santarém, Escola Superior de Gestão e Tecnologia, 2016
Resumo:
ALVES, Janaína da Silva. Análise comparativa e teste empírico da validade dos modelos CAPM tradicional e condicional: o caso das ações da Petrobrás. Revista Ciências Administrativas, Fotaleza, v. 13, n. 1, p.147-157, ago. 2007.
Resumo:
No estudo de séries temporais, os processos estocásticos usuais assumem que as distribuições marginais são contínuas e, em geral, não são adequados para modelar séries de contagem, pois as suas características não lineares colocam alguns problemas estatísticos, principalmente na estimação dos parâmetros. Assim, investigou-se metodologias apropriadas de análise e modelação de séries com distribuições marginais discretas. Neste contexto, Al-Osh and Alzaid (1987) e McKenzie (1988) introduziram na literatura a classe dos modelos autorregressivos com valores inteiros não negativos, os processos INAR. Estes modelos têm sido frequentemente tratados em artigos científicos ao longo das últimas décadas, pois a sua importância nas aplicações em diversas áreas do conhecimento tem despertado um grande interesse no seu estudo. Neste trabalho, após uma breve revisão sobre séries temporais e os métodos clássicos para a sua análise, apresentamos os modelos autorregressivos de valores inteiros não negativos de primeira ordem INAR (1) e a sua extensão para uma ordem p, as suas propriedades e alguns métodos de estimação dos parâmetros nomeadamente, o método de Yule-Walker, o método de Mínimos Quadrados Condicionais (MQC), o método de Máxima Verosimilhança Condicional (MVC) e o método de Quase Máxima Verosimilhança (QMV). Apresentamos também um critério automático de seleção de ordem para modelos INAR, baseado no Critério de Informação de Akaike Corrigido, AICC, um dos critérios usados para determinar a ordem em modelos autorregressivos, AR. Finalmente, apresenta-se uma aplicação da metodologia dos modelos INAR em dados reais de contagem relativos aos setores dos transportes marítimos e atividades de seguros de Cabo Verde.