5 resultados para alternative modeling approaches

em Biblioteca de Teses e Dissertações da USP


Relevância:

80.00% 80.00%

Publicador:

Resumo:

No último século, houve grande avanço no entendimento das interações das radiações com a matéria. Essa compreensão se faz necessária para diversas aplicações, entre elas o uso de raios X no diagnóstico por imagens. Neste caso, imagens são formadas pelo contraste resultante da diferença na atenuação dos raios X pelos diferentes tecidos do corpo. Entretanto, algumas das interações dos raios X com a matéria podem levar à redução da qualidade destas imagens, como é o caso dos fenômenos de espalhamento. Muitas abordagens foram propostas para estimar a distribuição espectral de fótons espalhados por uma barreira, ou seja, como no caso de um feixe de campo largo, ao atingir um plano detector, tais como modelos que utilizam métodos de Monte Carlo e modelos que utilizam aproximações analíticas. Supondo-se um espectro de um feixe primário que não interage com nenhum objeto após sua emissão pelo tubo de raios X, este espectro é, essencialmente representado pelos modelos propostos anteriormente. Contudo, considerando-se um feixe largo de radiação X, interagindo com um objeto, a radiação a ser detectada por um espectrômetro, passa a ser composta pelo feixe primário, atenuado pelo material adicionado, e uma fração de radiação espalhada. A soma destas duas contribuições passa a compor o feixe resultante. Esta soma do feixe primário atenuado, com o feixe de radiação espalhada, é o que se mede em um detector real na condição de feixe largo. O modelo proposto neste trabalho visa calcular o espectro de um tubo de raios X, em situação de feixe largo, o mais fidedigno possível ao que se medem em condições reais. Neste trabalho se propõe a discretização do volume de interação em pequenos elementos de volume, nos quais se calcula o espalhamento Compton, fazendo uso de um espectro de fótons gerado pelo Modelo de TBC, a equação de Klein-Nishina e considerações geométricas. Por fim, o espectro de fótons espalhados em cada elemento de volume é somado ao espalhamento dos demais elementos de volume, resultando no espectro total espalhado. O modelo proposto foi implementado em ambiente computacional MATLAB® e comparado com medições experimentais para sua validação. O modelo proposto foi capaz de produzir espectros espalhados em diferentes condições, apresentando boa conformidade com os valores medidos, tanto em termos quantitativos, nas quais a diferença entre kerma no ar calculado e kerma no ar medido é menor que 10%, quanto qualitativos, com fatores de mérito superiores a 90%.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa investiga o contexto social do desenvolvimento da produção científica contábil brasileira, defendendo a tese de que os agentes, no decorrer do processo de divulgação de suas investigações, estão priorizando aspectos produtivistas e quantitativos e, consequentemente, deixando em segundo plano a preocupação qualitativa e epistemológica [vigilância crítica] de tal produção. Fundamentado na Teoria de Campos de Pierre Bourdieu, este estudo busca relacionar a socialização acadêmica, o habitus dos agentes imbricados no campo, a distribuição do capital científico na área contábil e as características epistemológicas das publicações científicas da área, para obtenção das evidências sobre a problemática levantada. Trata-se de um levantamento operacionalizado por meio de entrevista semiestruturada, com uma amostra de 9 respondentes e estudo documental, com uma amostra de 43 artigos. Os dados foram analisados com emprego da técnica de análise de conteúdo. Apoiando-se em Bourdieu (2004, 2008, 2009, 2011, 2013) foram encontradas evidências de que as teorias, conceitos, metodologias, técnicas e demais escolhas realizadas pelos pesquisadores da área contábil, na maioria das vezes, não passam de manobras estratégicas que visam conquistar, reforçar, assegurar ou derrubar o monopólio da autoridade científica, visando a obtenção de maior poder simbólico no campo. Com relação ao habitus dos agentes pertencentes ao campo científico contábil, constatou-se uma tendência ao produtivismo em consequência das determinações dos órgãos reguladores da pesquisa em contabilidade (CAPES) e das lutas simbólicas travadas no campo para obtenção da autoridade científica. No tocante à socialização acadêmica, reforçou-se a presença de condutas produtivistas, por meio dos programas de pós-graduação stricto sensu, que repassam aos agentes as regras do jogo científico, doutrinando-os na maneira de publicar grande quantidade de comunicações em pouco tempo e com menos custos. As análises epistemológicas puderam triangular os dois últimos constructos, a fim de lhes dar validade, e evidenciaram uma preferência por temáticas que envolvem a contabilidade destinada aos usuários externos e procedimentos contábeis destinados ao mercado financeiro, privilegiando a utilização de dados secundários, por meio de pesquisas documentais. Em termos metodológicos, constatou-se a presença unânime de estudos positivistas, com alguns aspectos empiristas, mostrando uma ausência de inovação em termos de pesquisas norteadas por abordagens metodológicas alternativas e utilização de modelos econométricos para explicar a realidade observada sem teoria para embasar e explicar esses modelos. Por fim, a distribuição do capital simbólico no campo, mostrou que individualmente nenhum agente desponta com maior capital científico, mas, institucionalmente, a FEA/USP ocupa essa posição de destaque. Por conseguinte, pôde-se concluir que o campo científico contábil permanece estagnado e sem grandes modificações teóricas, pelo fato do produtivismo e das lutas simbólicas no interior do campo; fatos esses que, de certa maneira, motivaram a criação de uma espécie de \"receita mágica para publicar\" ou \"formato ideal\" legitimado, institucionalizado e difícil de ser modificado, a não ser que ocorra uma revolução científica que mude o paradigma existente

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The increasing economic competition drives the industry to implement tools that improve their processes efficiencies. The process automation is one of these tools, and the Real Time Optimization (RTO) is an automation methodology that considers economic aspects to update the process control in accordance with market prices and disturbances. Basically, RTO uses a steady-state phenomenological model to predict the process behavior, and then, optimizes an economic objective function subject to this model. Although largely implemented in industry, there is not a general agreement about the benefits of implementing RTO due to some limitations discussed in the present work: structural plant/model mismatch, identifiability issues and low frequency of set points update. Some alternative RTO approaches have been proposed in literature to handle the problem of structural plant/model mismatch. However, there is not a sensible comparison evaluating the scope and limitations of these RTO approaches under different aspects. For this reason, the classical two-step method is compared to more recently derivative-based methods (Modifier Adaptation, Integrated System Optimization and Parameter estimation, and Sufficient Conditions of Feasibility and Optimality) using a Monte Carlo methodology. The results of this comparison show that the classical RTO method is consistent, providing a model flexible enough to represent the process topology, a parameter estimation method appropriate to handle measurement noise characteristics and a method to improve the sample information quality. At each iteration, the RTO methodology updates some key parameter of the model, where it is possible to observe identifiability issues caused by lack of measurements and measurement noise, resulting in bad prediction ability. Therefore, four different parameter estimation approaches (Rotational Discrimination, Automatic Selection and Parameter estimation, Reparametrization via Differential Geometry and classical nonlinear Least Square) are evaluated with respect to their prediction accuracy, robustness and speed. The results show that the Rotational Discrimination method is the most suitable to be implemented in a RTO framework, since it requires less a priori information, it is simple to be implemented and avoid the overfitting caused by the Least Square method. The third RTO drawback discussed in the present thesis is the low frequency of set points update, this problem increases the period in which the process operates at suboptimum conditions. An alternative to handle this problem is proposed in this thesis, by integrating the classic RTO and Self-Optimizing control (SOC) using a new Model Predictive Control strategy. The new approach demonstrates that it is possible to reduce the problem of low frequency of set points updates, improving the economic performance. Finally, the practical aspects of the RTO implementation are carried out in an industrial case study, a Vapor Recompression Distillation (VRD) process located in Paulínea refinery from Petrobras. The conclusions of this study suggest that the model parameters are successfully estimated by the Rotational Discrimination method; the RTO is able to improve the process profit in about 3%, equivalent to 2 million dollars per year; and the integration of SOC and RTO may be an interesting control alternative for the VRD process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Electromagnetic coupling phenomena between overhead power transmission lines and other nearby structures are inevitable, especially in densely populated areas. The undesired effects resulting from this proximity are manifold and range from the establishment of hazardous potentials to the outbreak of alternate current corrosion phenomena. The study of this class of problems is necessary for ensuring security in the vicinities of the interaction zone and also to preserve the integrity of the equipment and of the devices there present. However, the complete modeling of this type of application requires the three- -dimensional representation of the region of interest and needs specific numerical methods for field computation. In this work, the modeling of problems arising from the flow of electrical currents in the ground (the so-called conductive coupling) will be addressed with the finite element method. Those resulting from the time variation of the electromagnetic fields (the so-called inductive coupling) will be considered as well, and they will be treated with the generalized PEEC (Partial Element Equivalent Circuit) method. More specifically, a special boundary condition on the electric potential is proposed for truncating the computational domain in the finite element analysis of conductive coupling problems, and a complete PEEC formulation for modeling inductive coupling problems is presented. Test configurations of increasing complexities are considered for validating the foregoing approaches. These works aim to provide a contribution to the modeling of this class of problems, which tend to become common with the expansion of power grids.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Unripe banana flour (UBF) production employs bananas not submitted to maturation process, is an interesting alternative to minimize the fruit loss reduction related to inappropriate handling or fast ripening. The UBF is considered as a functional ingredient improving glycemic and plasma insulin levels in blood, have also shown efficacy on the control of satiety, insulin resistance. The aim of this work was to study the drying process of unripe banana slabs (Musa cavendishii, Nanicão) developing a transient drying model through mathematical modeling with simultaneous moisture and heat transfer. The raw material characterization was performed and afterwards the drying process was conducted at 40 ºC, 50 ºC e 60 ºC, the product temperature was recorded using thermocouples, the air velocity inside the chamber was 4 m·s-1. With the experimental data was possible to validate the diffusion model based on the Fick\'s second law and Fourier. For this purpose, the sorption isotherms were measured and fitted to the GAB model estimating the equilibrium moisture content (Xe), 1.76 [g H2O/100g d.b.] at 60 ºC and 10 % of relative humidity (RH), the thermophysical properties (k, Cp, ?) were also measured to be used in the model. Five cases were contemplated: i) Constant thermophysical properties; ii) Variable properties; iii) Mass (hm), heat transfer (h) coefficient and effective diffusivity (De) estimation 134 W·m-2·K-1, 4.91x10-5 m-2·s-1 and 3.278?10-10 m·s-2 at 60 ºC, respectively; iv) Variable De, it presented a third order polynomial behavior as function of moisture content; v) The shrinkage had an effect on the mathematical model, especially in the 3 first hours of process, the thickness experienced a contraction of about (30.34 ± 1.29) % out of the initial thickness, finding two decreasing drying rate periods (DDR I and DDR II), 3.28x10-10 m·s-2 and 1.77x10-10 m·s-2, respectively. COMSOL Multiphysics simulations were possible to perform through the heat and mass transfer coefficient estimated by the mathematical modeling.