915 resultados para Resolution of problems
Análise global da estabilidade termodinâmica de misturas: um estudo com o método do conjunto gerador
Resumo:
O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.
Resumo:
Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas de vídeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).
Resumo:
Computational imaging is flourishing thanks to the recent advancement in array photodetectors and image processing algorithms. This thesis presents Fourier ptychography, which is a computational imaging technique implemented in microscopy to break the limit of conventional optics. With the implementation of Fourier ptychography, the resolution of the imaging system can surpass the diffraction limit of the objective lens's numerical aperture; the quantitative phase information of a sample can be reconstructed from intensity-only measurements; and the aberration of a microscope system can be characterized and computationally corrected. This computational microscopy technique enhances the performance of conventional optical systems and expands the scope of their applications.
Resumo:
In petawatt laser system, the gratings used to compose pulse compressor are very large in size which can be only acquired currently by arraying small aperture gratings to form a large one instead, an approach referred to as grating tiling. Theory and experiments have demonstrated that the coherent addition of multiple small gratings to form a larger grating is viable, the key technology of which is to control the relative position and orientation of each grating with high precision. According to the main factors that affect the performance of the grating tiling, a 5-DOF ultraprecision stage is developed for the grating tiling experiment. The mechanism is formed by serial structures. The motion of the mechanism is guided by flexure hinges and driven by piezoelectric actuators and the movement resolution of which can achieve nanometer level. To keep the stability of the mechanism, capacitive position sensors with nanometer accuracy are fixed on it to provide feedback signals with which to realize closed-loop control, thus the positioning precision of the mechanism is within several nanometers range through voltage control and digital PID algorithm. Results of experiments indicate that the performance of the mechanism can meet the requirement of precision for grating tiling.}
Resumo:
Métodos estocásticos oferecem uma poderosa ferramenta para a execução da compressão de dados e decomposições de matrizes. O método estocástico para decomposição de matrizes estudado utiliza amostragem aleatória para identificar um subespaço que captura a imagem de uma matriz de forma aproximada, preservando uma parte de sua informação essencial. Estas aproximações compactam a informação possibilitando a resolução de problemas práticos de maneira eficiente. Nesta dissertação é calculada uma decomposição em valores singulares (SVD) utilizando técnicas estocásticas. Esta SVD aleatória é empregada na tarefa de reconhecimento de faces. O reconhecimento de faces funciona de forma a projetar imagens de faces sobre um espaço de características que melhor descreve a variação de imagens de faces conhecidas. Estas características significantes são conhecidas como autofaces, pois são os autovetores de uma matriz associada a um conjunto de faces. Essa projeção caracteriza aproximadamente a face de um indivíduo por uma soma ponderada das autofaces características. Assim, a tarefa de reconhecimento de uma nova face consiste em comparar os pesos de sua projeção com os pesos da projeção de indivíduos conhecidos. A análise de componentes principais (PCA) é um método muito utilizado para determinar as autofaces características, este fornece as autofaces que representam maior variabilidade de informação de um conjunto de faces. Nesta dissertação verificamos a qualidade das autofaces obtidas pela SVD aleatória (que são os vetores singulares à esquerda de uma matriz contendo as imagens) por comparação de similaridade com as autofaces obtidas pela PCA. Para tanto, foram utilizados dois bancos de imagens, com tamanhos diferentes, e aplicadas diversas amostragens aleatórias sobre a matriz contendo as imagens.
Resumo:
A Violência entre Parceiros Íntimos (VPI) tem sido reconhecida como um importante problema de saúde pública e um fator de risco para agravos a saúde de mulheres e crianças. Os serviços de saúde desempenham importante papel na detecção precoce da VPI, especialmente em momentos da vida nos quais se preconiza o atendimento sistematizado, como na gestação e primeira infância. Esta dissertação tem como objetivo principal estimar a probabilidade de ocorrência de Violência Física entre Parceiros Íntimos (VFPI) durante a gestação e/ou pós-parto em população atendida em Unidades Básicas de Saúde (UBS), segundo diferentes características sócio-econômicas e demográficas da clientela. Trata-se de um estudo transversal, realizado com usuárias de 5 UBS da cidade do Rio de Janeiro no ano de 2007. Foram entrevistadas 811 mães de crianças de até cinco meses de idade, que não possuíam nenhuma contra-indicação formal para a amamentação e que relataram ter tido pelo menos uma relação amorosa um mês ou mais durante a gestação ou no período do pós-parto. Condições socioeconômicas e demográficas e relativas aos hábitos de vida do casal foram consideradas como potenciais preditores de violência. Utilizou-se a versão em português da CTS2 para identificar as situações de VPI. A variável de desfecho foi analisada em três níveis: ausência de VFPI, presença de VFPI no período da gestação ou do pós-parto e presença de VFPI em ambos os períodos. Utilizou-se um modelo logito-multinomial para as projeções de prevalências segundo os descritores selecionados. Os fatores que mais aumentaram a probabilidade de ocorrência de violência durante a gestação e/ou nos primeiros cinco meses de vida da criança foram: idade materna < 20 anos, escolaridade materna inferior ao 2 grau completo, ter 2 ou mais filhos menores de cinco anos, tabagismo materno, uso inadequado de álcool pela mãe e/ou companheiro, uso de drogas pela mãe e/ou companheiro e percepção materna sobre a saúde do bebê aquém da esperada. Entre mães com todas estas características, a estimativa de prevalência projetada de VFPI na gestação e/ou no pós-parto chegou a 96,4%, sendo 59,4% a estimativa de ocorrência em apenas um dos dois períodos e 37% em ambos. Por outro lado, a probabilidade de ocorrência de VFPI cai a 3,6% em famílias sem estas características. Os resultados indicam que a presença de certas características da criança e de sua família aumenta enormemente a probabilidade de ocorrência de VFPI, devendo ser levadas em consideração ao se estabelecer estratégias de intervenção que visem à detecção precoce e uma efetiva intervenção.
Resumo:
Variation at 14 microsatellite loci was examined in 34 chum salmon (Oncorhynchus keta) populations from Russia and evaluated for its use in the determination of population structure and stock composition in simulated mixed-stock fishery samples. The genetic differentiation index (Fst) over all populations and loci was 0.017, and individual locus values ranged from 0.003 to 0.054. Regional population structure was observed, and populations from Primorye, Sakhalin Island, and northeast Russia were the most distinct. Microsatellite variation provided evidence of a more fine-scale population structure than those that had previously been demonstrated with other genetic-based markers. Analysis of simulated mixed-stock samples indicated that accurate and precise regional estimates of stock composition were produced when the microsatellites were used to estimate stock compositions. Microsatellites can be used to determine stock composition in geographically separate Russian coastal chum salmon fisheries and provide a greater resolution of stock composition and population structure than that previously provided with other techniques.
Resumo:
A new, and very simple spectrometer based on birefringent fiber is described. A resolution of 0.02 angstrom has been achieved, and the system has been used to measure diode laser chirp. A length of 10km of fiber would be sufficient to resolve single mode line widths.
Resumo:
Several microorganisms have been identified as pathogenic agents responsible for various outbreaks of coral disease. Little has been learned about the exclusivity of a pathogen to given disease signs. Most pathogens have only been implicated within a subset of corals, leaving gaps in our knowledge of the host range and geographic extent of a given pathogen. PCR-based assays provide a rapid and inexpensive route for detection of pathogens. Pathogen-specific 16S rDNA primer sets were designed to target four identified coral pathogens: Aurantimonas coralicida, Serratia marcescens, Vibrio shilonii, and Vibrio coralliilyticus. Assays detected the presence of targets at concentrations of less than one cell per microliter. The assay was applied to 142 coral samples from the Florida Keys, Puerto Rico, and U.S. Virgin Islands as an in situ specificity test. Assays displayed a high-level of specificity, seemingly limited only by the resolution of the 16S rDNA.
Resumo:
This report outlines the approaches for estimating the carbon budget for the United States, a data rich subcontinental area, and presents an overview of problems encountered and preliminary results obtained.
Resumo:
Rapid and effective thermal processing methods using electron beams are described in this paper. Heating times ranging from a fraction of a second to several seconds and temperatures up to 1400°C are attainable. Applications such as the annealing of ion implanted material, both without significant dopant diffusion and with highly controlled diffusion of impurities, are described. The technique has been used successfully to activate source/drain regions for fine geometry NMOS transistors. It is shown that electron beams can produce localised heating of semiconductor substrates and a resolution of approximately 1 μm has been achieved. Electron beam heating has been applied to improving the crystalline quality of silicon-on sapphire used in CMOS device fabrication. Silicon layers with defect levels approaching bulk material have been obtained. Finally, the combination of isothermal and selective annealing is shown to have application in recrystallisation of polysilicon films on an insulating layer. The approach provides the opportunity of producing a silicon-on-insulator substrate with improved crystalline quality compared to silicon-on-sapphire at a potentially lower cost. It is suggested that rapid heating methods are expected to provide a real alternative to conventional furnace processing of semiconductor devices in the development of fabrication technology. © 1984 Benn electronics Publications Ltd, Luton.
Resumo:
The annealing of ion implantation damage in silicon by rapid isothermal heating has been monitored by the time resolved reflectivity (TRR) method. This technique was applied simultaneously at a wavelength of 632. 8nm and also at 1152nm, where the optical absorption coefficient of silicon is less. The two wavelength method simplifies the interpretation of TRR results, extends the measurement depth and allows good resolution of the position of the interface between amorphous and crystalline silicon. The regrowth of amorphous layers in silicon, created by self implantation and implanted with electrically active impurities, was observed. Regrowth in rapid isothermal annealing occurs during the heating up stage of typical thermal cycles. Impurities such as B, P, and As increase the regrowth rate in a manner consistent with a vacancy model for regrowth. The maximum regrowth rate in boron implanted silicon is limited by the solid solubility.
Resumo:
In recent years there has been a growing interest amongst the speech research community into the use of spectral estimators which circumvent the traditional quasi-stationary assumption and provide greater time-frequency (t-f) resolution than conventional spectral estimators, such as the short time Fourier power spectrum (STFPS). One distribution in particular, the Wigner distribution (WD), has attracted considerable interest. However, experimental studies have indicated that, despite its improved t-f resolution, employing the WD as the front end of speech recognition system actually reduces recognition performance; only by explicitly re-introducing t-f smoothing into the WD are recognition rates improved. In this paper we provide an explanation for these findings. By treating the spectral estimation problem as one of optimization of a bias variance trade off, we show why additional t-f smoothing improves recognition rates, despite reducing the t-f resolution of the spectral estimator. A practical adaptive smoothing algorithm is presented, whicy attempts to match the degree of smoothing introduced into the WD with the time varying quasi-stationary regions within the speech waveform. The recognition performance of the resulting adaptively smoothed estimator is found to be comparable to that of conventional filterbank estimators, yet the average temporal sampling rate of the resulting spectral vectors is reduced by around a factor of 10. © 1992.
The unsteady development of a turbulent wake through a downstream low-pressure turbine blade passage
Resumo:
This paper presents two-dimensional LDA measurements of the convection of a wake through a low-pressure (LP) turbine cascade. Previous studies have shown the wake convection to be kinematic but have not provided details of the turbulent field. The spatial resolution of these measurements has facilitated the calculation of the production of turbulent kinetic energy and this has revealed a mechanism for turbulence production as the wake converts through the bladerow. The measured ensemble-averaged velocity field confirmed the previously reported kinematics of wake convection while the measurements of the turbulence quantities showed the wake fluid to be characterised by elevated levels of turbulent kinetic energy (TKE) and to have an anisotropic structure. Based on the measured mean and turbulence quantities, the production of turbulent kinetic energy was calculated. This highlighted a TKE production mechanism that resulted in increased levels of turbulence over the rear suction surface where boundary layer transition occurs. The turbulence production mechanism within the bladerow was also observed to produce more nearly isotropic turbulence. Production occurs when the principal stresses within the wake are aligned with the mean strains. This coincides with the maximum distortion of the wake within the blade passage and provides a mechanism for the production of turbulence outside of the boundary layer.
Resumo:
Salinity, temperature and pressure are parameters which govern the oceanographic state of a marine water body and together they make up density of seawater. In this contribution we will focus our interest on one of these parameters, the salinity: accuracy in relation to different purposes as well as observation technique and instrumentation. We will also discuss the definition of salinity. For example most of the Indian Ocean waters are within the salinity range from 34.60-34.80, which emphasize the importance of careful observations and clear definitions of salinity, in such a way that it is possible to define water masses and predict their movements. In coastal waters the salinity usually features much larger variation in time and space and thus less accuracy is sometimes needed. Salinity has been measured and defined in several ways over the past century. While early measurements were based on the amount of salt in a sea water sample, today the salinity of seawater is most often determined from its conductivity. As conductivity is a function of salinity and temperature, determination involves also measurement of the density of seawater is now more precisely estimated and thus the temperature. As a result of this method the Practical Salinity Scale (PSS) was developed. The best determination of salinity from conductivity and the temperature measurements gives salinity with resolution of 0.001 psu, while the accuracy of titration method was about ± 0.02‰. Because of that, even calculation of movements in the ocean is also improved.