953 resultados para Partículas eletricamente sensíveis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The success achieved by thermal methods of recovery, in heavy oils, prompted the emergence of studies on the use of electromagnetic waves as heat generating sources in oil reservoirs. Thus, this generation is achieved by three types of different processes according to the frequency range used. They are: the electromagnetic induction heating, the resistive and the dielectric, also known as radiation. This study was based on computer simulations in oil reservoirs with characteristics similar to those found in the sedimentary basins of the Brazilian Northeast. All cases studied were simulated using the software STARS, CMG (Computer Group, version 2012.10 Modeling). Some simulations took into account the inclusion of electrically sensitive particles in certain sectors of the reservoir model studied by fracturing. The purpose of this work is the use of the electromagnetic induction heating as a recovery method of heavy oil, to check the influence of these aforementioned particles on the reservoir model used. Comparative analyses were made involving electromagnetic induction heating, the operation of hydraulic fracturing and the injection of water to the different situations of the reservoir model studied. It was found that fracturing the injection well in order that the electromagnetic heating occurs in the same well where there is water injection, there was a considerable increase in the recovery factor and in the cumulative oil production in relation to the models in which hydraulic fracturing occurred in the production well and water injection in the injection well. This is due to the generation of steam in situ in the reservoir.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present study describes the stability and rheological behavior of suspensions of poly (N-isopropylacrylamide) (PNIPAM), poly (N-isopropylacrylamide)-chitosan (PNIPAMCS), and poly (N-isopropylacrylamide)-chitosan-poly (acrylic acid) (PNIPAM-CS-PAA) crosslinked particles sensitive to pH and temperature. These dual-sensitive materials were simply obtained by one-pot method, via free-radical precipitation copolymerization with potassium persulfate, using N,N -methylenebisacrylamide (MBA) as a crosslinking agent. Incorporation of the precursor materials into the chemical networks was confirmed by elementary analysis and infrared spectroscopy. The influence of external stimuli such as pH and temperature, or both, on particle behavior was investigated through rheological measurements, visual stability tests and analytical centrifugation. The PNIPAM-CS particles showed higher stability in acid and neutral media, whereas PNIPAM-CS-PAA particles were more stable in neutral and alkaline media, both below and above the LCST of poly (Nisopropylacrylamide) (stability data). This is due to different interparticle interactions, as well as those between the particles and the medium (also evidenced by rheological data), which were also influenced by the pH and temperature of the medium. Based on the results obtained, we found that the introduction of pH-sensitive polymers to crosslinked poly (Nisopropylacrylamide) particles not only produced dual-sensitive materials, but allowed particle stability to be adjusted, making phase separation faster or slower, depending on the desired application. Thus, it is possible to adapt the material to different media

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this work we present a mathematical and computational modeling of electrokinetic phenomena in electrically charged porous medium. We consider the porous medium composed of three different scales (nanoscopic, microscopic and macroscopic). On the microscopic scale the domain is composed by a porous matrix and a solid phase. The pores are filled with an aqueous phase consisting of ionic solutes fully diluted, and the solid matrix consists of electrically charged particles. Initially we present the mathematical model that governs the electrical double layer in order to quantify the electric potential, electric charge density, ion adsorption and chemical adsorption in nanoscopic scale. Then, we derive the microscopic model, where the adsorption of ions due to the electric double layer and the reactions of protonation/ deprotanaç~ao and zeta potential obtained in modeling nanoscopic arise in microscopic scale through interface conditions in the problem of Stokes and Nerst-Planck equations respectively governing the movement of the aqueous solution and transport of ions. We developed the process of upscaling the problem nano/microscopic using the homogenization technique of periodic structures by deducing the macroscopic model with their respectives cell problems for effective parameters of the macroscopic equations. Considering a clayey porous medium consisting of kaolinite clay plates distributed parallel, we rewrite the macroscopic model in a one-dimensional version. Finally, using a sequential algorithm, we discretize the macroscopic model via the finite element method, along with the interactive method of Picard for the nonlinear terms. Numerical simulations on transient regime with variable pH in one-dimensional case are obtained, aiming computational modeling of the electroremediation process of clay soils contaminated

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cosmic radiation has been identi ed as one of the main hazard to crew, aircraft and sensitive equipments involved in long-term missions and even high-altitude commercial ights. Generally, shields are used in spatial units to avoid excessive exposure, by holding the incident radiation. Unfortunatelly, shielding in space is problematic, especially when high-energy cosmic particles are considered, due to the production of large number of secondary particles, mainly neutrons, protons and alpha particles, caused by spallation reactions and quasi-elastic processes of the corpuscular radiation with the shield. Good parameters for checking the secondary particle production at target material are diferential cross section and energy deposited in the shield. Addition experiments, some computer codes based on Monte Carlo method show themselves a suitable tool to calculate shield parameters, due to have evaluated nuclear data libraries implemented on the algorithm. In view of this, the aim of this work is determining the parameters evaluated in shielding materials, by using MCNPX code, who shows good agreement with experimental data from literature. Among the materials, Aluminium had lower emission and production of secondary particles

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Atenção Primária à Saúde - APS é reconhecida como o nível fundamental e porta de entrada do sistema de atenção à saúde, sendo o lugar adequado onde pode ser atendida e resolvida a maior parte dos problemas de saúde. É considerada pela OMS como a principal proposta de modelo assistencial. Essa importância da APS leva a necessidade de pesquisas avaliativas dos seus resultados para adequação e melhoria de políticas e planos de ação delineados em relação à mesma. Pesquisas internacionais e nacionais são realizadas, nas quais indicadores relativos às atividades hospitalares estão sendo empregados com o objetivo de medir resultados como efetividade e acesso da APS. Um desses indicadores, desenvolvido por John Billings da Universidade de Nova York, na década de 90, consiste nas condições pelas quais as internações hospitalares por Condições Sensíveis à Atenção Ambulatorial (CSAA) deveriam ser evitadas caso os serviços da APS fossem efetivos e acessíveis. Utilizando-se o SIH-AIH/2008 e a lista brasileira de Internações por Condições Sensíveis a Atenção Primária, publicada em 2008, a proposta do presente trabalho é a de estudar os cuidados primários à saúde baseando-se nas ICSAA, na área urbana da cidade de Juiz de Fora-MG. Buscou-se responder sobre os efeitos que ocorrem nessas internações a partir das características individuais dos pacientes, das características das Unidades Básicas de Saúde-UBS (infraestrutura, produção e modelos assistenciais) e das condições sócio-econômicas/ambientais das áreas cobertas por UAPS e descobertas (sem UAPS), com a utilização de modelos multiníveis logísticos com intercepto aleatório. Buscou-se conhecer, também, a distribuição espacial das taxas padronizadas por idade das ICSAA nessas áreas e suas associações com as variáveis contextuais, utilizando-se ferramentas da análise espacial. Os resultados do presente trabalho mostraram que a porcentagem de internações por CSAA, foi de 4,1%. Os modelos assistenciais ESF e o Modelo Tradicional, base da organização da atenção primária no Brasil, não apresentaram no município, impacto significativo nas ICSAA, somente na forma de áreas descobertas tendo como referência as áreas cobertas. Também não foram significativas as variáveis de infraestrutura e produção das UAPS. Os efeitos individuais (idade e sexo) nas ICSAA foram significativos, apresentando probabilidades de significância menores que 1%, o mesmo acontecendo com o Índice de Desenvolvimento Social-IDS, que contempla as condições sociais, econômicas e ambientais das áreas analisadas. A distribuição espacial das taxas padronizadas por idade apresentou padrão aleatório e os testes dos Multiplicadores de Lagrange não foram significativos indicando o modelo de regressão clássico (MQO) como adequado para explicar as taxas em função das variáveis contextuais. Para a análise conjunta das áreas cobertas e descobertas foram fatores de risco: a variável econômica (% dos domicílios com renda até 2 SM), áreas descobertas tendo como referência as áreas cobertas e a região nordeste do município. Para as áreas cobertas as variáveis de produção das UAPS, econômica e a região nordeste apresentaram como fator de risco para as taxas de internação por CSAA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas de vídeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método numérico nodal livre de erros de truncamento espacial é desenvolvido para problemas adjuntos de transporte de partículas neutras monoenergéticas em geometria unidimensional com fonte fixa na formulação de ordenadas discretas (SN). As incógnitas no método são os fluxos angulares adjuntos médios nos nodos e os fluxos angulares adjuntos nas fronteiras dos nodos, e os valores numéricos gerados para essas quantidades são os obtidos a partir da solução analítica das equações SN adjuntas. O método é fundamentado no uso da convencional equação adjunta SN discretizada de balanço espacial, que é válida para cada nodo de discretização espacial e para cada direção discreta da quadratura angular, e de uma equação auxiliar adjunta não convencional, que contém uma função de Green para os fluxos angulares adjuntos médios nos nodos em termos dos fluxos angulares adjuntos emergentes das fronteiras dos nodos e da fonte adjunta interior. Resultados numéricos são fornecidos para ilustrarem a precisão do método proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, três técnicas para resolver numericamente problemas inversos de transporte de partículas neutras a uma velocidade para aplicações em engenharia nuclear são desenvolvidas. É fato conhecido que problemas diretos estacionários e monoenergéticos de transporte são caracterizados por estimar o fluxo de partículas como uma função-distribuição das variáveis independentes de espaço e de direção de movimento, quando os parâmetros materiais (seções de choque macroscópicas), a geometria, e o fluxo incidente nos contornos do domínio (condições de contorno), bem como a distribuição de fonte interior são conhecidos. Por outro lado, problemas inversos, neste trabalho, buscam estimativas para o fluxo incidente no contorno, ou a fonte interior, ou frações vazio em barras homogêneas. O modelo matemático usado tanto para os problemas diretos como para os problemas inversos é a equação de transporte independente do tempo, a uma velocidade, em geometria unidimensional e com o espalhamento linearmente anisotrópico na formulação de ordenadas discretas (SN). Nos problemas inversos de valor de contorno, dado o fluxo emergente em um extremo da barra, medido por um detector de nêutrons, por exemplo, buscamos uma estimativa precisa para o fluxo incidente no extremo oposto. Por outro lado, nos problemas inversos SN de fonte interior, buscamos uma estimativa precisa para a fonte armazenada no interior do domínio para fins de blindagem, sendo dado o fluxo emergente no contorno da barra. Além disso, nos problemas inversos SN de fração de vazio, dado o fluxo emergente em uma fronteira da barra devido ao fluxo incidente prescrito no extremo oposto, procuramos por uma estimativa precisa da fração de vazio no interior da barra, no contexto de ensaios não-destrutivos para aplicações na indústria. O código computacional desenvolvido neste trabalho apresenta o método espectronodal de malha grossa spectral Greens function (SGF) para os problemas diretos SN em geometria unidimensional para gerar soluções numéricas precisas para os três problemas inversos SN descritos acima. Para os problemas inversos SN de valor de contorno e de fonte interior, usamos a propriedade da proporcionalidade da fuga de partículas; ademais, para os problemas inversos SN de fração de vazio, oferecemos a técnica a qual nos referimos como o método físico da bissecção. Apresentamos resultados numéricos para ilustrar a precisão das três técnicas, conforme descrito nesta tese.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método espectronodal é desenvolvido para problemas de transporte de partículas neutras de fonte fixa, multigrupo de energia em geometria cartesiana na formulação de ordenadas discretas (SN). Para geometria unidimensional o método espectronodal multigrupo denomina-se método spectral Greens function (SGF) com o esquema de inversão nodal (NBI) que converge solução numérica para problemas SN multigrupo em geometria unidimensional, que são completamente livre de erros de truncamento espacial para ordem L de anisotropia de espalhamento desde que L < N. Para geometria X; Y o método espectronodal multigrupo baseia-se em integrações transversais das equações SN no interior dos nodos de discretização espacial, separadamente nas direções coordenadas x e y. Já que os termos de fuga transversal são aproximados por constantes, o método nodal resultante denomina-se SGF-constant nodal (SGF-CN), que é aplicado a problemas SN multigrupo de fonte fixa em geometria X; Y com espalhamento isotrópico. Resultados numéricos são apresentados para ilustrar a eficiência dos códigos SGF e SGF-CN e a precisão das soluções numéricas convergidas em cálculos de malha grossa.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] En este artículo se hace una revisión de las palabras que han sido consideradas partículas en las monografías escritas sobre ellas y en los diccionarios de griego antiguo habitualmente utilizados. Como resultado de esta revisión se llega a la conclusión de que el repertorio de las partículas, en esta lengua como en otras, no está bien delimitado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A água é um bem essencial a todos os seres vivos. Porém, o homem não tem dado o valor e atenção necessários para a preservação dessa riqueza. Por mais que o ser humano não faça a água desaparecer do planeta, ele tem contribuído e muito para o decréscimo de sua qualidade. Dentre as várias atividades antropogênicas, que tem contribuído para a poluição das águas, destaca-se a atividade industrial. A indústria têxtil, por exemplo, libera enormes volumes de dejetos, destacando-se os corantes, além deles prejudicarem a ocorrência de fotossíntese, apresentam elevada toxicidade ao meio marinho. Com isso, este trabalho visa estudar a degradação do corante Alaranjado de Metila via catálise heterogênea. Neste estudo, foram realizadas a preparação e a caracterização de partículas metálicas estabilizadas em sílica, sendo essas partículas com diferentes teores de ferro (50 %wt, 25 %wt e 5 %wt) aderido ao suporte. Após o preparo dos catalisadores realizou-se o estudo de sua eficiência frente a diferentes parâmetros como: quantidade de catalisador, temperatura e pH. Por meio dos testes realizados foi possível observar que a quantidade do catalisador influência a reação de redução do corante Alaranjado de Metila. Porém, quando se atinge o ponto de saturação, mesmo que se adicione mais catalisador não é possível aumentar a degradação. Através da variação da temperatura, observou-se que quanto maior a temperatura maior a degradação do corante. Isso pode ser explicado devido o aumento do número de colisões entre os sítios ativos do catalisador e as moléculas do corante. E por meio da variação de pH, concluiu-se que pHs ácidos permitem que a reação de redução do corante ocorra mais rápido e pHs elevados tornam a reação de degradação do corante mais lenta, porém ainda assim ocorrem de forma satisfatória. O catalisador pôde ser reutilizado por até 3 vezes, sem nenhum tratamento prévio. Os catalisadores a 50 %wt, assim como, a 25 %wt foram capazes de degradar o corante de forma eficiente, porém o catalisador a 5 %wt não se mostrou ser eficaz. Foram realizados testes sob radiação microondas e a reação de redução ocorreu de forma muito eficaz, apresentando 100% de degradação em apenas 2 minutos. Além disso, realizou-se o estudo cinético, onde segundo dados experimentais, as reações foram classificadas como sendo de primeira ordem

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.