1000 resultados para Algoritmo de Colisão de Partículas


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work develops a methodology for defining the maximum active power being injected into predefined nodes in the studied distribution networks, considering the possibility of multiple accesses of generating units. The definition of these maximum values is obtained from an optimization study, in which further losses should not exceed those of the base case, i.e., without the presence of distributed generation. The restrictions on the loading of the branches and voltages of the system are respected. To face the problem it is proposed an algorithm, which is based on the numerical method called particle swarm optimization, applied to the study of AC conventional load flow and optimal load flow for maximizing the penetration of distributed generation. Alternatively, the Newton-Raphson method was incorporated to resolution of the load flow. The computer program is performed with the SCILAB software. The proposed algorithm is tested with the data from the IEEE network with 14 nodes and from another network, this one from the Rio Grande do Norte State, at a high voltage (69 kV), with 25 nodes. The algorithm defines allowed values of nominal active power of distributed generation, in percentage terms relative to the demand of the network, from reference values

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The processes that govern the rate of particle recovery in a flotation cell include the following sub-processes: collision, attachment, and stability of the aggregate formed by particles and bubbles. Collision is controlled by bulk hydrodynamics inside the flotation cell, while attachment is largely dominated by variables that belong to the domain of surface chemistry (contact angle, induction time). As for the stability of the particle/bubble aggregate, its efficiency depends on both hydrodynamics plus surface chemistry variables of the system. The flotation recovery of coarse particles of apatite and glass spheres was measured by micro-flotation and batch flotation tests in which hydrodynamic parameters were evaluated, such as impeller rotational speed, diameter, and geometry, as well as particle size and density. Results revealed that a proper impeller rotational speed yielded turbulence levels, which enabled to keep particles fully suspended, this way optimizing the collision efficiency between particles and bubbles, without jeopardizing the stability of the particle-bubble aggregates.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Modelos de escoamento multifásico são amplamente usados em diversas áreas de pesquisa ambiental, como leitos fluidizados, dispersão de gás em líquidos e vários outros processos que englobam mais de uma propriedade físico-química do meio. Dessa forma, um modelo multifásico foi desenvolvido e adaptado para o estudo do transporte de sedimentos de fundo devido à ação de ondas de gravidade. Neste trabalho, foi elaborado o acoplamento multifásico de um modelo euleriano não-linear de ondas do tipo Boussinesq, baseado na formulação numérica encontrada em Wei et al. (1995), com um modelo lagrangiano de partículas, fundamentado pelo princípio Newtoniano do movimento com o esquema de colisões do tipo esferas rígidas. O modelo de ondas foi testado quanto à sua fonte geradora, representada por uma função gaussiana, pá-pistão e pá-batedor, e quanto à sua interação com a profundidade, através da não-linearidade e de propriedades dispersivas. Nos testes realizados da fonte geradora, foi observado que a fonte gaussiana, conforme Wei et al. (1999), apresentou melhor consistência e estabilidade na geração das ondas, quando comparada à teoria linear para um kh   . A não-linearidade do modelo de ondas de 2ª ordem para a dispersão apresentou resultados satisfatórios quando confrontados com o experimento de ondas sobre um obstáculo trapezoidal, onde a deformação da onda sobre a estrutura submersa está em concordância com os dados experimentais encontrados na literatura. A partir daí, o modelo granular também foi testado em dois experimentos. O primeiro simula uma quebra de barragem em um tanque contendo água e o segundo, a quebra de barragem é simulada com um obstáculo rígido adicionado ao centro do tanque. Nesses experimentos, o algoritmo de colisão foi eficaz no tratamento da interação entre partícula-partícula e partícula-parede, permitindo a evidência de processos físicos que são complicados de serem simulados por modelos de malhas regulares. Para o acoplamento do modelo de ondas e de sedimentos, o algoritmo foi testado com base de dados da literatura quanto à morfologia do leito. Os resultados foram confrontados com dados analíticos e de modelos numéricos, e se mostraram satisfatórios com relação aos pontos de erosão, de sedimentação e na alteração da forma da barra arenosa

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In this research work, a new routing protocol for Opportunistic Networks is presented. The proposed protocol is called PSONET (PSO for Opportunistic Networks) since the proposal uses a hybrid system composed of a Particle Swarm Optimization algorithm (PSO). The main motivation for using the PSO is to take advantage of its search based on individuals and their learning adaptation. The PSONET uses the Particle Swarm Optimization technique to drive the network traffic through of a good subset of forwarders messages. The PSONET analyzes network communication conditions, detecting whether each node has sparse or dense connections and thus make better decisions about routing messages. The PSONET protocol is compared with the Epidemic and PROPHET protocols in three different scenarios of mobility: a mobility model based in activities, which simulates the everyday life of people in their work activities, leisure and rest; a mobility model based on a community of people, which simulates a group of people in their communities, which eventually will contact other people who may or may not be part of your community, to exchange information; and a random mobility pattern, which simulates a scenario divided into communities where people choose a destination at random, and based on the restriction map, move to this destination using the shortest path. The simulation results, obtained through The ONE simulator, show that in scenarios where the mobility model based on a community of people and also where the mobility model is random, the PSONET protocol achieves a higher messages delivery rate and a lower replication messages compared with the Epidemic and PROPHET protocols.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The heat transfer between plasma and a solid occurs mostly due the radiation and the collision of the particles on the material surface, heating the material from the surface to the bulk. The thermal gradient inside the sample depends of the rate of particles collisions and thermal conductivity of the solid. In order to study that effect, samples of AISI M35 steel, with 9,5 mm X 3,0 mm (diameter X thickness) were quenched in resistive furnace and tempereds in plasma using the plane configuration and hollow cathode, working with pressures of 4 and 10 mbar respectively. Analyzing the samples microstructure and measuring the hardness along the transversal profile, it was possible to associate the tempered temperature evaluating indirectly the thermal profile. This relation was obtained by microstructural analyzes and through the hardness curve x tempered sample temperature in resistive furnace, using temperatures of 500, 550, 600, 650 and 700°C. The microstructural characterization of the samples was obtained by the scanning electron microscopy, optic microscopy and X-ray diffraction. It was verified that all samples treated in plasma presented a superficial layer, denominated affected shelling zone, wich was not present in the samples treated in resistive furnace. Moreover, the samples that presented larger thermal gradient were treated in hollow cathode with pressure of 4 mbar

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho procurou identificar como estudantes do Ensino Médio se apropriam de conceitos e elaboram determinados modelos inseridos em cinética química, especificamente o modelo cinético de colisão de partículas numa reação (Teoria das Colisões). Esta análise e as reflexões que a seguiram foram baseadas, sobretudo, nos estudos realizados por Piaget, Piaget e Inhelder, Jun e Fischbein. Utilizamos como documentos as transcrições das entrevistas (pré e pós-testes) realizadas individualmente com cada aluno. Inicialmente, os estudantes foram entrevistados (pré-testes) com o intuito de identificar a familiaridade com a noção de evento probabilístico ou aleatório. Numa segunda etapa (pós-testes), esse conhecimento (ou a ausência parcial/total dele) foi posto à prova numa tentativa de se estabelecerem relações com um conteúdo específico da Química (Teoria das Colisões). Os resultados obtidos apontam para grandes discrepâncias entre o modelo cinético de colisões elaborado pelos estudantes e aquele cientificamente aceito.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The separation methods are reduced applications as a result of the operational costs, the low output and the long time to separate the uids. But, these treatment methods are important because of the need for extraction of unwanted contaminants in the oil production. The water and the concentration of oil in water should be minimal (around 40 to 20 ppm) in order to take it to the sea. Because of the need of primary treatment, the objective of this project is to study and implement algorithms for identification of polynomial NARX (Nonlinear Auto-Regressive with Exogenous Input) models in closed loop, implement a structural identification, and compare strategies using PI control and updated on-line NARX predictive models on a combination of three-phase separator in series with three hydro cyclones batteries. The main goal of this project is to: obtain an optimized process of phase separation that will regulate the system, even in the presence of oil gushes; Show that it is possible to get optimized tunings for controllers analyzing the mesh as a whole, and evaluate and compare the strategies of PI and predictive control applied to the process. To accomplish these goals a simulator was used to represent the three phase separator and hydro cyclones. Algorithms were developed for system identification (NARX) using RLS(Recursive Least Square), along with methods for structure models detection. Predictive Control Algorithms were also implemented with NARX model updated on-line, and optimization algorithms using PSO (Particle Swarm Optimization). This project ends with a comparison of results obtained from the use of PI and predictive controllers (both with optimal state through the algorithm of cloud particles) in the simulated system. Thus, concluding that the performed optimizations make the system less sensitive to external perturbations and when optimized, the two controllers show similar results with the assessment of predictive control somewhat less sensitive to disturbances

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Física - FEG

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper presents and discusses an analysis of the approaches and the didactic treatment of the kinetic model of collision between particles in chemical reaction (collision theory model) presented by brazilian chemistry textbooks for the medium level. Our starting point at this search was the correct and scientific model for this theory which is based on random events, but most of all the books investigated does not consider this fact like an important and very precious didactic aspect. We utilized in the investigation the writing discoursive analysis technique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The heat transfer between plasma and a solid occurs mostly due the radiation and the collision of the particles on the material surface, heating the material from the surface to the bulk. The thermal gradient inside the sample depends of the rate of particles collisions and thermal conductivity of the solid. In order to study that effect, samples of AISI M35 steel, with 9,5 mm X 3,0 mm (diameter X thickness) were quenched in resistive furnace and tempereds in plasma using the plane configuration and hollow cathode, working with pressures of 4 and 10 mbar respectively. Analyzing the samples microstructure and measuring the hardness along the transversal profile, it was possible to associate the tempered temperature evaluating indirectly the thermal profile. This relation was obtained by microstructural analyzes and through the hardness curve x tempered sample temperature in resistive furnace, using temperatures of 500, 550, 600, 650 and 700°C. The microstructural characterization of the samples was obtained by the scanning electron microscopy, optic microscopy and X-ray diffraction. It was verified that all samples treated in plasma presented a superficial layer, denominated affected shelling zone, wich was not present in the samples treated in resistive furnace. Moreover, the samples that presented larger thermal gradient were treated in hollow cathode with pressure of 4 mbar

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo desta dissertação é a determinação da máxima injeção nodal numa rede de energia elétrica, ou seja, qual o valor total máximo de potência ativa que é possível injetar e qual a sua distribuição pelos diversos nós da rede simultaneamente. Determinámos esta máxima injeção nodal em duas situações distintas: injeção não simultânea, injetando potência em um só nó de cada vez e injeção simultânea, injetando potência em todos os nós da rede simultaneamente. Sendo este um problema de natureza combinatória, utilizámos para esta determinação o algoritmo conhecido como nuvem ou enxame de partículas, adaptando-o ao nosso problema. Desenvolvemos o software na linguagem de programação Python utilizando o ambiente Eclipse. Para resolver o trânsito de energia utilizámos o programa PSSE University.Para os exemplos de aplicação utilizámos duas redes de energia elétrica, uma de 6 e outra de 14 barramentos. Estas redes foram baseadas nas redes IEEE 6 BUS e IEEE 14 BUS respetivamente. Concluímos que o algoritmo nuvem ou enxame de partículas cumpriu o objetivo traçado, obtendo as melhores soluções para cada um dos casos, máxima injeção nodal não simultânea e máxima injeção nodal simultânea. No contexto deste problema, o parâmetro chave do algoritmo, comprovado pelos ensaios feitos, é a velocidade máxima de deslocação das partículas, tomando valores típicos de 7 a 10 para a rede de 6 barramentos e de 20 a 25 para a de 14 barramentos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Utilizar robôs autônomos capazes de planejar o seu caminho é um desafio que atrai vários pesquisadores na área de navegação de robôs. Neste contexto, este trabalho tem como objetivo implementar um algoritmo PSO híbrido para o planejamento de caminhos em ambientes estáticos para veículos holonômicos e não holonômicos. O algoritmo proposto possui duas fases: a primeira utiliza o algoritmo A* para encontrar uma trajetória inicial viável que o algoritmo PSO otimiza na segunda fase. Por fim, uma fase de pós planejamento pode ser aplicada no caminho a fim de adaptá-lo às restrições cinemáticas do veículo não holonômico. O modelo Ackerman foi considerado para os experimentos. O ambiente de simulação de robótica CARMEN (Carnegie Mellon Robot Navigation Toolkit) foi utilizado para realização de todos os experimentos computacionais considerando cinco instâncias de mapas geradas artificialmente com obstáculos. O desempenho do algoritmo desenvolvido, A*PSO, foi comparado com os algoritmos A*, PSO convencional e A* Estado Híbrido. A análise dos resultados indicou que o algoritmo A*PSO híbrido desenvolvido superou em qualidade de solução o PSO convencional. Apesar de ter encontrado melhores soluções em 40% das instâncias quando comparado com o A*, o A*PSO apresentou trajetórias com menos pontos de guinada. Investigando os resultados obtidos para o modelo não holonômico, o A*PSO obteve caminhos maiores entretanto mais suaves e seguros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As simulações que pretendam modelar fenómenos reais com grande precisão em tempo útil exigem enormes quantidades de recursos computacionais, sejam estes de processamento, de memória, ou comunicação. Se até há pouco tempo estas capacidades estavam confinadas a grandes supercomputadores, com o advento dos processadores multicore e GPUs manycore os recursos necessários para este tipo de problemas estão agora acessíveis a preços razoáveis não só a investigadores como aos utilizadores em geral. O presente trabalho está focado na otimização de uma aplicação que simula o comportamento dinâmico de materiais granulares secos, um problema do âmbito da Engenharia Civil, mais especificamente na área da Geotecnia, na qual estas simulações permitem por exemplo investigar a deslocação de grandes massas sólidas provocadas pelo colapso de taludes. Assim, tem havido interesse em abordar esta temática e produzir simulações representativas de situações reais, nomeadamente por parte do CGSE (Australian Research Council Centre of Excellence for Geotechnical Science and Engineering) da Universidade de Newcastle em colaboração com um membro da UNIC (Centro de Investigação em Estruturas de Construção da FCT/UNL) que tem vindo a desenvolver a sua própria linha de investigação, que se materializou na implementação, em CUDA, de um algoritmo para GPUs que possibilita simulações de sistemas com um elevado número de partículas. O trabalho apresentado consiste na otimização, assente na premissa da não alteração (ou alteração mínima) do código original, da supracitada implementação, de forma a obter melhorias significativas tanto no tempo global de execução da aplicação, como no aumento do número de partículas a simular. Ao mesmo tempo, valida-se a formulação proposta ao conseguir simulações que refletem, com grande precisão, os fenómenos físicos. Com as otimizações realizadas, conseguiu-se obter uma redução de cerca de 30% do tempo inicial cumprindo com os requisitos de correção e precisão necessários.