886 resultados para Explosion de Coulomb


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O volume de tráfego de dados em redes celulares está crescendo exponencialmente. A explosão do uso de dispositivos e aplicações móveis nos últimos anos, tem levado a uma sobrecarga da infraestrutura da rede responsável pelo escoamento desse tráfego, afetando tanto o desempenho da rede quanto a experiência do usuário. Um dos elementos-chave nas redes LTE (Long Term Evolution) é a possibilidade de implantação de múltiplas femtocells para a melhoria de cobertura e taxa de dados. No entanto, as sobreposições arbitrárias na cobertura dessas células tornam a gestão do mecanismo de handover complexo e desafiador. Nesse sentido, esta dissertação propõe uma metodologia para o estudo do impacto do handover em redes LTE com femtocells. A partir de uma abordagem de simulação discreta, os efeitos da implantação de femtocells foram avaliados. Objetivou-se com isso, mensurar os impactos e a correlação do uso de femtocell nos parâmetros de QoS (Quality of Service) e indicadores de desempenho de handover.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 2002, a Argentina atingiu um novo marco histórico, ao experimentar o maior default da dívida externa, não somente pela sua própria história, mas também do mundo. Para compreender como a Argentina deixou de ser um país mais desenvolvido de terceiro mundo até experimentar a crise de 2001, entrando depois numa depressão em 2002, com mais da metade da população abaixo da linha de pobreza, precisamos fazer uma avaliação das políticas econômicas durante o último quarto de século na Argentina. A virada ao neoliberalismo começou durante a ditadura no ano 1976, tendo se aprofundado no governo Menem e sempre apoiada pelo FMI. Este trabalho tentará identificar porque a crise ocorreu naquele momento, e também, compreender as mudanças subjacentes na economia política durante duas décadas na Argentina, as quais que desencadearam duas ondas de desindustrialização, uma explosão da dívida externa e uma deterioração bem marcante no padrão de vida para a maioria dos argentinos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As imagens da parede do poço obtidas através da ferramenta UBI (Ultrasonic Borehole Imager) são amplamente utilizadas por geólogos e engenheiros de petróleo para identificar eventos geológicos nas paredes de poços abertos e na inspeção dos tubos de revestimento, uma vez que este perfil praticamente fornece uma fotografia da parede do poço. As ferramentas de imageamento acústico produzem imagens do tempo de trânsito e da amplitude do pulso acústico gerado pela ferramenta e refletido na parede do poço. Entretanto, estas imagens podem ter uma interpretação não realista, uma vez que elas podem ter seu aspecto alterado em razão do movimento da ferramenta no interior do poço. Este trabalho apresenta o modelamento das imagens de tempo de trânsito a partir da aplicação do critério de Coulomb para a ruptura da parede do poço submetida a um estado plano de tensões, a qual fornecerá a seção do poço, que é a forma geométrica que será traçada pela ferramenta de imageamento acústico do poço. O deslocamento ascensional da ferramenta e as imperfeições da parede do poço, normalmente, são os responsáveis pelo deslocamento da posição do transdutor em relação ao eixo do poço. Este efeito pode ter grande responsabilidade nas imperfeições das imagens de tempo de trânsito. Assim, a correção dessas imagens, chamada de correção da descentralização, busca o reposicionamento do transdutor para a posição do eixo do poço. Apresenta-se, também, um método de correção do efeito da descentralização da ferramenta baseado neste modelamento. O método é proposto com base na geometria analítica plana e no método do raio para a definição do tempo de trânsito do pulso acústico, com o objetivo de reconstruir as imagens de tempo de trânsito obtidas com a ferramenta descentralizada, ou seja, corrigir estas imagens tornando-as como se fossem obtidas com a ferramenta centralizada em relação ao eixo do poço.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In an ever more competitive environment, power distribution companies must satisfy two conflicting objectives: minimizing investment costs and the satisfaction of reliability targets. The network reconfiguration of a distribution system is a technique that well adapts to this new deregulated environment for it allows improvement of reliability indices only opening and closing switches, without the onus involved in acquiring new equipment. Due to combinatorial explosion problem characteristic, in the solution are employed metaheuristics methods, which converge to optimal or quasi-optimal solutions, but with a high computational effort. As the main objective of this work is to find the best configuration(s) of the distribution system with the best levels of reliability, the objective function used in the metaheuristics is to minimize the LOLC - Loss Of Load Cost, which is associated with both, number and duration of electric power interruptions. Several metaheuristics techniques are tested, and the tabu search has proven to be most appropriate to solve the proposed problem. To characterize computationally the problem of the switches reconfiguring was developed a vector model (with integers) of the representation of the switches, where each normally open switch is associated with a group of normally closed switches. In this model simplifications have been introduced to reduce computational time and restrictions were made to exclude solutions that do not supply energy to any load point of the system. To check violation of the voltage and loading criteria a study of power flow for the ten best solutions is performed. Also for the ten best solutions a reliability evaluation using Monte Carlo sequential simulation is performed, where it is possible to obtain the probability distributions of the indices and thus calculate the risk of paying penalty due to not meeting the goals. Finally, the methodology is applied in a real Brazilian distribution network, and the results are discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article ask itself about the permanence of Marx and Engels’ Communist Manifest, demarking the text in its own time (1848), in the last Engels’ day’s life (1895), at the moment of the explosion of the German socialist revolution (1918) and today. !e conclusion is that this text remains current while it is necessary the theoretical and practice criticize of the capital.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the treatment plans in conventional Proton therapy are considered only the elastic interactions of protons with electrons and/or nuclei, it means, mainly ionization and coulomb excitation processes. As the energy needed to reach the deep tumors should be of several hundred of MeVs, certainly the nuclear inelastic channels are open. Only some previous studies of the contribution of these processes in the full dose have been made towards targets composed of water. In this study will be presented the results of the simulation of the processes of interaction of beams of protons in the range of 100-200 MeV of energy with a cylindrical phantom composed by striated muscle (ICRU), emphasizing in the contribution to total dose due to the deposition of energy by secondary particles alpha (α), deuterium (2H), tritium (3H), neutron (n) and hélio3 (3He), originated by nuclear inelastic processes. The simulations were performed by using the method of Monte Carlo, via the computer code MCNPX v2.50 (Monte Carlo N-Particle eXtended). The results will be shown demonstrated through the graphics of the deposited dose with or without nuclear interaction, the percentual of dose deposited by secondary particles, the radial dispersion of neutrons, as well as the multiplicity of secondary particles

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In proton therapy, the deposition of secondary particles energy originated by nuclear inelastic process (n, 2H, 3H, 3He and α) has a contribution in the total dose that deserves to be discussed. In calculations of plans implemented for routine treatment, the paid dose is calculated whereas the proton loses energy by ionization and or coulomb excitement. The contribution of inelastic processes associated with nuclear reactions is not considered. There are only estimates for pure materials or simple composition (water, for example), because of the difficulty of processing targets consisting of different materials. For this project, we use the Monte Carlo method employing the code MCNPX v2.50 (Monte Carlo N-Particle eXtended) to present results of the contribution to the total dose of secondary particles. In this work, it was implemented a cylindrical phantom composed by cortical bone, for proton beams between 100 and 200 MeV. With the results obtained, it was possible to generate graphics to analyze: the dose deposition relation with and without nuclear interaction, the multiplicity and percentage of deposited dose for each secondary particle and a radial dispersion of neutrons in the material

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the recent years, the use of proton beams in radiotherapy has been an outstanding progress (SMITH, 2006). Up to now, computed tomography (CT) is a prerequisite for treatment planning in this kind of therapy because it provides the electron density distribution required for calculation of dose and the interval of doses. However, the use of CT images for proton treatment planning ignores fundamental differences in physical interaction processes between photons and protons and is, therefore, potentially inaccurate (SADROZINSKI, 2004). Proton CT (pCT) can in principle directly measure the density distribution needed in a patient for the dose distribution (SCHULTE, et al, 2004). One important problem that should be solved is the implementation of image reconstruction algorithms. In this sense, it is necessary to know how the presence of materials with different density and composition interfere in the energy deposition by ionization and coulomb excitation, during its trajectory. The study was conducted in two stages, was used in both the program SRIM (The Stopping and Range of Ions in Matter) to perform simulations of the interaction of proton beams with pencil beam type. In the first step we used the energies in the range of 100-250 MeV (ZIEGLER, 1999). The targets were set to 50 mm in length for the beam of 100 MeV, due to its interaction with the target, and short-range, and 70 mm for 150, 200 and 250 MeV The target was composed of liquid water and a layer of 6 mm cortical bone (ICRP). It were made 9 simulations varying the position of the heterogeneity of 5 mm. In the second step the energy of 250 MeV was taken out from the simulations, due to its greater energy and less interaction. The targets were diminished to 50 mm thick to standardize the simulations. The layer of bone was divided into two equal parts and both were put in the ends of the target... (Complete abstract click electronic access below)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The contribution of the total dose due to deposition of secondary energy particles caused by nuclear inelastic processes (n, 2H, 3H, 3He and  ) in proton therapy is an opened problem and in discussion. In the calculations of plans implemented for routine treatment, the paid dose is calculated whereas that the proton loses energy by ionization and or coulomb excitement. The contribution of inelastic processes associated with nuclear reactions is not considered, mainly due to the difficulty of processing targets consisting of various materials. In this sense, there are only estimates for pure materials or simple composition (water, for example).This work presents the results of simulations by the Monte Carlo method employing the code MCNPX v2.50 (Monte Carlo N-Particle eXtended) of the contribution to the total dose of secondary particles. The study was implemented in a cylindrical phantom composed by compact bone, for monochromatic beams of protons between 100 and 200 MeV with pencil beam form

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The friction phenomena is present in mechanical systems with two surfaces that are in contact, which can cause serious damage to structures. Your understanding in many dynamic problems became the target of research due to its nonlinear behavior. It is necessary to know and thoroughly study each existing friction model found in the literature and nonlinear methods to define what will be the most appropriate to the problem in question. One of the most famous friction model is the Coulomb Friction, which is considered in the studied problems in the French research center Laboratoire de Mécanique des Structures et des Systèmes Couplés (LMSSC), where this search began. Regarding the resolution methods, the Harmonic Balance Method is generally used. To expand the knowledge about the friction models and the nonlinear methods, a study was carried out to identify and study potential methodologies that can be applied in the existing research lines in LMSSC and then obtain better final results. The identified friction models are divided into static and dynamic. Static models can be Classical Models, Karnopp Model and Armstrong Model. The dynamic models are Dahl Model, Bliman and Sorine Model and LuGre Model. Concerning about nonlinear methods, we study the Temporal Methods and Approximate Methods. The friction models analyzed with the help of Matlab software are verified from studies in the literature demonstrating the effectiveness of the developed programming