964 resultados para Fenomenologia de partículas


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Pós-graduação em Física - IFT

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O principal objetivo desta dissertação é a produção de charginos (partículas supersimétricascarregadas) leves no futuro acelerador internacional linear de e +e− (ILC) para diferentescenários de quebra de supersimetria. Charginos são partículas constituídas pela mistura docampo Wino carregado com o Higgsino carregado. A principal motivação para se estudar teorias supersimétricas deve-se ao grande número de problemas do Modelo Padrão (SM) que esta consegue solucionar, entre eles: massa dos neutrinos, matéria escura fria e o ajuste-fine (finetuning). Além disso, estudamos os princípios fundamentais que norteam a física de partículas,isto é, o princípio de gauge e o mecanismo de Higgs.

Relevância:

30.00% 30.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas dedeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método numérico nodal livre de erros de truncamento espacial é desenvolvido para problemas adjuntos de transporte de partículas neutras monoenergéticas em geometria unidimensional com fonte fixa na formulação de ordenadas discretas (SN). As incógnitas no método são os fluxos angulares adjuntos médios nos nodos e os fluxos angulares adjuntos nas fronteiras dos nodos, e os valores numéricos gerados para essas quantidades são os obtidos a partir da solução analítica das equações SN adjuntas. O método é fundamentado no uso da convencional equação adjunta SN discretizada de balanço espacial, que é válida para cada nodo de discretização espacial e para cada direção discreta da quadratura angular, e de uma equação auxiliar adjunta não convencional, que contém uma função de Green para os fluxos angulares adjuntos médios nos nodos em termos dos fluxos angulares adjuntos emergentes das fronteiras dos nodos e da fonte adjunta interior. Resultados numéricos são fornecidos para ilustrarem a precisão do método proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, três técnicas para resolver numericamente problemas inversos de transporte de partículas neutras a uma velocidade para aplicações em engenharia nuclear são desenvolvidas. É fato conhecido que problemas diretos estacionários e monoenergéticos de transporte são caracterizados por estimar o fluxo de partículas como uma função-distribuição das variáveis independentes de espaço e de direção de movimento, quando os parâmetros materiais (seções de choque macroscópicas), a geometria, e o fluxo incidente nos contornos do domínio (condições de contorno), bem como a distribuição de fonte interior são conhecidos. Por outro lado, problemas inversos, neste trabalho, buscam estimativas para o fluxo incidente no contorno, ou a fonte interior, ou frações vazio em barras homogêneas. O modelo matemático usado tanto para os problemas diretos como para os problemas inversos é a equação de transporte independente do tempo, a uma velocidade, em geometria unidimensional e com o espalhamento linearmente anisotrópico na formulação de ordenadas discretas (SN). Nos problemas inversos de valor de contorno, dado o fluxo emergente em um extremo da barra, medido por um detector de nêutrons, por exemplo, buscamos uma estimativa precisa para o fluxo incidente no extremo oposto. Por outro lado, nos problemas inversos SN de fonte interior, buscamos uma estimativa precisa para a fonte armazenada no interior do domínio para fins de blindagem, sendo dado o fluxo emergente no contorno da barra. Além disso, nos problemas inversos SN de fração de vazio, dado o fluxo emergente em uma fronteira da barra devido ao fluxo incidente prescrito no extremo oposto, procuramos por uma estimativa precisa da fração de vazio no interior da barra, no contexto de ensaios não-destrutivos para aplicações na indústria. O código computacional desenvolvido neste trabalho apresenta o método espectronodal de malha grossa spectral Greens function (SGF) para os problemas diretos SN em geometria unidimensional para gerar soluções numéricas precisas para os três problemas inversos SN descritos acima. Para os problemas inversos SN de valor de contorno e de fonte interior, usamos a propriedade da proporcionalidade da fuga de partículas; ademais, para os problemas inversos SN de fração de vazio, oferecemos a técnica a qual nos referimos como o método físico da bissecção. Apresentamos resultados numéricos para ilustrar a precisão das três técnicas, conforme descrito nesta tese.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método espectronodal é desenvolvido para problemas de transporte de partículas neutras de fonte fixa, multigrupo de energia em geometria cartesiana na formulação de ordenadas discretas (SN). Para geometria unidimensional o método espectronodal multigrupo denomina-se método spectral Greens function (SGF) com o esquema de inversão nodal (NBI) que converge solução numérica para problemas SN multigrupo em geometria unidimensional, que são completamente livre de erros de truncamento espacial para ordem L de anisotropia de espalhamento desde que L < N. Para geometria X; Y o método espectronodal multigrupo baseia-se em integrações transversais das equações SN no interior dos nodos de discretização espacial, separadamente nas direções coordenadas x e y. Já que os termos de fuga transversal são aproximados por constantes, o método nodal resultante denomina-se SGF-constant nodal (SGF-CN), que é aplicado a problemas SN multigrupo de fonte fixa em geometria X; Y com espalhamento isotrópico. Resultados numéricos são apresentados para ilustrar a eficiência dos códigos SGF e SGF-CN e a precisão das soluções numéricas convergidas em cálculos de malha grossa.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] En este artículo se hace una revisión de las palabras que han sido consideradas partículas en las monografías escritas sobre ellas y en los diccionarios de griego antiguo habitualmente utilizados. Como resultado de esta revisión se llega a la conclusión de que el repertorio de las partículas, en esta lengua como en otras, no está bien delimitado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A água é um bem essencial a todos os seres vivos. Porém, o homem não tem dado o valor e atenção necessários para a preservação dessa riqueza. Por mais que o ser humano não faça a água desaparecer do planeta, ele tem contribuído e muito para o decréscimo de sua qualidade. Dentre as várias atividades antropogênicas, que tem contribuído para a poluição das águas, destaca-se a atividade industrial. A indústria têxtil, por exemplo, libera enormes volumes de dejetos, destacando-se os corantes, além deles prejudicarem a ocorrência de fotossíntese, apresentam elevada toxicidade ao meio marinho. Com isso, este trabalho visa estudar a degradação do corante Alaranjado de Metila via catálise heterogênea. Neste estudo, foram realizadas a preparação e a caracterização de partículas metálicas estabilizadas em sílica, sendo essas partículas com diferentes teores de ferro (50 %wt, 25 %wt e 5 %wt) aderido ao suporte. Após o preparo dos catalisadores realizou-se o estudo de sua eficiência frente a diferentes parâmetros como: quantidade de catalisador, temperatura e pH. Por meio dos testes realizados foi possível observar que a quantidade do catalisador influência a reação de redução do corante Alaranjado de Metila. Porém, quando se atinge o ponto de saturação, mesmo que se adicione mais catalisador não é possível aumentar a degradação. Através da variação da temperatura, observou-se que quanto maior a temperatura maior a degradação do corante. Isso pode ser explicado devido o aumento do número de colisões entre os sítios ativos do catalisador e as moléculas do corante. E por meio da variação de pH, concluiu-se que pHs ácidos permitem que a reação de redução do corante ocorra mais rápido e pHs elevados tornam a reação de degradação do corante mais lenta, porém ainda assim ocorrem de forma satisfatória. O catalisador pôde ser reutilizado por até 3 vezes, sem nenhum tratamento prévio. Os catalisadores a 50 %wt, assim como, a 25 %wt foram capazes de degradar o corante de forma eficiente, porém o catalisador a 5 %wt não se mostrou ser eficaz. Foram realizados testes sob radiação microondas e a reação de redução ocorreu de forma muito eficaz, apresentando 100% de degradação em apenas 2 minutos. Além disso, realizou-se o estudo cinético, onde segundo dados experimentais, as reações foram classificadas como sendo de primeira ordem

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem como ponto de partida a identificação, resgate e reconstrução de um programa de pesquisas delineado por Karl-Otto Apel perifericamente à fração intermediária de seu pensamento, ao qual se referirá como "fenomenologia positivamente orientada do ser-no-mundo". Oriundo de uma leitura fenomenológica que vincula o projeto do "segundo" L. Wittgenstein à analítica do ser-aí do "primeiro" M. Heidegger, o programa de Apel tem como eixo principal a retomada e aprimoramento do que ele denomina, conforme com o vocabulário de Heidegger, crítica à "ontologia da pré-manualidade" (Vorhandenheitsontologie). Da formulação por Apel da "crítica à ontologia da pré-manualidade", então aprofundada e recomposta como "crítica à pré-manualidade", conduzir-se-á à reivindicação e ao delineamento primário de uma agenda de pesquisas que, no propósito da confrontação de questões pertinentes à fundamentação e à validação científica da sociologia, desdobrar-se-á em três distintos planos de investigação: o problema do fundamento, o problema cientificamente relevante da verdade (empírica) e o problema da sociologia enquanto ciência empírica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É notório que o senso comum trabalha com a ideia de que o medo está cada vez mais se intensificando no mundo que é o nosso. Nas metrópoles das sociedades ocidentais a alusão ao medo tem espaço partilhado. Jornais, revistas, rádio e TV são os meios populares que noticiam todos os tipos de violência e, consecutivamente, apontam e vinculam certos discursos sensacionalistas de temor a toda população. O objetivo do presente trabalho é apresentar um estudo acerca do modo como a retórica do medo, patente no mundo histórico que é o nosso, potencializa o medo de modo a criar um solo propício ao surgimento de diferentes comportamentos temerosos. Interessa-nos sobre tudo tematizar o medo segundo a retórica que o potencializa, ou seja, segundo a impessoalidade do mundo que é o nosso. Isso coloca a exigência de tematizarmos o pensamento fenomenológico-hermenêutico de Martin Heidegger, sua ontologia fundamental e sua proposta de análise da essência do mundo contemporâneo. O método documental foi a ferramenta utilizada para visualização do fenômeno da retórica do medo submetida ao jornal Diário de Pernambuco

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tese a seguir possui como tema norteador a questão da fundamentação do conhecimento em Edmund Husserl. No interior da fenomenologia husserliana, o questionamento epistemológico é colocado em novos termos, na medida em que ele passará a pressupor uma superação do lapso entre sujeito e objeto, bem como do consequente problema do acesso à realidade, tal como instaurados pelo pensamento moderno. Portanto, todo o nosso trabalho consiste em uma confrontação e reapropriação crítica de conceitos decisivos para a teoria do conhecimento, tais como os de, sentido, objeto, consciência, transcendência, entre outros.