133 resultados para Partículas Discursivas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese analisa construções discursivas sobre o consumidor consciente, o qual visa se diferenciar de um suposto consumo regular e/ou consumista. Toma por base inicial as atribuições propostas em guias e manuais pró consumo consciente, em específico aqueles produzidos pela Akatu e pelo Idec, os quais buscam conceitualizar, debater e promover este tipo de consumidor. Compreende este grupo inicial enquanto uma dimensão prescritiva do discurso os quais elaboram indicações de ação e embasamentos do conceito. O desdobramento do trabalho realiza uma análise qualitativa do discurso dos indivíduos de camadas médias cariocas que se identificam enquanto este tipo de consumidor. Observa-se as semelhanças, diferenças e o desenrolar destes conceitos nas falas de indivíduos em relação àquelas prescritas nos manuais. Assim, pautado em entendimentos sobre consumo enquanto construtor simbólico, noções de projetos de vida e construção de si, produções de sentido e significado, relações de sociabilidade e novas modalidades de participação política, a tese se desenvolve nos seguintes aspectos: análise das bases de origem as quais formulam possibilidades de inserção na temática se ser e fundamentos possíveis; elementos constituintes fundamentais na formação do perfil dos entrevistados e seus conceitos de consciência, os aspectos emotivos sentimentais responsáveis pela valorização ou desvalorização da experiência, e expectativas e perspectivas a respeito dos relacionamentos com terceiros, abordando o tema principalmente através das categorias: chatos e radicais. Com isso, aprofundando-se nas bases definidoras dos sujeitos, suas concepções de consciência, seus medos, anseios, prazer e felicidades; procurando compreender como a subjetividade destes sujeitos está sendo produzida e como dialogam seus projetos com o espaço urbano de uma grande cidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação consideramos duas abordagens para o tráfego de veículos: a macroscópica e a microscópica. O tráfego é descrito macroscopicamente por três grandezas físicas interligadas entre si, a saber, a velocidade, a densidade e o fluxo, descrevendo leis de conservação do número de veículos. Há vários modelos para o tráfego macroscópico de veículos. A maioria deles trata o tráfego de veículos como um fluido compressível, traduzindo a lei de conservação de massa para os veículos e requer uma lei de estado para o par velocidade-densidade, estabelecendo uma relação entre eles. Já o modelo descrito pela abordagem microscópica considera os veículos como partículas individuais. Consideramos os modelos da classe "car - following". Estes modelos baseiam-se no princípio de que o (n - 1)-ésimo veículo (denominado de "following-car") acelera em função do estímulo que recebe do n-ésimo veículo. Analisamos a equação de conservação do número de veículos em modelos macroscópicos para fluxo de tráfego. Posteriormente resolvemos esta equação através da linearização do modelo, estudando suas retas características e apresentamos a resolução do problema não linear em domínios limitados utilizando o método das características

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As estrelas de nêutrons nascem com altas temperaturas (~ 1011 K) e durante alguns segundos sofrem um rápido resfriamento por emissão de neutrinos. O processo Urca direto é o principal mecanismo para explicar essa perda de energia. O problema do resfriamento das estrelas de nêutrons é um problema de grande interesse porque seu entendimento pode fornecer informações importantes sobre a constituição do interior da estrela. Na literatura existente até o momento, a emissividade de neutrinos é calculada considerando os núcleons como partículas não relativísticas quando considerados todos os níveis de Landau das partículas carregadas. Por outro lado, a emissividade de neutrinos para núcleons relativísticos é calculada considerando somente o primeiro nível de Landau (para campo magnético forte). Para campos magnéticos fracos, onde mais de um nível de Landau é ocupado, é usada a emissividade correspondente à do campo nulo. Neste trabalho aplicamos a teoria de Weinberg-Salan para interações fracas no cálculo da emissividade de neutrinos com e sem campo magnético presente, num cálculo totalmente relativístico para os núcleons e considerando todos os níveis de Landau. Esta é a contribuição original do trabalho. Para descrever a matéria a altas densidades, utilizamos uma teoria relativística de campo médio a temperatura zero que inclui apenas o octeto bariônico e os léptons mais leves. São apresentados os resultados para a emissividade de neutrinos, onde é evidente a ocupação dos diferentes níveis de Landau como função do campo magnético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Silicose é uma doença pulmonar causada pela inalação de partículas de sílica, na qual vários são os mediadores inflamatórios implicados. Neste estudo investigamos o envolvimento do óxido nítrico (NO) nas alterações de função pulmonar e hiper-reatividade das vias aéreas, em camundongos estimulados com sílica por via intranasal. Foram analisados parâmetros como i) função pulmonar (resistência e elastância) e hiper-reatividade das vias aéreas ao aerossol com metacolina (3 27 mg/mL) através de sistema de pletismografia invasiva, e ii) alterações morfológicas, mediante técnicas clássicas de histologia e imuno-histoquímica. Verificamos que a instilação de partículas de sílica (10 mg) causou aumento nos níveis basais de resistência e elastância pulmonar, bem como de hiper-reatividade das vias aéreas à metacolina, em tempos que variaram de 2 a 28 dias. Observamos uma correlação temporal com as alterações morfológicas no tecido pulmonar, que refletiram presença de resposta inflamatória e infiltrado celular intenso, seguidos de progressiva fibrose e formação de granulomas. Os tempos de 7 e 28 dias pós-estimulação com sílica foram selecionados para os ensaios subsequentes, por corresponderem às fases aguda e crônica da silicose experimental, respectivamente. Foram detectados níveis elevados de óxido nítrico (NO), bem como de peroxinitrito/expressão da enzima iNOS no lavado broncoalveolar e no tecido pulmonar de camundongos estimulados com sílica, respectivamente. Em outro grupo de experimentos, observamos que camundongos depletados para o gene codificante para a enzima NOS induzida (iNOS) apresentaram abolidas as respostas de aumento nos níveis basais de resistência e elastância pulmonares, bem como da hiper-reatividade das vias aéreas à metacolina em comparação aos animais selvagens (C57BL/6). A inibição da resposta inflamatória e fibrótica granulomatosa foi também notada no caso dos animais nocautes para iNOS. O tratamento com 1400W, um inibidor da enzima iNOS, diminui de forma marcada as alterações de função pulmonar e fibrose tecidual verificadas nos camundongos silicóticos. Em conclusão, nossos resultados mostram que o comprometimento da função pulmonar, representado pelo aumento na resistência/elastância e hiper-reatividade das vias aéreas, mostraram-se correlacionados à maior geração de NO e de peroxinitrito, assim como da expressão da enzima iNOS. A depleção do gene codificante ou, ainda, o bloqueio da enzima iNOS aboliram a resposta de comprometimento da função pulmonar e fibrose tecidual na silicose experimental. Em conjunto estes achados indicam que o NO parece ser um mediador importante no contexto da silicose, colocando-se como um alvo terapêutico em potencial no tratamento de doenças de caráter fibrótico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As concentrações na exaustão e os fatores de emissão dos hidrocarbonetos policíclicos aromáticos (HPA) prioritários de um veículo a diesel e as suas respectivas concentrações no diesel usado durante os ensaios de emissão veicular foram determinados com a finalidade de estimar a contribuição dos HPA provenientes do combustível nas emissões. Os produtos da combustão foram coletados diretamente nas emissões brutas do escapamento, utilizando um sistema de amostragem a volume constante sem diluição dos gases da exaustão. Os HPA associados ao MP foram amostrados de forma estratificada, utilizando um impactador em cascata MOUDI e filtros de fibra de vidro como substratos, e os HPA em fase gasosa foram amostrados usando cartuchos de amberlite XAD-2. A concentração dos HPA no óleo lubrificante do motor também foi monitorada ao longo do tempo até a sua troca após 12.000 km de uso. Após a extração e tratamento das amostras, a identificação e quantificação dos HPA foram realizadas, utilizando cromatografia de fase gasosa acoplada à espectrometria de massas (CG-EM) com injetor de grande volume de vaporização com a temperatura programável (PTV-LVI). Cinco variáveis do PTV-LVI foram otimizadas, utilizando planejamento de experimentos, o que permitiu obter limites de detecção menores do que 2,0 g L-1. Somente 7 dos 16 HPA prioritários foram identificados na exaustão: NAP, ACY, ACE, FLU, FEN, FLT e PYR. Os ensaios de emissão veicular foram realizados com o veículo em modo estacionário, sem aplicação de carga e com baixa velocidade de rotação do motor (1500 rpm), utilizando um diesel com menor teor de enxofre (10 mg kg-1) e com 5% v/v de biodiesel. Esses fatores possivelmente contribuíram para reduzir as emissões dos outros 9 HPA a valores abaixo dos limites de detecção do método desenvolvido. Aproximadamente 80% da massa dos HPA totais associados ao MP estavam presentes em partículas com tamanho entre 1,0 m e 56 nm, e aproximadamente 4,5% estavam presentes em partículas menores do que 56 nm. Partículas menores que 2,5 m são facilmente inaladas e depositadas no trato respiratório e na região alveolar, justificando a preocupação com relação às emissões de HPA associados a partículas provenientes da exaustão veicular de motores a diesel. Somente 5 dos 7 HPA identificados na exaustão foram detectados no diesel: NAP, ACY, FLU, FEN e PYR. A razão entre os fatores de emissão (g L-1diesel) dos HPA na exaustão e suas respectivas concentrações do diesel (g L-1) variaram de 0,01 0,02 a 0,05 0,029, dependendo do HPA. Esses valores indicam que pelo menos 95 a 99% dos HPA identificados no diesel foram destruídos e/ou transformados em outros compostos durante a combustão, e/ou foram retidos no reservatório do óleo lubrificante. Por outro lado, os HPA que tiveram maiores concentrações no diesel também apresentaram maiores fatores de emissão, o que sugere que os HPA provenientes do diesel possuem uma contribuição significativa para as emissões dos HPA totais. O perfil dos HPA prioritários no óleo lubrificante mostrou-se semelhante ao perfil dos HPA no diesel e nas emissões totais, onde o NAP, FEN e PYR foram os HPA majoritários

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas na natureza que são empregadas como agregados no preparo do concreto, podendo cada mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura, das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a respeito dos métodos de ensaio, mas também em função da necessidade do melhor conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições, aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas, sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto, agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA, comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto menos comuns no nosso país, como o efeito gelo/degelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo da estabilidade das equações da inflação morna com um fluido de radiação viscoso. A viscosidade do fluido é proveniente do constante decaimento de partículas neste, devido à dissipação do campo escalar da inflação, o ínflaton.Esta viscosidade, que pode ser volumar ou laminar, é tratada em termos de teorias termodinâmicas fora do equilíbrio. Este estudo se limita às equações de fundo da inflação morna, de modo que somente a viscosidade volumar tem um efeito significativo, sendo a viscosidade laminar importante somente no contexto de perturbações cosmológicas. A descrição da viscosidade em termos de uma termodinâmica fora do equilíbrio, porém, não pode ser realizada univocamente, pois a única informação que temos sobre processos irreversíveis é a segunda lei da termodinâmica. Portanto, parte-se em busca de teorias que estejam de acordo com esta lei e que, por argumentos plausíveis, sejam capazes de descrever o comportamento dos fluxos dissipativos próximo ao equilíbrio. O objetivo deste trabalho é estudar a estabilidade da inflação morna viscosa para teorias causais e não causais para o fluido de radiação com viscosidade, de forma que se possa observar o impacto da viscosidade no regime inflacionário e a relevância de se passar a considerar a causalidade. Para o fluido de radiação, as teorias consideradas são a teoria não causal de Eckart e as teorias causais de Israel-Stewart e de Denicol et al (hidrodinâmica dissipativa causal não linear). Obtém-se que as teorias causais, como era de se esperar, além de serem, por definição, consistentes no tocante à finitude da velocidade de propagação dos fluxos dissipativos, tornam o sistema dinâmico estável para valores de viscosidade mais distantes do equilíbrio. Observa-se também, nitidamente, que a teoria de Denicol et al é a mais robusta nesse sentido. Este trabalho, portanto, visa dar continuidade ao estudo dos efeitos não-isentrópicos na inflação, já que, além da dissipação do ínflaton na inflação morna, o impacto da viscosidade tem despertado bastante interesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O que se pretende nesta tese é fazer uma arqueologia da sociologia, tendo como objeto principal de análise aquilo que chamaremos de seu discurso, o discurso sociológico da modernidade, procurando mostrar o vínculo substancial da sociologia com a episteme da modernidade, especialmente na figura do homem duplo empírico-transcendental: a sociologia seria, assim, uma derivação da episteme da modernidade e o conceito de sociedade, realidade social e as diversas teorias da simultaneidade estrutura e agência, seriam a versão sociológica do homem duplo empírico-transcendental, objeto e fundamento do saber ao mesmo tempo. Levando em consideração que a arqueologia estuda a constituição de formações discursivas e não teorias ou a validade de proposições científicas, como faz a epistemologia, histórica ou não, inicialmente fazemos uma gênese da constituição do conceito de arqueologia e de episteme em Michel Foucault, que se desenvolve em contraponto à fenomenologia como antropologia filosófica, ao estruturalismo e à epistemologia histórica. Depois apresentamos os conceitos de epistemes do Renascimento e Episteme Clássica, a fim de chegar à constituição da episteme da modernidade e mostrar, assim, os vínculos com o conceito de sociedade, realidade social e a simultaneidade estrutura e agência. No final tratamos dos temas da morte do homem, do pós-humanismo e do trans-humanismo que, neste caso, significam a perda de centralidade do homem como objeto e fundamento do saber, desestabilizando assim a episteme da modernidade e abrindo espaço para pensarmos em sua mutação arqueológica num processo de desantropologização do saber.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sóis liofilizados precursores de Al2O3/TiO2, foram preparados via tecnologia sol-gel, com diferentes porcentagens de óxido de titânio (5%, 10%, 15% e 20%, em massa). Os sóis liofilizados foram caracterizados por meio de diversas análises, com o intuito de obter informações sobre o comportamento térmico, fases presentes, tamanho de partícula, composição e uniformidade das amostras. Os resultados obtidos indicam que os sóis apresentam as fases boemita e anatase, com partículas de tamanho nanométrico, tem composições muito similares quando analisadas em pontos distintos, átomos bem dispersos e distribuídos. Após esta etapa, amostras de aço AISI 1020 foram recobertas com estes sóis através do método dip-coating, o comportamento corrosivo foi estudado por meio de ensaios eletroquímicos e a morfologia das camadas, analisadas por meio de microscopias. Observou-se que as camadas eram uniformes e recobriam por completo toda a superfície das amostras, os ensaios de polarização indicaram melhorias no potencial eletroquímico para amostras recobertas, em comparação com amostras de aço sem recobrimento. O monitoramento de circuito aberto apresentou bons ajustes, indicando bom comportamento da camada. Notou-se pelas microscopias a presença de pontos de corrosão em algumas amostras antes dos ensaios, suspeitando-se que os resultados obtidos teriam sido melhores, caso houvesse um maior controle do processo de recobrimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como proposta pensar os processos identitários da afrodiáspora, a partir dos diálogos com a Capoeira Angola e as narrativas de suas/seus praticantes. Apresentamos a Capoeira Angola como prática cultural de matriz africana, significada por um processo histórico de luta e resistência das populações negras na diáspora. Procuramos discutir quais identidades são reivindicadas, tecidas e enunciadas nessa prática, com especial atenção às identidades angoleiras, às identidades negras e ao pertencimento etnicorracial enunciado por suas/seus praticantes. O processo histórico de escravização das populações negras no Brasil resultou na discriminação racial de mulheres e homens negras/os e na visibilização estereotipada das suas práticas e epistemologias, produzindo diferenciações hierárquicas. A cultura como enunciação e diferença permite através do ato enunciativo, a produção de novos sentidos e significados para as populações negras, que ressignificam suas identidades e tensionam às lógicas e racionalidades hegemônicas. As identidades são compreendidas como processos de identificação, permitidos pelo dinamismo da cultura e pelas práticas discursivas. O agenciamento coletivo reivindica outras identificações, de modo que o ato enunciativo pode produzir novos sentidos para às significações atribuídas às populações negras, sendo a linguagem um importante mecanismo de circulação da palavra e o indicador mais sensível de transformações sociais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os eventos de fissão nuclear, resultados da interação dos nêutrons com os núcleos dos átomos do meio hospedeiro multiplicativo, não estão presentes em algumas regiões dos reatores nucleares, e.g., moderador, refletor, e meios estruturais. Nesses domínios espaciais não há geração de potência nuclear térmica e, além disso, comprometem a eficiência computacional dos cálculos globais de reatores nucleares. Propomos nesta tese uma estratégia visando a aumentar a eficiência computacional dessas simulações eliminando os cálculos numéricos explícitos no interior das regiões não-multiplicativas (baffle e refletor) em torno do núcleo ativo. Apresentamos algumas modelagens e discutimos a eficiência da aplicação dessas condições de contorno aproximadas tipo albedo para uma e duas regiões nãomultiplicativas, na formulação de ordenadas discretas (SN) para problemas de autovalor a dois grupos de energia em geometria bidimensional cartesiana. A denominação Albedo, palavra de origem latina para alvura, foi originalmente definida como a fração da luz incidente que é refletida difusamente por uma superfície. Esta denominação latina permaneceu como o termo científico usual em astronomia e, nesta tese, este conceito é estendido para reflexão de nêutrons. Estas condições de contorno tipo albedo SN não-convencional substituem aproximadamente as regiões de baffle e refletor no em torno do núcleo ativo do reator, desprezando os termos de fuga transversal no interior dessas regiões. Se o problema, em particular, não possui termos de fuga transversal, i.e., trata-se de um problema unidimensional, então as condições de contorno albedo, como propostas nesta tese, são exatas. Por eficiência computacional entende-se a análise da precisão dos resultados numéricos em comparação com o tempo de execução computacional de cada simulação de um dado problema-modelo. Resultados numéricos considerando dois problemas-modelo com de simetria são considerados para ilustrar esta análise de eficiência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Projetos de reatores nucleares foram classificados em quatro gerações (Gen) pelo Departamento de Energia dos Estados Unidos da América (DOE), quando o DOE introduziu o conceito de reatores de geração IV (Gen IV). Reatores Gen IV são um conjunto de projetos de reator nuclear, em sua maioria teóricos, atualmente sendo pesquisados. Entre os projetos Gen IV, incluem-se os projetos dos ADS (Accelerator Driven Systems), que são sistemas subcríticos estabilizados por fontes externas estacionárias de nêutrons. Estas fontes externas de nêutrons são normalmente geradas a partir da colisão de prótons com alta energia contra os núcleos de metais pesados presentes no núcleo do reator, fenômeno que é conhecido na literatura como spallation, e os prótons são acelerados num acelerador de partículas que é alimentado com parte da energia gerada pelo reator. A criticalidade de um sistema mantido por reações de fissão em cadeia depende do balanço entre a produção de nêutrons por fissão e a remoção por fuga pelos contornos e absorção de nêutrons. Um sistema está subcrítico quando a remoção por fuga e absorção ultrapassa a produção por fissão e, portanto, tende ao desligamento. Entretanto, qualquer sistema subcrítico pode ser estabilizado pela inclusão de fontes estacionárias de nêutrons em seu interior. O objetivo central deste trabalho é determinar as intensidades dessas fontes uniformes e isotrópicas de nêutrons, que se deve inserir em todas as regiões combustíveis do sistema, para que o mesmo estabilize-se gerando uma distribuição prescrita de potência elétrica. Diante do exposto, foi desenvolvido neste trabalho um aplicativo computacional em linguagem Java que estima as intensidades dessas fontes estacionárias de nêutrons, que devem ser inseridas em cada região combustível para que estabilizem o sistema subcrítico com uma dada distribuição de potência definida pelo usuário. Para atingir este objetivo, o modelo matemático adotado foi a equação unidimensional de transporte de nêutrons monoenergéticos na formulação de ordenadas discretas (SN) e o convencional método de malha fina diamond difference (DD) foi utilizado para resolver numericamente os problemas SN físicos e adjuntos. Resultados numéricos para dois problemas-modelos típicos são apresentados para ilustrar a acurácia e eficiência da metodologia proposta.