41 resultados para Método da Segmentação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação avalia a evolução e estrutura do spread bancário ex-post no Brasil, no período 2000-2008, usando o método de decomposição contábil. Esta avaliação é feita em três partes. Na primeira estuda-se o setor bancário como um todo utilizando uma amostra de 30 bancos representando 89,8% do total de ativos do Consolidado bancário I (bancos comerciais e bancos múltiplos que tenham uma carteira comercial) no ano 2008. Na segunda a análise é realizada levando em conta as especificidades dos diferentes segmentos de bancos (grandes bancos varejistas, bancos varejistas públicos e bancos especializados em crédito), definidos considerando características como tamanho, tipo de negócio e clientela, característica do funding, etc., e ainda o controle de capital (público, privado nacional e estrangeiro). Por fim, numa terceira parte, considera-se, sobretudo o nicho do mercado de crédito que o banco atua. Esta segmentação do setor bancário permite avaliar a evolução do spread e sua decomposição, assim como comparar os diferentes segmentos do mercado de crédito no Brasil. A principal conclusão da dissertação é que a diferenciação da amostra de bancos por segmento ou por nicho de mercado tem implicações importantes para análise do nível e decomposição do spread bancário.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Inglês para Fins Específicos é a abordagem de ensino que ancora o trabalho feito no instituto federal no qual trabalho. Ele tem como premissa básica o ensino focado em uma análise de necessidades, ou seja, tudo o que é ensinado/aprendido está em alinhamento com o que os aprendizes necessitam em seu ambiente acadêmico e profissional. Por causa de mitos e dogmas enraizados ao longo das décadas, porém, a abordagem transformou-se exclusivamente no ensino de leitura e originou distorções na proposta original. O estudo parte da pergunta de pesquisa: O que o aluno participante desta pesquisa vê como prioridade em sua aprendizagem de inglês na escola? Outras perguntas surgiram após conversar com os dados coletados: Por que os alunos participantes querem um ensino e a escola propicia outro?; O que falta na sala de aula para amenizar essa lacuna entre o desejo dos alunos-participantes e a oferta da escola?; e, O que nós, professores, podemos fazer em relação às propostas pedagógicas para preencher esse espaço, à luz dos dados coletados e da revisão de literatura? Investigo então o posionamento de 65 aprendizes do 3 ano do ensino médio da escola na qual trabalho, através de questionários e entrevista nos moldes de um grupo focal com 5 participantes, sobre o que eles veem como prioridade na aprendizagem de inglês na escola e reflito sobre práticas pedagógicas que poderiam atender às necessidades apontadas pelos participantes. Dentro do espírito (in)disciplinar da Linguística Aplicada e dentro de um paradigma qualitativo, a análise das respostas pautou-se na recorrência de temas nas respostas às perguntas do questionário e participação no grupo focal. Temas que recorreram com frequência alta formaram categorias que serviram de base para a discussão. Selecionei duas perguntas do questionário para a análise: a pergunta (9) como você espera que seja o ensino de inglês no Ensino Médio? e a (10) quais habilidades vocês gostariam de desenvolver?, por sua relação direta com o objetivo da pesquisa. A categoria que emergiu das menções mais recorrentes nos proferimentos dos alunos foi comunicação oral, em um total de 62 menções. Outras oito categorias emergiram do corpus. Considerei frequência alta, e por isso categórica, a quantidade de 17 menções. A partir desses resultados, defendo neste trabalho que a voz do aluno (que grita urgência ao aprendizado da comunicação oral) seja ouvida nesse processo, e que uma nova pedagogia pós-metodológica seja implantada no ensino-aprendizagem de línguas no ensino médio e técnico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A necessidade de se obter soluções para os diversos problemas estruturais na engenharia, associado ao amplo crescimento e difusão da construção metálica fez surgir, por volta dos anos 60, os perfis tubulares. As ligações soldadas entre perfis tubulares são as ligações de maior difusão nas construções com este tipo de perfil, sendo necessário portanto, estudos mais detalhados que tornem a utilização de ligações soldadas mais seguras e otimizadas. O Eurocode 3 possui um item específico para as ligações entre perfis tubulares, em especial as ligações soldadas devido a suas particularidades. Infelizmente, a norma brasileira NBR8800 não aborda as ligações envolvendo perfis tubulares. Para a execução da análise numérica no presente trabalho, faz-se necessário uma revisão bibliográfica. Com estes resultados, foram feitas modelagens de ligações tubulares com o método dos elementos finitos de forma a otimizar os modelos a serem utilizados em uma análise paramétrica futura. Desta forma, foram desenvolvidos dois modelos numéricos, um considerando ligação tipo T entre perfis tubulares quadrados e outro para uma ligação tipo K entre perfis circulares. Estes modelos foram caracterizados através de elementos de casca com seis graus de liberdade por nó considerando-se adicionalmente o efeito de membrana. A análise não-linear realizada considerou a não-linearidade do material através do critério de plastificação de Von Mises através de uma lei constitutiva tensão versus deformação bi-linear e a não-linearidade geométrica foi atribuída através da formulação de Lagrange atualizado. Dentre as principais conclusões obtidas no presente trabalho, pode-se citar que os resultados para as ligações tipo T, o Eurocode 3, fornece resultados que precisam ser observados com cautela. Todavia, para as ligações do tipo K, os resultados numéricos mostraram-se sempre inferiores aos valores através do Eurocode 3, representando um dimensionamento a favor da segurança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A previsão do comportamento de resíduos constituiu-se em um desafio geotécnico, uma vez que estes materiais apresentam uma resposta distinta dos materiais usualmente encontrados em depósitos naturais. A análise dos recalques da fundação, decorrentes da sobrecarga imposta pelo alteamento, é complexa, tendo em vista que o adensamento de resíduos pressupõe grandes deformações, invalidando o uso de teorias clássicas de adensamento. Atualmente, no Brasil, a técnica de disposição de resíduos de bauxita prevê uma operação inicial de lançamento no interior de lagos artificiais, em forma de polpa. Após o esgotamento do lago e ressecamento do resíduo, inicia-se o lançamento pelo método a montante. Neste método, a polpa é lançada sobre o resíduo pré-existente, que se encontra em processo de adensamento. O presente trabalho tem como objetivo reproduzir numericamente o comportamento de áreas de resíduos durante a etapa de alteamento a montante. A pesquisa tem como enfoque 2 áreas de resíduos de bauxita. Uma delas encontra-se em fase de reabilitação e dispõe de instrumentação de campo (recalques e deslocamentos horizontais). A outra se encontra em fase de operação do alteamento e dispõe de dados experimentais. Desta forma, a metodologia consistiu na reprodução numérica do processo de alteamento da área instrumentada e comparação dos resultados com a instrumentação de campo, com objetivo de avaliar o modelo numérico e os parâmetros do resíduo. Posteriormente, realizou-se a previsão do comportamento do resíduo de fundação da área em fase de alteamento. Os parâmetros geotécnicos foram definidos a partir de um extenso programa de ensaios de campo e laboratório, executado no local em estudo, fazendo-se uso de um tratamento estatístico dos dados experimentais. Os resultados numéricos mostraram a potencialidade do programa na previsão do comportamento de áreas de resíduos durante o alteamento a montante, com previsões de recalques e deslocamentos horizontais coerentes com a instrumentação de campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese apresenta um exame da lógica da negação ou ambiguidade essencial da consciência, como núcleo metodológico da filosofia de Gaston Bachelard. Seu ponto de partida é a consideração da filosofia do não reformulação do pensamento estruturada sobre a necessidade epistemológica de opor-se ao modo de conhecimento clássico como valorização da negatividade, da crítica e da contradição, novos vetores de progresso dos saberes estético e científico. O jogo de oposições assume nesta abordagem o papel de estímulo que impulsiona a expansão da consciência, ao ressaltar a lógica das contradições que, em tal modo, revela simultaneamente como fundamento da investigação bachelardiana a necessidade de abertura e valorização da imaginação criadora, em sua aptidão ao vislumbre de novas estratégias do saber. O primeiro capítulo aborda a atuação deste dinamismo de polaridades e ambivalências como estratégia de demonstração e crescimento do saber epistemológico de Bachelard; o segundo, realiza um percurso análogo no campo da poética, estudando imaginação e devaneio como fulcros de infinitas e fecundas contradições. O terceiro capítulo explora as possibilidades desta lógica das oposições, que põe em relevo a complementaridade entre ciência e arte, e possibilita a compreensão da obra bachelardiana como unidade essencial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método de Matriz Resposta (MR) é descrito para gerar soluções numéricas livres de erros de truncamento espacial para problemas multigrupo de transporte de nêutrons com fonte fixa e em geometria unidimensional na formulação de ordenadas discretas (SN). Portanto, o método multigrupo MR com esquema iterativo de inversão nodal parcial (NBI) converge valores numéricos para os fluxos angulares nas fronteiras das regiões que coincidem com os valores da solução analítica das equações multigrupo SN, afora os erros de arredondamento da aritmética finita computacional. É também desenvolvido um esquema numérico de reconstrução espacial, que fornece a saída para os fluxos escalares de nêutrons em cada grupo de energia em um intervalo qualquer do domínio definido pelo usuário, com um passo de avanço também escolhido pelo usuário. Resultados numéricos são apresentados para ilustrar a precisão do presente método em cálculos de malha grossa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta pesquisa utilizou-se um equipamento experimental que utiliza o método do eco-impacto produzido no Laboratório de Ensaios Físicos do Instituto Politécnico do Rio de Janeiro (UERJ/IPRJ), para estimar a espessuras de placas de concreto através da propagação de ondas de tensão geradas por um impacto. Para determinação dessa espessura, foram investigados vários mecanismos de estruturação do protótipo do equipamento com objetivo de se obter a melhor leitura possível, por meio das literaturas existentes. Entre parâmetros avaliados no estudo, estava o modelo de sensor a ser utilizado, o tipo de impactor, a precisão relacionada à aquisição de dados e o tratamento do mesmo, a distância entre o ponto de impacto e o transdutor (sensor), e o local de teste. Os resultados experimentais concordam com as previsões teóricas e revelam que este método é eficiente para análise de estrutura de concreto. A análise da espessura e resposta em frequência de um novo protótipo desenvolvido e os testes realizados possibilitou um erro médio de espessura real para amostras sem agregados de 0,39% e para as amostras com agregados com de 0,64%. Esses resultados apontam que o equipamento produzido tem potencial e que o mesmo pode ser utilizado para avaliação de estrutura de concreto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação Método Pocha: Práticas de Ensino em Performance para Cruzadores de Fronteiras é uma reflexão sobre possibilidades educativas em performance art. Pesquisa que tem como enfoque o Método Pocha metodologia de ensino em performance desenvolvida pelo coletivo La Pocha Nostra. Nesse sentido, busca-se identificar as propostas metodológicas, procedimentos, temáticas, apontamentos conceituais que sustentam as práticas pedagógicas do La Pocha Nostra, e investigar o processo formativo/educativo por vias da arte da performance. O recorte da presente abordagem prioriza performances que habitem interstícios e espaços fronteiriços. Compreende o performer como um cronista do seu tempo/espaço, que reflete e problematiza os fluxos, formações e composições contemporâneas. As práticas, procedimentos e conceitos desenvolvidos nos programas performativos do coletivo La Pocha Nostra são pensados no contexto da pesquisa enquanto modo de descolonizar nossos corpos e criar complicações em torno de representações vigentes, ampliando noções de identidade e diferença em seu lugar de trânsito: o corpo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi desenvolver um estudo morfológico quantitativo e qualitativo da região da sínfise mandibular (SM), através da construção de modelos tridimensionais (3D) e avaliar o seu grau de associação com diferentes classificações de padrões faciais. Foram avaliados 61 crânios secos humanos de adultos jovens com oclusão normal, com idade entre 18 e 45 anos e dentadura completa. Tomografias computadorizadas de feixe cônico (TCFC) de todos os crânios foram obtidas de forma padronizada. O padrão facial foi determinado por método antropométrico e cefalométrico. Utilizando o critério antropométrico, tomando como referência o índice facial (IF), o padrão facial foi classificado em: euriprósopo (≤84,9), mesoprósopo (85,0 - 89,9) e leptoprósopo (≥90,0). Pelo critério cefalométrico, o plano mandibular (FMA) determinou o padrão facial em curto (≤21,0), médio (21,1 - 29,0) e longo (≥29,1); e o índice de altura facial (IAF) classificou a face em hipodivergente (≥0,750), normal (0,749 - 0,650) e hiperdivergente (≤0,649). A construção de modelos 3D, representativos da região da SM, foi realizada com o auxílio do software ITK-SNAP. Os dentes presentes nesta região, incisivos, caninos e pré-molares inferiores, foram separados do modelo por técnica de segmentação semi-automática, seguida de refinamento manual. Em seguida, foram obtidos modelos 3D somente com o tecido ósseo, possibilitando a mensuraçãodo volume ósseo em mm3 (VOL) e da densidade radiográfica, pela média de intensidade dos voxels (Mvox). No programa Geomagic Studio 10 foi feita uma superposição anatômica dos modelos 3D em bestfit para estabelecer um plano de corte padronizado na linha média. Para cada sínfise foi medida a altura (Alt), a largura (Larg) e calculado o índice de proporção entre altura e largura (PAL). A avaliação da presença de defeitos alveolares foi feita diretamente na mandíbula,obtendo-se a média de todas as alturas ósseas alveolares (AltOss) e a média da dimensão das deiscências presentes (Medef). O índice de correlação intra-classe (ICC) com valores entre 0,923 a 0,994,indicou alta reprodutibilidade e confiabilidade das variáveis medidas. As diferenças entre os grupos, determinados pelas classificações do padrão facial (IF, FMA e IAF), foram avaliadas através da análise de variância (oneway ANOVA) seguida do teste post-hoc de Tukey. O grau de associação entre o padrão facial e as variáveis Vol, Mvox, PAL, Alt, Larg, AltOss e Medef foi avaliado pelo coeficiente de correlação de Pearson com um teste t para r. Os resultados indicaram ausência de diferença ou associação entre o volume, densidade radiográfica e presença de defeitos alveolares da SM e o padrão facial quando determinado pelo IF, FMA e IAF. Verificou-se tendência de SM mais longas nos indivíduos com face alongada, porém a largura não mostrou associação com o padrão facial. Estes resultados sugerem que as classificações utilizadas para determinar o padrão facial não representam satisfatoriamente o caráter 3D da face humana e não estão associadas com a morfologia da SM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nanopartículas de dióxido de titânio vêm sendo extensamente empregadas como fotocatalisa-dores, já que são eficientes na degradação de diversos poluentes. Visando a obtenção de titâ-nias com diferentes propriedades, realizaram-se sínteses através do método sol-gel, a partir da hidrólise do tetraisopropóxido de titânio (IV) TIPP e seguindo-se os princípios da Química Verde, dispensando-se temperaturas e pressões elevadas. Foi estudada a influência de dife-rentes parâmetros, como: pH, solvente, razão molar álcool/TIPP e ordem de adição dos rea-gentes. Foram obtidas titânias na forma cristalina anatásio, nanométricas, com elevadas áreas superficiais específicas e predominantemente mesoporosas. Visando-se obter titânias com melhores propriedades óticas, isto é, capazes de sofrer a fotoativação pela luz visível, foram sintetizadas titânias dopadas e co-dopadas com os metais ferro e rutênio (Fe3+ e Ru3+) e o a-metal N (N3). A síntese desses materiais também foi realizada através do método sol-gel, sendo a dopagem realizada durante o processo de hidrólise. As amostras foram caracterizadas na forma de pó por difração de raios-X, adsorção-dessorção de nitrogênio, microscopia ele-trônica de varredura e espectroscopia de refletância difusa no UV-Visível. A titânia pura a-presentou como única fase cristalina o anatásio, quando calcinada até 400 C, com a presença de traços de brookita. A partir de 600 C, observou-se o aparecimento da fase rutilo, que em 900C foi a única fase encontrada na titânia. A dopagem com Ru3+dificultou a transformação de fase anatásio para rutilo, ao contrário da dopagem com Fe3+. O processo de co-dopagem acelerou a formação de rutilo, que se apresentou como única fase nas amostras calcinadas a 600 C. As titânias dopadas apresentaram uma leve diminuição na energia de bandgap, sendo os dopantes capazes de deslocar a absorção para o vermelho. Foram realizados testes fotoca-talíticos visando à degradação do azocorante Reactive Yellow 145 com lâmpada de vapor de mercúrio de 125 W a fim de se comparar as atividades fotocatalíticas das titânias puras, dopa-das e co-dopadas, calcinadas a 300C. De todas as titânias sintetizadas, a titânia pura foi a que melhor degradou o corante, tendo um desempenho semelhante ao do TiO2 P25, da Evo-nik

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.