67 resultados para Computação

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Ensino à distância (EaD) procura utilizar propostas pedagógicas para desenvolver sistemas inclusivos de ensino e aprendizagem. Estas propostas tem colaborado no sucesso que a EaD tem alcançado no meio empresarial corporativo. Neste meio, a demanda por cursos de formação técnica tem sido tão alta, que as empresas envolvidas no design instrucional de EaD criaram a noção de cursos à distância expressos, ou seja, cursos cuja a concepção e elaboração devem atender as tradicionais necessidades de rapidez do mercado de trabalho. Esta dissertação procura soluções para um tipo de ensino à distância ainda pouco explorado. O cenário que procuramos equacionar é o do ensino de ferramentas (softwares) para desenho vetorial, onde a metodologia de ensino é parte do processo de ensino corporativo. No processo atual de ensino de ferramentas de computação gráfica, o aluno submete ao professor, normalmente pela internet, o seu trabalho para que uma avaliação seja feita. Nesta dissertação sugerimos que este processo seja modificado de duas formas. Primeiro, no design instrucional para esta situação, trabalhamos constantemente a questão de avaliação não só na sua forma tradicional (atribuição de graus e valores) mas também como aperfeiçoamento do processo de ensino. A hipermídia adaptativa entra nesta proposta como facilitador da relação alunoprofessor-conhecimento, permitindo individualização de um ensino voltado para as massas. Em segundo lugar, propomos que a avaliação das tarefas sejam automatizada. O aluno oferece as partes (objetos) da solução que são avaliadas individualmente através de algoritmos computacionais. Isto permite uma menor participação do professor, o que é compatível com a proposta de cursos expressos. Para que isto seja possível a tarefa proposta pelo professor é dividida em objetos componentes, sendo o aluno estimulado a criar cada objeto segundo o modelo padrão oferecido. A comparaçào de cada objeto criado pelo aluno com o padrão a ser alcançado pode ser feita por diversos algoritmos computacionais existentes ou criados especificamente pelo autor do curso. Neste trabalho apresentamos exemplos desta abordagem e um protótipo que demonstra a viabilidade da proposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é comparar, do ponto de vista elétrico, a membrana do neurônio ganglionar com a da célula de neuroblastoma, analisando os efeitos das cargas fixas sobre o potencial elétrico nas superfícies da bicamada lipídica e também sobre o comportamento do perfil de potencial através da membrana, considerando as condiçõesfísico-químicas do estado de repouso e do estado de potencial de ação. As condições para a ocorrência dos referidos estados foram baseadas em valores numéricos de parâmetros elétricos e químicos, característicos dessas células, obtidos na literatura. O neurônio ganglionar exemplifica um neurônio sadio, e a célula de neuroblastoma, que é uma célula tumoral, exemplifica um neurônio patológico, alterado por esta condição. O neuroblastoma é um tumor que se origina das células da crista neural (neuroblastos), que é uma estrutura embrionária que dá origem a muitas partes do sistema nervoso, podendo surgir em diversos locais do organismo, desde a região do crânio até a área mais inferior da coluna. O modelo adotado para simular a membrana de neurônio inclui: (a) as distribuições espaciais de cargas elétricas fixas no glicocálix e na rede de proteínas citoplasmáticas; (b) as distribuições de cargas na solução eletrolítica dos meios externo e interno; e (c) as cargas superficiais da bicamada lipídica. Os resultados que obtivemos mostraram que, nos estados de repouso e de ação, os potenciais superficiais da bicamada interno (ÁSbc) e externo (ÁSgb) da célula de neuroblastoma não sofrem alteração mensurável, quando a densidade de carga na superfície interna (QSbc) torna-se 50 vezes mais negativa, tanto para uma densidade de carga na superfície externa da bicamada nula (QSgb = 0), como para um valor de QSgb 6= 0. Porém, no estado de repouso, uma leve queda em ÁSbc do neur^onio ganglionar pode ser observada com este nível de variação de carga, sendo que ÁSgb do neurônio ganglionar é mais negativo quando QSgb = 1=1100 e/A2. No estado de ação, para QSgb = 0, o aumento da negatividade de QSbc não provoca alteração detectável de ÁSbc e ÁSgb para os dois neurônios. Quando consideramos QSgb = 1=1100 e/A2, ÁSgb do neurônio ganglionar se torna mais negativo, não se observando variações detectáveis nos potenciais superficiais da célula de neuroblastoma. Tanto no repouso quanto no estado de ação, ÁSgb das duas células não sofre variação sensível com o aumento da negatividade da carga fixa distribuída espacialmente no citoplasma. Já a ÁSbc sofre uma queda gradativa nos dois tipos celulares; porém, no estado de ação, esta queda é mais rápida. Descobrimos diferenças importantes nos perfis de potencial das duas células, especialmente na região do glicocálix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação é apresentada uma modelagem analítica para o processo evolucionário formulado pela Teoria da Evolução por Endossimbiose representado através de uma sucessão de estágios envolvendo diferentes interações ecológicas e metábolicas entre populações de bactérias considerando tanto a dinâmica populacional como os processos produtivos dessas populações. Para tal abordagem é feito uso do sistema de equações diferenciais conhecido como sistema de Volterra-Hamilton bem como de determinados conceitos geométricos envolvendo a Teoria KCC e a Geometria Projetiva. Os principais cálculos foram realizados pelo pacote de programação algébrica FINSLER, aplicado sobre o MAPLE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivos identificar e analisar fatores associados ao aleitamento materno exclusivo, com significância estatística, em crianças menores de quatro meses residentes em Juiz de Fora, Minas Gerais. Fornece informações básicas para planejamento de política de amamentação neste município, estudando fatores influentes no desmame e criando Banco de Dados em Aleitamento Materno no Centro de Computação do Núcleo de Assessoria Técnica aos Estudos em Saúde da Universidade Federal de Juiz de Fora, disponível pára uso público. Compara os resultado desta pesquisa aos de outras cidades brasileiras com estudo de metodologia semelhante. Para atingir os objetivos propostos foi realizada pela autora desta tese uma pesquisa no período de 10 de agosto a 13 de setembro de 2002, época da campanha de vacinação na cidade, em uma amostra por conglomerado, tendo sido entrevistadas 1859 pessoas, sendo 625 mães e acompanhantes de crianças menores de 4 meses, em 24 postos de vacinação. A terminologia empregada deu-se de acordo com a recomendação da OMS (1991). Aplicou-se um questionário por intermédio de 268 entrevistadores voluntários, previamente treinados, incluindo estudantes da área de saúde. A pesquisa fez parte de um estudo multicêntrico em conjunto com o Núcleo de Pesquisas Epidemiológicas em Nutrição e Saúde da Universidade de São Paulo e do Núcleo de Investigação em Saúde da Mulher e da Criança, Instituto de Saúde, Secretaria Estadual de Saúde de São Paulo denominado Avaliação das práticas alimentares no primeiro ano de vida em dias nacionais de vacinação. A análise dos dados foi processada utilizando-se o programa Statiscal Package for The Social Sciences (SPSS) e os resultados foram descritos utilizando-se o teste do qui-quadrado para verificar a significância estatística da associação dos fatores independentes com o fator de desfecho aleitamento materno exclusivo. Para estudar possíveis fatores de confusão foi aplicada a técnica de análise de regressão logística. A pesquisa evidenciou que a prevalência de Aleitamento Materno Exclusivo aos 4 meses é baixa, sendo que esta é menor que as taxas da maioria das capitais brasileiras, com exceção de Cuiabá. Os hábitos de usar chupetas e mamadeiras são muito freqüentes no município. Os fatores de risco para interrupção do aleitamento materno exclusivo até os quatro meses encontrados foram: primiparidade, nascimento em hospital público ou público-privado, não disponibilidade para amamentar, uso de chupetas ou mamadeiras. A maioria das crianças inicia a amamentação no primeiro dia de vida em casa mas não de forma exclusiva. À medida que a idade aumenta, o índice de amamentação vai diminuindo progressivamente, indicando a necessidade urgente de programas de apoio e incentivo ao aleitamento materno, em especial de sua forma exclusiva, bem como de promoção do mesmo no município. Deve ser dada ênfase nesta atenção às mulheres primíparas e àquelas mulheres cujos partos ocorreram em hospitais públicos ou públicos-privados, que não tenham disponibilidade para amamentar e que utilizam mamadeiras ou chupetas para seus filhos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos trabalhos têm buscado compreender como se dá o processamento da concordância entre sujeito e verbo e investigar fatores que possam influenciar a produção correta da concordância, gerando os chamados erros de concordância verbal. Franck et al (2010) realizaram pesquisa na língua francesa e encontraram interferência devido a elemento movido sintaticamente na produção da concordância verbal. Se faz necessário investigar se o fenômeno envolvendo movimento é o mesmo em sentenças do português brasileiro. Sendo assim, nosso objetivo foi investigar uma possível interferência de cópia de número plural entre sujeito e verbo (em relação de concordância) de elemento movido sintaticamente em construção de árvore sintática do PB, observando a origem do erro e tentando mostrar se há autonomia do formulador sintático. Ao propormos o diálogo entre Teoria Linguística e Psicolinguística utilizando o Programa Minimalista, versão mais atual do Gerativismo de Chomsky, a fim de observar a derivação sintática e o processamento das sentenças, acreditamos que o estudo de formulação sintática e um olhar por meio de um modelo de processamento, que abarquem tanto a formulação como a produção, esclareceriam a nós pontos importantes sobre o funcionamento da concordância verbal. A nossa hipótese é a de que um erro de concordância verbal não ocorra devido ao formulador sintático em estruturas de PB, buscaremos respostas para isso no modelo MIMC (Modelo Integrado Misto da Computação On-Line) (Corrêa & Augusto, 2007). No entanto, por outro lado, se um erro de concordância ocorre, tentaremos encontrar uma outra explicação que não proveniente da sintaxe, tal como, por exemplo, devido a aspecto de ordem morfofonológica e devido a tamanho da sentença, como colocado pelo modelo PMP (Modelo de Processamento Monitorado por parser (Rodrigues, 2006). À medida que realizamos dois experimentos com sentenças declarativa e interrogativa com o movimento do elemento DP e QU, os resultados mostram que o tamanho da sentença e fatores morfofonológicos podem produzir interferência devido ao tipo de elemento movido. Os resultados cedem terreno para assumir um formulador sintático autônomo e abre caminho para próximas investigações sobre o processamento da concordância verbal e possíveis interferências durante a sua produção

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De um território livre, construído em torno dos princípios da liberdade e da colaboração um ambiente onde pode ser exercida a liberdade de ser (ou parecer), de dizer (ou escrever) e de ouvir (ou ler), para o bem ou para o mal, a massificação do uso da Internet tem constituído um espaço social (virtual) contraditório e diversificado, onde forças cuja vocação parece ser homogeneizar (e possivelmente pasteurizar) esse território livre da diferença têm sido postas em cena. Dentre essas forças, lugar especial é ocupado pelo que se convencionou chamar portais de interesse geral. Tais sites, ao procurar responder a diferentes interesses, de modo a assegurar que o máximo possível de anseios de seus usuários seja satisfeito sem a necessidade de navegarem para fora dos seus domínios, são construídos como empreendimentos cujo sucesso requer o controle do comportamento de navegação dos usuários o que, neste caso, não pode ser feito senão através do discurso (persuasivo). A hipótese que salta aos olhos é evidente: e se este não for apenas um controle pelo discurso, mas um controle do discurso? A premissa é, evidentemente, que tais sites constituem uma categoria especial de artefatos de linguagem produzidos no interior de eventos comunicativos bem determinados, isto é, um gênero emergente do discurso. Assim, o objetivo primário da presente pesquisa consistiu em determinar como o modo de funcionamento discursivo do portal contribui para afetar os hábitos de navegação dos seus usuários, curvando e distorcendo o ciberespaço nas suas vizinhanças. Para isso procuramos abordar o que chamamos atratores retóricos, isto é, aquelas estratégias (discursivas) destinadas a seduzir, convencer ou mesmo fraudar os usuários de modo a assegurar sua permanência na órbita dos portais, fazendo desses websites vetores da ordem do discurso, um elemento de controle do caos típico do ciberespaço, um agente de exorcismo da diferença e subjugação do discurso desenfreado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.