37 resultados para Graphic simulators
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
O sistema estuarino das Ilhas de Tinharé-Boipeba está inserido na região do Baixo Sul baiano (Bahia Brasil), costa nordeste brasileira, e conectam-se com o oceano através de três saídas principais, Morro de São Paulo, Boipeba e Barra dos Carvalhos. Informações relacionadas à presença de metais no sedimento são quase inexistentes para a região. Nestes estuários foram coletadas 40 amostras de sedimento, onde analisou-se a concentração de metais (Al, Cu, Fe, Mn, Pb e Zn) através da extração com água-régia, segundo o protocolo do material de referência BCR-701 (RAURET et al., 2001). Baixas concentrações de metais foram registradas nas proximidades das saídas para o mar e no Canal de Garapuá e Rio Grande. Altas concentrações, porém praticamente dentro dos valores de referência na CONAMA 344/04, foram registradas no Rio Una, na maior parte do Rio Cairu, Rio das Almas, em quase todas as estações, no braço leste do Rio Cairu e na porção intermediária do Rio dos Patos. As concentrações dos metais (mg.kg1) apresentaram valores entre os seguintes intervalos, Al (3,57 x 104 a 3,19 x 102), Cu (1,02 x 102 a 0,35), Fe (4,33 x 104 a 2,05 x 102), Mn (1,44 x 103 a 2,73), Pb (6,67 x 101 a 2,66) e Zn (5,08 x 102 a 3,18). Através da análise estatística ACP (Análise dos Componentes Principais) e dos gráficos de correlação entre a granulometria do sedimento (areia, silte e argila) e os metais, observou-se maiores concentrações de metais com o aumento do percentual de silte e diminuição do percentual de areia. Também se identificou uma forte correlação entre a ocorrência do fósforo e a presença de metais. Acredita-se que a principal espécie química em questão seja o fosfato (PO43 ou P2O5) que é uma base dura, onde a ligação com os metais se dá pelo oxigênio, sendo o caráter iônico relevante. Não foi identificada uma correlação entre a presença de metais e a argila, fato atribuído ao baixo teor dessa granulometria para todas as amostras do estudo e a composição da argila desses estuários
Resumo:
A viscosimetria é um procedimento experimental simples e pouco oneroso, que pode fornecer informações valiosas sobre o volume hidrodinâmico e a conformação de macromoléculas em solução, num determinado solvente, em uma dada temperatura. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, cuja execução experimental é mais demorada. Em contrapartida, é possível que a determinação seja feita por um único ponto. Neste trabalho, os dois métodos de cálculo, empregando uma série de seis equações: Huggins, Kraemer e Schulz-Blaschke, por extrapolação gráfica, e Schulz-Blaschke, Solomon-Ciuta e Deb-Chanterjee por um único ponto, foram utilizados em soluções de poli(glicol propilênico) (PPG) e copolímeros em bloco à base de poli(glicol propilênico) e poli(glicol etilênico) (EG-b-PG), com diferentes teores de poli(glicol etilênico), tendo isopropanol, tetra-hidrofurano (THF) e tolueno como solventes puros, além das misturas em proporções iguais de THF/ isopropanol e THF/ tolueno, a 25C. Os valores de viscosidade intrínseca e de algumas constantes indicaram que os solventes puros e as misturas se apresentaram no limite entre o bom e o mau solvente. Verificou-se também que o método de cálculo por um único ponto foi válido, especialmente quando a equação de Schulz-Blaschke foi empregada, apresentando um baixo percentual de erro sendo possível assim reduzir o tempo de análise para a maioria dos sistemas estudados
Resumo:
A odontologia moderna utiliza métodos e técnicas ultraconservadores no intuito de corrigir os diversos tipos de alterações cromáticas observadas clinicamente. Os meios empregados baseiam-se na utilização de substâncias químicas à base de peróxidos presentes em diversas concentrações. O presente estudo objetivou avaliar a microestrutura de três resinas compostas fotossensíveis submetidas à aplicação de um agente clareador a base de peróxido de hidrogênio a 35% (Whiteness HP Maxx - fabricante: FGM), ativado por uma fonte híbrida de energia luminosa (Aparelho de Laser-Led Whitening Lase, fabricante: DMC). Para isso, foram confeccionados 30 corpos de prova (CDP) 10 para cada grupo, no formato de discos, com 13 mm de diâmetro e 2,0 mm de espessura em uma matriz de teflon e aço inox, fotoativados por um aparelho de luz halógena convencional (Optilux 401 - Demetron/UR) por 40 segundos com densidade de potência média igual a 450 mW/cm2. Os grupos foram dispostos da seguinte forma: Grupo 1 - resina microparticulada (Durafill VS - fabricante: Heraeus Kulzer); Grupo 2 - resina micro-híbrida (Esthet-X - fabricante: Dentsply); e Grupo 3 resina nanoparticulada (Filtek Supreme XT fabricante: 3M ESPE). Todos os materiais restauradores utilizados eram da cor A2. Após serem submetidos à sequência de acabamento e polimento os CDP foram armazenados por sete dias em saliva artificial, limpos em ultra-som, envelhecidos artificialmente de acordo com a norma ASTM G 154. Os CDP dos três grupos foram aleatoriamente divididos em 2 subgrupos (ST sem tratamento e CT com tratamento) e finalmente submetidos aos experimentos. Os CDP dos subgrupos 1-ST, 2- ST e 3-ST foram triturados (SPEX SamplePrep 8000-series, marca: Mixer/Mills) seguido pela verificação dos materiais por meio de um espectrômetro (marca/modelo: Shimadzu EDX 720) para certificação da ausência de elementos pertencentes ao meio de moagem e por fim foram levados a um difrator de raios-X (marca / modelo: Philips -PW 3040 -X'Celerator- 40kV; 30mA; (λ): CuKα; 0,6; 0,2mm; 0,05 (2θ); 2s; 10-90 (2θ). Em seguida os CDP dos subgrupos 1-CT, 2- CT e 3-CT foram tratados com o peróxido de hidrogênio de acordo com o protocolo do fabricante para a fonte híbrida luminosa de energia selecionada, totalizando 9 aplicações de 10 minutos, onde eram respeitados os tempos de 3 minutos de ativação por 20 segundos de descanso, finalizando 10 minutos em cada aplicação. Mediante a este tratamento, os CDP dos subgrupos CT eram verificados e avaliados pelo mesmo método descrito anteriormente. Após interpretação gráfica, análise comparativa por meio do processamento digital das imagens no programa KS400 3.0 (Carl Zeiss Vision) e análise de concordância por cinco avaliadores calibrados utilizando um escore, pôde-se concluir que houve degradação estrutural e que as estruturas cristalinas das resinas estudadas foram afetadas de forma distinta quando tratadas pelo peróxido de hidrogênio; onde observou-se que: Grupo 1 > Grupo 3 > Grupo 2. Foi sugerido a realização de novos estudos, relacionados à interação do peróxido de hidrogênio às resinas compostas.
Resumo:
Nesta dissertação foi desenvolvido o sistema SAQUA (Sistema para Análise da Qualidade das Águas Fluviais), que permite o acompanhamento dos dados de séries históricas de parâmetros físico-químicos para análise da qualidade de águas fluviais. A alimentação do sistema SAQUA se dá a partir do arquivo tipo texto gerado no Hidroweb, sistema de banco de dados hidrológicos da ANA (Agência Nacional de Águas), disponibilizado na internet. O SAQUA constitui uma interface que permite a análise espaço-temporal de parâmetros de qualidade da água específicos definidos pelo usuário. A interface foi construída utilizando o servidor de mapas Mapserver, as linguagens HTML e PHP, além de consultas SQL e o uso do servidor Web Apache. A utilização de uma linguagem dinâmica como o PHP permitiu usar recursos internos do Mapserver por meio de funções que interagem de forma mais flexível com códigos presentes e futuros, além de interagir com o código HTML. O Sistema apresenta como resultado a representação gráfica da série histórica por parâmetro e, em mapa, a localização das estações em análise também definidas pelo usuário, geralmente associadas a uma determinada região hidrográfica. Tanto na representação gráfica da série temporal quanto em mapa, são destacados a partir de código de cores a estação de monitoramento e a observação em que os limites estabelecidos na resolução CONAMA 357/05 não foi atendido. A classe de uso da resolução CONAMA que será usada na análise também pode ser definida pelo usuário. Como caso de estudo e demonstração das funções do SAQUA foi escolhida a bacia hidrográfica do rio Paraíba do Sul, localizada na região hidrográfica Atlântico Sudeste do Brasil. A aplicação do sistema demonstrou ótimos resultados e o potencial da ferramenta computacional como apoio ao planejamento e à gestão dos recursos hídricos. Ressalta-se ainda, que todo o sistema foi desenvolvido a partir de softwares disponibilizados segundo a licença GPL de software livre, ou seja, sem custo na aquisição de licenças, demonstrando o potencial da aplicação destas ferramentas no campo dos recursos hídricos.
Resumo:
A Casa da Moeda do Brasil (CMB) é uma empresa nacional, com mais de 300 anos de experiência na produção de valores e impressos de segurança. A produção de cédulas, realizada pelo Departamento de Cédulas (DECED), consiste de três etapas de impressão, off-set, calografia e tipografia, seguida de acabamento e embalagem semi-automatizado. A impressão calcográfica consome solução de limpeza, composta de soda cáustica e óleo sulfonado, para limpeza do cilindro de impressão, gerando um efluente líquido saturado de tinta. Este efluente apresenta baixa biodegradabilidade, apresentando uma relação DBO / DQO de aproximadamente 1:4. Em termos de tratabilidade, as estações de tratamento de efluentes (ETE) apresentam uma configuração convencional, por via biológica, demonstram pouca eficiência na degradação da matéria orgânica deste efluente. Com compostos recalcitrantes, torna-se necessária a inclusão de uma etapa terciária que permita sua degradação por via química, permitindo o descarte do efluente com características menos danosas ao ambiente. Neste trabalho, aplicou-se a reação de Fenton no efluente do DECED por sua capacidade de converter a matéria orgânica em gás carbônico e água ou, caso seja utilizado em pré-tratamentos, torna-os biodegradáveis. Foram estudadas diferentes condições para medir a influência de diferentes parâmetros na eficiência da reação. A reação de Fenton consiste na geração de radicais hidroxil (HO), por diferentes rotas, em quantidades suficientes para a degradação de matéria orgânica. Esses radicais são gerados a partir de peróxido de hidrogênio (H2O2) em reações com diferentes precursores como ozônio (O3), luz UV (ultravioleta), ultra-som e sais de ferro. No presente trabalho restringiu-se às reações com sais de ferro. Dentre os resultados obtidos, verificou-se o tempo mínimo para reação em 10 minutos. A relação entre íons ferro e peróxido de hidrogênio é menor do que a literatura normalmente sugere, 1:2, contra 1:3. Como a solução de sulfato ferroso é muito instável, passando os íons ferrosos a férricos, utilizou-se a adição direta do sal. Em escala industrial, a solução de sulfato ferroso deve ser preparada em poucas quantidades para que tenha baixo tempo de estocagem, a fim de não ser degradada. A temperatura, na faixa estudada (de 20C à 45C), é um parâmetro que tem pouca influência, pois a redução da eficiência da reação foi pequena (de 99,0% para 94,9%). O ferro utilizado na reação não se demonstrou uma nova fonte de transtornos para o ambiente. Nas condições utilizadas, a concentração de ferro residual esteve próxima ao limite permitido pela legislação no efluente tratado, necessitando apenas de alguns ajustes para a correção do problema
Resumo:
A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo
Resumo:
A presente dissertação trata de um estudo sobre produção de livros sob demanda em dois momentos distintos da indústria gráfica. Apresentamos uma abordagem histórica do percurso do livro, segundo seus atributos materiais e tecnológicos, que marcaram a transformação de seu caráter fabril de micro e pequena escalas à produção em massa. Ao analisar referências manufatureiras de tiragem limitada do livro no âmbito da impressão tipográfica e digital, observamos o papel que o design é capaz de exercer, representando uma conexão entre esses dois registros técnicos intrinsecamente diferentes. Através da utilização de um modelo descritivo de obras sob o ponto de vista do design gráfico, buscamos pontos de convergência e divergência passíveis de auxiliar na compreensão do atual contexto de transição por que passa o mercado editorial.
Resumo:
Este trabalho tem por objetivo geral apresentar uma ferramenta computacional auxiliar na gestão dos serviços farmacêuticos bem como alguns resultados alcançados com a sua aplicação na sistematização do atendimento aos usuários do Centro de Atenção Psicossocial álcool e drogas (CAPS ad) do município de Vitória-ES, conhecido como Centro de Prevenção e Tratamento de Toxicômanos (CPTT). O Programa de Gestão em Farmácia Pública (PGFP) Módulo Saúde Mental possui um formato de banco de dados relacional, desenvolvido sob a plataforma Access e possui interface com o gerador de planilhas e gráficos do tipo Excel , aplicáveis a outras farmácias de unidades do tipo CAPS ad. Desde 2004 vem sendo utilizado e aperfeiçoado com uma proposta de informatizar a administração da farmácia, possibilitando a instrumentalização do farmacêutico via emissão de relatórios para a gestão técnica, operacional e estratégica, além de propiciar a avaliação do serviço baseando-se em indicadores sócio demográficos, de morbidade e específicos da Assistência Farmacêutica voltados para o campo da toxicodependência. Para ilustrar o uso do PGFP são apresentados dados pertencentes a 489 prontuários de usuários cadastrados na farmácia no período de janeiro de 2007 a dezembro de 2008, além de 50 prescrições médicas sistematicamente selecionadas para cada ano, coletadas a partir do sistema. Com isso, foi possível elaborar o perfil demográfico, sóciosanitário dos usuários além de aspectos relacionados a Assistência Farmacêutica local. Foi utilizado o programa computacional SPSS 11.5 for Windows para a análise estatística exploratória descritiva (distribuição de freqüências) e inferencial (teste qui-quadrado) dos dados contidos nos prontuários. Dentre algumas dessas análises, observou-se a prevalência do Crack (44%) como substância psicoativa. Revelou que a maioria dos usuários cadastrados são homens (82,4%), com faixa etária prevalente entre 25 e 34 anos (31,7%) e com grau de escolaridade equivalente ao 1 Grau Incompleto (41,3%). Com relação aos aspectos relacionados a Assistência Farmacêutica pode-se observar um No. médio de medicamentos prescritos por receita entre 1,6 1,7 itens/receita; um percentual mínimo de 96% das receitas atendidas na farmácia; e o Clonazepam como o medicamento mais prescrito no período. São citadas algumas limitações do PGFP e dos dados apresentados. Conclui-se o presente estudo fazendo-se alusão a relevância do Programa de Gestão em Farmácia Pública (PGFP), em relação não somente ao seu potencial de uso na gestão estratégica e operacional da Assistência Farmacêutica em Saúde Mental (álcool e drogas), mas fundamentalmente, como importante ferramenta de informação que propicia a elucidação do perfil da drogadição, despertando a percepção para os aspectos ligados à saúde pública e as implicações sócio-econômicas sobre a população em estudo.
Resumo:
O Ensino à distância (EaD) procura utilizar propostas pedagógicas para desenvolver sistemas inclusivos de ensino e aprendizagem. Estas propostas tem colaborado no sucesso que a EaD tem alcançado no meio empresarial corporativo. Neste meio, a demanda por cursos de formação técnica tem sido tão alta, que as empresas envolvidas no design instrucional de EaD criaram a noção de cursos à distância expressos, ou seja, cursos cuja a concepção e elaboração devem atender as tradicionais necessidades de rapidez do mercado de trabalho. Esta dissertação procura soluções para um tipo de ensino à distância ainda pouco explorado. O cenário que procuramos equacionar é o do ensino de ferramentas (softwares) para desenho vetorial, onde a metodologia de ensino é parte do processo de ensino corporativo. No processo atual de ensino de ferramentas de computação gráfica, o aluno submete ao professor, normalmente pela internet, o seu trabalho para que uma avaliação seja feita. Nesta dissertação sugerimos que este processo seja modificado de duas formas. Primeiro, no design instrucional para esta situação, trabalhamos constantemente a questão de avaliação não só na sua forma tradicional (atribuição de graus e valores) mas também como aperfeiçoamento do processo de ensino. A hipermídia adaptativa entra nesta proposta como facilitador da relação alunoprofessor-conhecimento, permitindo individualização de um ensino voltado para as massas. Em segundo lugar, propomos que a avaliação das tarefas sejam automatizada. O aluno oferece as partes (objetos) da solução que são avaliadas individualmente através de algoritmos computacionais. Isto permite uma menor participação do professor, o que é compatível com a proposta de cursos expressos. Para que isto seja possível a tarefa proposta pelo professor é dividida em objetos componentes, sendo o aluno estimulado a criar cada objeto segundo o modelo padrão oferecido. A comparaçào de cada objeto criado pelo aluno com o padrão a ser alcançado pode ser feita por diversos algoritmos computacionais existentes ou criados especificamente pelo autor do curso. Neste trabalho apresentamos exemplos desta abordagem e um protótipo que demonstra a viabilidade da proposta.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
A acústica submarina vem sendo estudada por décadas, mas redes submarinas com transmissão acústica e protocolos específicos para a comunicação neste meio são campos de pesquisa que estão iniciando. Recentemente alguns simuladores, baseados no NS-2, foram desenvolvidos para o estudo destas redes. Este trabalho avalia através de simulações a viabilidade de aplicações genéricas de monitoramento e controle em redes acústicas submarinas. São propostas e utilizadas três topologias básicas para redes acústicas submarinas: linha, quadro e cubo e dois protocolos MAC: Broadcast e R-MAC. Em nossas análises comparamos esses dois protocolos em relação ao consumo total de energia e o atraso total na rede. Os resultados mostram que essas topologias associadas aos protocolos MAC atendem as necessidades e as peculiaridades da grande maioria das aplicações de monitoramento e controle que utilizam redes acústicas submarinas. O objetivo deste estudo não foi determinar qual a melhor topologia ou o melhor tipo de protocolo de acesso ao meio, mais sim determinar qual a configuração de rede mais indicada para determinada aplicação levando em consideração as características da cada uma delas.
Resumo:
Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
Esta pesquisa tem como objetivo analisar a tipografia pintada no centro da cidade do Rio de Janeiro. A escolha da área de pesquisa busca mensurar a importância da pintura manual como técnica de produção de elementos tipográficos na paisagem urbana de um bairro central de uma grande cidade, bem como a situação atual do ofício dos pintores de letras, principais responsáveis pela sua produção. Foi realizado um levantamento fotográfico extensivo por toda área, assim como uma série de entrevistas com os pintores. Uma revisão bibliográfica buscou identificar onde outros trabalhos dessa natureza são contextualizados à luz da teoria do design, principalmente através da investigação do vernacular como categoria analítica. Foram buscadas referências históricas relacionadas ao ofício da pintura de letras, a fim de comparações com o discurso dos pintores atuais, do qual foram apropriados elementos que, juntamente com a teoria do design e da tipografia, foram utilizados para a construção de um sistema de análise, que incluiu entre suas diretrizes a produção de dados quantitativos que permitam identificar os recursos mais recorrentes que constituem a linguagem gráfica pesquisada.
Resumo:
Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.