999 resultados para Computação móvel
Resumo:
Navegação, seleção e manipulação de objetos em ambientes virtuais são baseadas em métodos (técnicas de interação) associados a dispositivos convencionais ou especiais. Existem várias técnicas e dispositivos à disposição dos que desenvolvem aplicações com tais ambientes, sendo a escolha da técnica mais adequada uma tarefa difícil. Neste trabalho, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para realizar tarefas de seleção e manipulação de objetos e navegação do usuário pelo AV. A metodologia adotada nos experimentos realizados, visando a avaliar técnicas de interação em AVs imersivos foi composta por critérios de avaliação de interfaces de IHC (interface humano-computador), com critérios utilizados por Bowman, Mine e Poupyrev em seus experimentos com interfaces 3D. Também são apresentados alguns experimentos realizados, tendo vista avaliarem-se técnicas de interação na realização de tarefas de navegação, seleção e manipulação de objetos em ambientes virtuais imersivos. O objetivo deste trabalho foi a realização de experimentos para avaliar técnicas de interação para operações de seleção, manipulação e navegação em ambientes virtuais. Foram realizadas duas experiências: a primeira é uma avaliação de técnicas de seleção e manipulação em um ambiente semi-imersivo similar a um jogo de xadrez. As técnicas avaliadas são a mão virtual, associada a um mouse comum e a uma luva; e a ray-casting, associada à luva. Observou-se que o desempenho dos sujeitos é superior, quando a técnica utilizada é a mão virtual associada ao mouse comum. A segunda experiência apresenta uma avaliação experimental de dispositivos de RV em tarefas de navegação. Foi criado um ambiente, contendo um edifício com um elevador panorâmico e corredores de entrada e saída. Os testes foram realizados num ambiente imersivo, com capacete e luva, e, também em um ambiente semi-imersivo, com mouse comum e óculos com lentes de cristal líquido. Nesse segundo experimento, a preferência dos usuários pelos equipamentos utilizados foram o capacete e a luva. Observou-se que a existência ou não de objetos familiares no trajeto percorrido pelo usuário, não afeta a quantidade de colisões do sujeito com as mesmas.
Resumo:
Este trabalho trata do suporte à interação simultânea de mais de um usuário, sobre um mesmo objeto, em Ambientes Virtuais Colaborativos. Este suporte é obtido através do conceito de Metáfora Colaborativa e da arquitetura que materializa este conceito. Primeiramente, abordam-se os aspectos referentes às formas de interação usadas em ambientes virtuais imersivos monousuários. São apresentadas algumas técnicas interativas consideradas relevantes ao desenvolvimento do trabalho. No que diz respeito aos Ambientes Virtuais Colaborativos propriamente ditos apresentam-se suas principais características incluindo as semelhanças com os ambientes tradicionais de suporte computadorizado ao trabalho cooperativo. São abordados tanto aspectos referentes às facilidades providas por estes ambientes, quanto ao seu projeto e arquitetura. As principais abordagens existentes para suportar a interação entre usuários em ambientes virtuais colaborativos são apresentadas e é feita uma análise da execução de tarefas colaborativas em ambientes imersivos apontando-se as principais dificuldades existentes nos sistemas atuais. A partir deste embasamento, faz-se o desenvolvimento da chamada Metáfora Colaborativa, que se constitui em um conjunto de regras que permitem combinar técnicas interativas comumente usadas na interação individual em ambientes virtuais imersivos. Esta combinação é baseada na definição de quais graus de liberdade cada usuário irá controlar durante a manipulação simultânea de um objeto. Para possibilitar a combinação das técnicas individuais na implementação de ambientes virtuais colaborativos, foi definida uma arquitetura que prevê sistemas de controle local sobre cada ambiente e a combinação dos comandos aplicados sobre os objetos. Com o objetivo de avaliar a Metáfora Colaborativa, foram modeladas e implementadas diversas técnicas de interação colaborativa e sua eficiência foi aferida através de tarefas. Foi definido um protocolo de testes aplicado a trinta duplas de usuários, comparando seu desempenho individual e colaborativo na execução das tarefas.
Resumo:
Os estudos sobre mobilidade intensificaram-se com o uso em grande escala da Internet, pois esta trouxe a possibilidade de explorar mobilidade através de redes heterogêneas, conectadas por diferentes links de comunicação e distantes umas das outras. A replicação de componentes em sistemas distribuídos normalmente é utilizada para torná-los mais confiáveis e seguros ou para aumentar o desempenho da aplicação, uma vez que acessos remotos podem ser evitados através da localidade da réplica. Em qualquer um dos casos, a replicação implica a manutenção na consistência entre as múltiplas cópias, isto é, é preciso garantir que as cópias estejam com seus estados consistentes em um determinado momento. Em sistemas que permitem mobilidade e replicação, a principal preocupação é com a consistência e o gerenciamento das réplicas do objeto móvel. Isto é, dependendo da técnica de replicação utilizada, como gerenciar um objeto e suas réplicas se estes podem mudar sua localização? Como garantir um bom desempenho do sistema? Estas perguntas esta proposta procura responder. Este trabalho apresenta um modelo de replicação em ambientes de objetos distribuídos que permitem mobilidade chamado ReMMoS - Replication Model in Mobility Systems. O objetivo deste modelo é prover um ambiente de execução para suporte ao desenvolvimento de aplicações envolvendo mobilidade explicita e replicação implicita. Assim, o programador não necessita preocupar-se com o gerenciamento e a consistencia das cópias.
Resumo:
Atualmente, o leilão de espectro tem sido evento de considerável relevância para o mercado de telecomunicações. As cifras alcançadas nos leilões, a oportunidade que eles representam para as empresas interessadas em explorar o mercado de telecomunicações, e o interesse do governo em alocar de forma eficiente este recurso, trouxeram notoriedade e magnitude para este mecanismo de seleção. Com o advento de novas tecnologias de comunicação móvel, detentoras de características inovadoras que permitem preencher cada vez mais a cesta de necessidades do consumidor, e a partir da alocação destas tecnologias a distintas faixas de espectro, tornou-se necessário, a determinação do mecanismo de escolha mais adequado daquele que será o gestor do recurso que permitirá a oferta desses serviços ao mercado: o espectro de freqüência. Com o intuito de se avaliar esse cenário, e os distintos papéis de seus participantes, busca-se nesse trabalho, através da análise do mais recente conjunto de leilões realizados para alocação deste recurso, o leilão das licenças 3G na Europa, compreender os pormenores envolvidos desde a elaboração até o desfecho deste processo. Objetiva-se, por fim, enriquecer o debate sobre esse tema ao discutir-se o cenário brasileiro. O trabalho ao analisar os leilões europeus nos permite identificar que as regras do leilão, como comentado por diversos autores, não são diretamente transplantáveis entre diferentes ambientes. Afinal dentro do ambiente homogêneo caracterizado pelo continente europeu, apesar da semelhança entre os diversos modelos de leilão utilizados, o sucesso obtido em países como Reino Unido e Alemanha, não foi repassado aos demais, ao compararmos o preço pago per capta. Entretanto, o espectro tem seu valor altamente conectado à disponibilidade tecnológica de sua utilização, logo, espectro sem tecnologia adequada para seu uso é observado como de valor privado aproximadamente zero pelos participantes. Esse fenômeno foi caracterizado pelo baixo valor atribuído ao espectro não pareado. Apesar de valor ser relativamente nulo, não é zero, pois a aquisição do direito de uso do espectro pode representar um "hedge" para ser utilizado, senão hoje, quando a tecnologia estiver disponível. Porém sendo o espectro recurso escasso, a alocação deste para tecnologia ainda indisponível pode ser considerado ineficiente. Observa-se, também, que o "incumbent" tende a valorizar mais uma licença, porém não se conseguiu determinar se isso ocorre devido a maior quantidade de informação que este detém sobre o mercado, ou devido à tentativa de manter o "status quo" do oligopólio atual. Baseado no comentado anteriormente e nos resultados dos leilões torna-se evidente que caso o entrante não seja protegido, como o "incumbent" valoriza mais a licença este sempre pagará mais por esta. E caso, o entrante tenha esta certeza, este não virá participar do leilão, o que na maior parte dos casos inviabilizaria o leilão pois haveriam tantas licenças quanto participantes. Ao analisar-se o caso brasileiro identifica-se a presença de um jogo nacional e um subjogo regional, onde os participantes podem ser simultaneamente "incumbents" para uma região, porém entrantes em outra.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
Resumo:
O uso de Tecnologia da Informação (TI) tem evoluído muito nos últimos anos e isto influencia, sem dúvida, o ensino e a prática da arquitetura. Observa-se que o ensino de projeto nas escolas de arquitetura se dá através de um processo prático-reflexivo, no qual os alunos aprendem fazendo, sob a orientação dos professores. O conhecimento arquitetônico, portanto, vai sendo construído através da análise e interpretação do projeto e a busca de significados a partir da sua representação, sejam esboços à mão livre ou imagens digitais. Desta forma, as disciplinas de prática projetual têm grande importância, sendo consideradas fundamentais para a formação do arquiteto. Reconhecendo que a aplicação da TI gera novos paradigmas projetuais, mostrou-se importante a investigação da docência e da prática profissional. Este trabalho tem por objetivo caracterizar a presença e o uso de TI no ensino de projeto arquitetônico nas Faculdades de Arquitetura e Urbanismo (FAU) de Porto Alegre, RS. Demonstra-se, através dos resultados de estudo exploratório em quatro FAUs, as características pessoais e a forma como estão sendo desenvolvidas as habilidades dos alunos para a prática de projeto arquitetônico em função das tecnologias disponíveis e das tendências futuras que se apresentam a estes profissionais. Verificou-se como os estudantes usam recursos computacionais em geral, qual o seu o nível de conhecimento sobre TI e como tem sido feita a abordagem pelas FAUs deste tema. Explorou-se, de forma especial, a aplicação de sistemas CAD no processo de projeto arquitetônico Constatou-se que os sistemas ainda são bastante sub utilizados e que as disciplinas dos currículos das FAUs estudadas levam a uma formação aquém da necessidade exigida pelos escritórios de arquitetura, onde o uso de recursos computacionais é corrente. Para estarem adequados as exigências do mercado de trabalho, os estudantes além de completarem o seu Curso, necessitam superar a necessidade de aprendizagem de sistemas computacionais, muitas vezes adquirida durante o estágio ou em cursos extra-curriculares.
Resumo:
Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.
Resumo:
O presente trabalho apresenta uma investigação sobre algumas operações categoriais baseadas em grafos e a aplicação das mesmas a uma área específica da Ciência da Computação, a saber, animações computacionais baseadas em autômatos finitos com saída. As operações categoriais estudadas neste trabalho são: Produto, Coproduto, Soma Amalgamada e Produto Fibrado. O modelo AGA (Animação Gráfica baseada em Autômatos finitos) foi o escolhido para ser utilizado como base desta dissertação. Inspirado nestes estudos, o trabalho contém uma proposta de como aplicar tais operações com o objetivo de definir animações aparentemente complexas, de forma simples, precisa e de fácil implementação. O enfoque está baseado em J. Stoy que diz que um dos objetivos para o uso da semântica formal de teoria das categorias é “sugerir meios ou formas para o projetista desenvolver sistemas melhores, mais elegantes (“limpos”) e com descrições formais mais simples”. Entretanto, não é objetivo deste trabalho verificar se a utilização destas operações é ou não melhor do que a utilização de qualquer outra solução para criar novas animações. Esta dissertação traz uma nova versão do modelo AGA, denominada AGANd (Animação Gráfica baseada em Autômatos finitos Não determinísticos), sendo que o AGA utiliza apenas autômatos finitos determinísticos para criar os atores de uma animação. Com a utilização do AGANd obtém-se animações mais realistas e mais flexíveis. A aplicação destas operações se dá nos dois modelos, os resultados obtidos a partir de cada uma das operações sobre os mesmos são apresentados de forma detalhada e ilustrados com os autômatos resultantes no decorrer do trabalho. É apresentada uma sugestão de implementação para cada uma das operações, visando estender o protótipo já implementado do modelo AGA. Isso faz com que o leitor seja estimulado a aplicar estas e outras operações categoriais em novas animações baseadas ou não nos modelos apresentados, despertando até mesmo para seu uso em outras áreas da Ciência da Computação.
Resumo:
Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.
Resumo:
Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.
Resumo:
Este trabalho tem por objetivo apresentar e estudar a aplicação de uma ferramenta chamada PCP – Pseudo-Compilador Portugol, criada para auxiliar estudantes de programação a aprimorar o raciocínio lógico e a criar programas estruturados, sem que precisem se preocupar com comandos e instruções em Inglês ou tenham conhecimento de uma linguagem de programação específica. Por ser uma ferramenta que usa somente palavras do nosso idioma, os alunos podem direcionar todo o seu raciocínio no entendimento e resolução do problema em forma de algoritmo. O estudo experimental realizado neste trabalho pretende analisar e comparar o aprendizado entre grupos de alunos de disciplinas de programação utilizando e não utilizando esta ferramenta. Além de acompanhar o desempenho dos alunos, pretende também coletar informações durante as baterias de testes e obter as opiniões dos mesmos em relação ao PCP, no que se refere às facilidades, dificuldades, pontos positivos e falhas apresentadas. Este estudo é apresentado em duas etapas, com oito baterias de teste em cada uma. Na primeira etapa foram selecionados alunos do Curso de Ciência da Computação da UNIGRAN, em Dourados-MS; na segunda etapa foram selecionados alunos da Escola Anglo Decisivo. Estas duas etapas possibilitam a análise do aprendizado proporcionado pela ferramenta com alunos que já têm alguma noção de programação e com alunos que não tiveram nenhum contato com o desenvolvimento de programas.
Resumo:
Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.
Resumo:
Este projeto de pesquisa teve por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas estão se utilizando da Internet e outras tecnologias da informação para agregar valor e/ou reduzir custos para os seus clientes, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com fornecedores e outros parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. O objetivo principal foi verificar se o modelo preliminar proposto explicava o comportamento das empresas industriais de São Paulo, permitindo uma reflexão sobre eventuais discrepâncias e o aprimoramento do modelo, além da recomendação de linhas de ação para as empresas. Procurou-se, ainda, determinar se os usos feitos da Internet pelas empresas envolvidas na pesquisa, assim como as transformações por elas realizadas em seu ambiente empresarial em virtude da disponibilização das novas tecnologias, eram extensíveis a outros segmentos do mercado, além dos que representaram o objeto de estudo imediato deste trabalho.
Resumo:
A leflunomida é um pró-fármaco anti-reumático encontrado na forma de comprimidos revestidos com nome comercial ARAVA que, in vivo, é rápida e extensamente convertida a seu metabólito ativo A77 1726. Considerando a ausência de metodologia de controle de qualidade na literatura para a leflunomida, foram desenvolvidos métodos de caracterização e quantificação da leflunomida matéria-prima e na forma de comprimido, além de estudo preliminar de sua estabilidade. As técnicas de ponto de fusão, espectroscopia no IV, RMN 1H e 13C e CLAE associada a detector de arranjo de diiodos foram utilizadas para identificação e caracterização da leflunomida. O A77 1726 foi sintetizado e caracterizado pelas técnicas de espectroscopia no IV, RMN 1H e 13C, CLAE e DSC. Foi desenvolvido e validado método analítico para quantificação da leflunomida em comprimidos por CLAE utilizando coluna C18, ACN:água (50:50) como fase móvel e detecção em 254 nm. O método apresentou parâmetros cromatográficos adequados e parâmetros de desempenho analítico satisfatórios, com limite de detecção de 10 ng/mL. Método por espectroscopia derivada no UV foi desenvolvido e validado como alternativa para quantificação da leflunomida em comprimidos. A comparação do método por UV derivada com a CLAE, para determinação da leflunomida em comprimidos, mostrou que os métodos são intercambiáveis, creditando a técnica de UV para testes de controle de qualidade de rotina. Foram realizados estudos de degradação forçada dos comprimidos de leflunomida submetendo amostras à temperatura de 80 ºC ou exposição à radiação UV a 254 nm com lâmpada germicida. O principal produto de degradação encontrado foi o A77 1726. Além disso, outro produto de degradação, com tempo de retenção de 5,5 min (CLAE), apresentou quantidades significativas no estudo de degradação térmica.