968 resultados para Sistemas tutores inteligentes


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Muitas pesquisas estão sendo desenvolvidas buscando nos sistemas inteligentes soluções para diagnosticar falhas em máquinas elétricas. Estas falhas envolvem desde problemas elétricos, como curto-circuito numa das fases do estator, ate problemas mecânicos, como danos nos rolamentos. Dentre os sistemas inteligentes aplicados nesta área, destacam-se as redes neurais artificiais, os sistemas fuzzy, os algoritmos genéticos e os sistemas híbridos, como o neuro-fuzzy. Assim, o objetivo deste artigo é traçar um panorama geral sobre os trabalhos mais relevantes que se beneficiaram dos sistemas inteligentes nas diferentes etapas de análise e diagnóstico de falhas em motores elétricos, cuja principal contribuição está em disponibilizar diversos aspectos técnicos a fim de direcionar futuros trabalhos nesta área de aplicação.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dos aspectos destacan entre los resultados más interesantes de la investigación en la década de los 90 en el campo de la ingeniería del conocimiento. Por un lado, se ha profundizado en el conocimiento sobre cómo las personas resuelven problemas. Esto se ha logrado por la vía empírica mediante un trabajo científico de observación, experimentación por medios computacionales y generalización. Como resultado de esta línea, actualmente se dispone de un primer conjunto de modelos formales, los llamados problem-solving methods (PSM), muy útiles en el campo de la ingeniería informática como plantillas de diseño que guían la construcción de nuevos sistemas. Por otro lado, como logro adicional en este campo de investigación, se ha creado un nuevo lenguaje descriptivo como complemento a las formas de representación tradicionales. Dicho lenguaje, que ha sido aceptado por un amplio número de autores, se sitúa en un mayor nivel de abstracción y permite la formulación de arquitecturas más complejas de sistemas basados en el conocimiento. Como autores que más han contribuido en este aspecto se pueden citar: Luc Steels que propuso los denominados componentes de la experiencia como forma de unificación de trabajos previos en este campo, Bob Wielinga, Guus Schreiber y Jost Breuker en el campo de metodologías de ingeniería del conocimiento y el equipo de Mark Musen respecto a herramientas. Dicho lenguaje descriptivo ha supuesto además el planteamiento de una nueva generación de herramientas software de ayuda a los técnicos desarrolladores para construcción de este tipo de sistemas. El propósito principal del presente texto es servir de base como fuente de información de ambos aspectos recientes del campo de la ingeniería del conocimiento. El texto está dirigido a profesionales y estudiantes del campo de la informática que conocen técnicas básicas tradicionales de representación del conocimiento. La redacción del presente texto se ha orientado en primer lugar para recopilar y uniformizar la descripción de métodos existentes en la literatura de ingeniería de conocimiento. Se ha elegido un conjunto de métodos representativo en este campo que no cubre la totalidad de los métodos existentes pero sí los más conocidos y utilizados en ingeniería del conocimiento, presentando una descripción detallada de carácter tanto teórico como práctico. El texto describe cada método utilizando una notación común a todos ellos, parcialmente basada en los estándares descriptivos seguidos por las metodologías más extendidas. Para cada método se incluyen algoritmos definidos de forma expresa para el presente texto con ejemplos detallados de operación. Ambos aspectos, la uniformización junto a la presentación detallada de la operación, suponen una novedad interesante respecto al estado actual de la literatura sobre este campo, lo que hace el texto muy adecuado para ser utilizado como libro de consulta como apoyo en la docencia de la asignatura de construcción de sistemas inteligentes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La obtención de energía a partir de la fusión nuclear por confinamiento magnético del plasma, es uno de los principales objetivos dentro de la comunidad científica dedicada a la energía nuclear. Desde la construcción del primer dispositivo de fusión, hasta la actualidad, se han llevado a cabo multitud de experimentos, que hoy en día, gran parte de ellos dan soporte al proyecto International Thermonuclear Experimental Reactor (ITER). El principal problema al que se enfrenta ITER, se basa en la monitorización y el control del plasma. Gracias a las nuevas tecnologías, los sistemas de instrumentación y control permiten acercarse más a la solución del problema, pero a su vez, es más complicado estandarizar los sistemas de adquisición de datos que se usan, no solo en ITER, sino en otros proyectos de igual complejidad. Desarrollar nuevas implementaciones hardware y software bajo los requisitos de los diagnósticos definidos por los científicos, supone una gran inversión de tiempo, retrasando la ejecución de nuevos experimentos. Por ello, la solución que plantea esta tesis, consiste en la definición de una metodología de diseño que permite implementar sistemas de adquisición de datos inteligentes y su fácil integración en entornos de fusión para la implementación de diagnósticos. Esta metodología requiere del uso de los dispositivos Reconfigurable Input/Output (RIO) y Flexible RIO (FlexRIO), que son sistemas embebidos basados en tecnología Field-Programmable Gate Array (FPGA). Para completar la metodología de diseño, estos dispositivos van a ser soportados por un software basado en EPICS Device Support utilizando la tecnología EPICS software asynDriver. Esta metodología se ha evaluado implementando prototipos para los controladores rápidos de planta de ITER, tanto para casos prácticos de ámbito general como adquisición de datos e imágenes, como para casos concretos como el diagnóstico del fission chamber, implementando pre-procesado en tiempo real. Además de casos prácticos, esta metodología se ha utilizado para implementar casos reales, como el Ion Source Hydrogen Positive (ISHP), desarrollada por el European Spallation Source (ESS Bilbao) y la Universidad del País Vasco. Finalmente, atendiendo a las necesidades que los experimentos en los entornos de fusión requieren, se ha diseñado un mecanismo mediante el cual los sistemas de adquisición de datos, que pueden ser implementados mediante la metodología de diseño propuesta, pueden integrar un reloj hardware capaz de sincronizarse con el protocolo IEEE1588-V2, permitiendo a estos, obtener los TimeStamps de las muestras adquiridas con una exactitud y precisión de decenas de nanosegundos y realizar streaming de datos con TimeStamps. ABSTRACT Fusion energy reaching by means of nuclear fusion plasma confinement is one of the main goals inside nuclear energy scientific community. Since the first fusion device was built, many experiments have been carried out and now, most of them give support to the International Thermonuclear Experimental Reactor (ITER) project. The main difficulty that ITER has to overcome is the plasma monitoring and control. Due to new technologies, the instrumentation and control systems allow an approaching to the solution, but in turn, the standardization of the used data acquisition systems, not only in ITER but also in other similar projects, is more complex. To develop new hardware and software implementations under scientific diagnostics requirements, entail time costs, delaying new experiments execution. Thus, this thesis presents a solution that consists in a design methodology definition, that permits the implementation of intelligent data acquisition systems and their easy integration into fusion environments for diagnostic purposes. This methodology requires the use of Reconfigurable Input/Output (RIO) and Flexible RIO (FlexRIO) devices, based on Field-Programmable Gate Array (FPGA) embedded technology. In order to complete the design methodology, these devices are going to be supported by an EPICS Device Support software, using asynDriver technology. This methodology has been evaluated implementing ITER PXIe fast controllers prototypes, as well as data and image acquisition, so as for concrete solutions like the fission chamber diagnostic use case, using real time preprocessing. Besides of these prototypes solutions, this methodology has been applied for the implementation of real experiments like the Ion Source Hydrogen Positive (ISHP), developed by the European Spallation Source and the Basque country University. Finally, a hardware mechanism has been designed to integrate a hardware clock into RIO/FlexRIO devices, to get synchronization with the IEEE1588-V2 precision time protocol. This implementation permits to data acquisition systems implemented under the defined methodology, to timestamp all data acquired with nanoseconds accuracy, permitting high throughput timestamped data streaming.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Os smart grids representam a nova geração dos sistemas elétricos de potência, combinando avanços em computação, sistemas de comunicação, processos distribuídos e inteligência artificial para prover novas funcionalidades quanto ao acompanhamento em tempo real da demanda e do consumo de energia elétrica, gerenciamento em larga escala de geradores distribuídos, entre outras, a partir de um sistema de controle distribuído sobre a rede elétrica. Esta estrutura modifica profundamente a maneira como se realiza o planejamento e a operação de sistemas elétricos nos dias de hoje, em especial os de distribuição, e há interessantes possibilidades de pesquisa e desenvolvimento possibilitada pela busca da implementação destas funcionalidades. Com esse cenário em vista, o presente trabalho utiliza uma abordagem baseada no uso de sistemas multiagentes para simular esse tipo de sistema de distribuição de energia elétrica, considerando opções de controle distintas. A utilização da tecnologia de sistemas multiagentes para a simulação é baseada na conceituação de smart grids como um sistema distribuído, algo também realizado nesse trabalho. Para validar a proposta, foram simuladas três funcionalidades esperadas dessas redes elétricas: classificação de cargas não-lineares; gerenciamento de perfil de tensão; e reconfiguração topológica com a finalidade de reduzir as perdas elétricas. Todas as modelagens e desenvolvimentos destes estudos estão aqui relatados. Por fim, o trabalho se propõe a identificar os sistemas multiagentes como uma tecnologia a ser empregada tanto para a pesquisa, quanto para implementação dessas redes elétricas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La evolución tecnológica afecta a todas las parcelas de actividad humana. Entre los aspectos más sensibles a esta evolución se encuentran la enseñanza y el aprendizaje tanto por su impacto en las competencias profesionales como por su uso para mejorar la calidad y relevancia de la docencia. Los profesores deben asumir un papel director ante esta situación que con el tiempo gana en protagonismo, siendo fundamental abordar la adaptación al cambio metodológico que supone la emergencia de la docencia on-line y la cada vez mayor presencia de los MOOC (acrónimo en inglés de massive open online course). En este trabajo se analiza la docencia on-line de materias de Inteligencia Artificial (IA), utilizando el paradigma de los MOOC como referencia. A tal fin, se revisan las características de los MOOC, sus aspectos metodológicos y sistemas de evaluación. Se particulariza el estudio de los MOOC en IA comparándolos con el enfoque de carácter presencial de la asignatura Sistemas Inteligentes. El objetivo de este trabajo es determinar los aspectos que deberían reenfocarse en esta materia bajo el paradigma MOOC. Deseamos destacar el soporte de la “Red de Investigación en Sistemas Inteligentes. Revisión de objetivos y contenidos de IA en el grado de Ingeniería Informática dentro del EESS” Código de Red ICE: 3300.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta memoria corresponde al trabajo desarrollado durante el curso 2013-2014 por los componentes de la “Red de Investigación en Sistemas Inteligentes. Evaluación continua mediante controles utilizando Moodle”. Código de Red ICE: 3021. En la asignatura Sistemas Inteligentes del grado en Ingeniería Informática, durante el curso 2013-14, se planteó a los estudiantes un sistema de evaluación continua de la parte teórica consistente en la realización de controles on-line utilizando cuestionarios Moodle. En las normas de evaluación de la asignatura, los controles acumulaban toda la materia impartida hasta la fecha y su peso creciente de cara a la obtención de la nota final. Teníamos especial interés en determinar si el sistema resultaba estimulante para los estudiantes debido a considerar que este aspecto es fundamental en el proceso de aprendizaje. La memoria se organiza de la siguiente forma: se inicia analizando la viabilidad de la evaluación continua y su interés pedagógico en nuestro contexto, seguidamente se presenta la metodología empleada, las características de los cuestionarios Moodle, se aportan los estudios que nos han permitido validar nuestra propuesta, las conclusiones y las recomendaciones que permitirán mejorar los procesos y resultados en el futuro.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Um dos principais problemas que estação de Tratamento de Água do Monte Novo tem vindo a apresentar é o aparecimento de teores em manganês na água tratada, que por vezes ultrapassam o valor paramétrico estabelecido no Decreto-Lei 306/07, 27 de Agosto (50 g dm-3). Este trabalho permitiu relacionar resultados de várias determinações analíticas efectuadas no laboratório da empresa Águas do Centro Alentejo e, através deles construir modelos fundamentados em técnicas e Descoberta de Conhecimento em Base de Dados que permitiram responder ao problema identificado. Foi ainda possível estabelecer a época do ano em que é mais provável o aparecimento de teores elevados manganês na água tratada. Além disso, mostrou-se que a tomada de água desempenha um papel relevante no aparecimento deste metal na água tratada. Os modelos desenvolvidos permitiram também estabelecer as condições em que é provável o aparecimento de turvação na cisterna de água tratada. Estas estão relacionadas com o pH, o teor em manganês e o teor em ferro. Foi ainda realçada a importância da correcção do pH na fase final do processo de tratamento. Por um lado, o pH deve ser suficientemente elevado para garantir uma água incrustante e, por outro, deve ser baixo para evitar problemas de turvação na cisterna da água tratada. ABSTRACT; The present study took place in the water treatment plant of Monte Novo. This study aimed for solutions to the problem of high values of manganese concentration in the treated water, in some periods of the year. The present work reports models for manganese concentration and for turbidity using Knowledge Discovery Techniques in Data Bases.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente trabalho realizou-se na Refinaria de Sines e teve como principal objectivo a utilização de ferramentas oriundas da Área Científica da Inteligência Artificial no desenvolvimento de modelos de previsão da classificação da Água Residual Industrial de acordo com a Legislação em vigor, com vista à minimização dos impactes ambientais e das tarifas aplicadas pela Concessionária (Águas de Santo André) à Refinaria. Actualmente a avaliação da qualidade do efluente é realizada através de métodos analíticos após colheita de uma amostra do efluente final. Esta abordagem é muito restritiva já que não permite actuar sobre o efluente em questão pois apenas pode evitar que, no futuro, uma mistura semelhante volte a ser refinada. Devido a estas limitações, o desenvolvimento de modelos de previsão baseados em Data Mining mostrou ser uma alternativa para uma questão pró-activa da qualidade dos efluentes que pode contribuir decisivamente para o cumprimento das metas definidas pela Empresa. No decurso do trabalho, foram desenvolvidos dois modelos de previsão da qualidade do efluente industrial com desempenhos muito semelhantes. Um deles utiliza a composição das misturas processadas e o outro, utiliza informações relativas ao crude predominante na mistura. ABSTRACT; This study has taken place at the Sines Refinery and its main objective is the use of Artificial Intelligence tools for the development of predictive models to classify industrial residual waters according with the Portuguese Law, based on the characteristics of the mixtures of crude oil that arrive into the Refinery to be processed, to minimize the Environmental impacts and the application of taxes. Currently, the evaluation of the quality of effluent is performed by analytical methods after harvesting a sample of the final effluent. This approach is very restrictive since it does not act on the intended effluent; it can only avoid that in the future a similar mixture is refined. Duet these limitations, the development of forecasting models based on Data Mining has proved to be an alternative on the important issue which is the quality of effluent, which may contribute to the achievement of targets set by the Company. During this study, two models were developed to predict the quality of industrial effluents with very similar performances. One uses the composition of processed mixtures and the other uses information regarding the predominant oil in the mixture.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A nanotecnologia é uma ciência multidisciplinar que consiste na otimização das propriedades da matéria permitindo assim o desenvolvimento de sistemas com um tamanho manométrico. A aplicação da nanotecnologia na medicina surge como um campo de pesquisa que esta a gerar um grande interesse, principalmente em sistemas de libertação controlada de fármacos. A nanotecnologia, e a sua aplicação na área da nanomedicina, em particular em drug delivery systems, tem sido alvo de um desenvolvimento acentuado. A administração de fármacos ocorre sobretudo por via oral ou por injeção direta no organismo. O percurso destes fármacos desde do local de entrada no organismo até ao tecido-alvo obriga que estes entrem em contato com os outros tecidos podendo interagir com eles. Deste modo, esta interação química pode produzir efeitos indesejáveis no organismo e reduzir a capacidade de ação do fármaco. Tem-se verificado, nas últimas décadas, um grande desenvolvimento de sistemas que contornam estes problemas, tais como a quantidade e o período de administração do fármaco bem como o seu local de libertação e atuação específicos. Este estudo surge com esta necessidade de se desenvolver sistemas de libertação controlada de fármacos. O objetivo destes sistemas inteligentes é controlar a libertação de fármacos por um dado período de tempo, a dose, a diminuição da toxidade, o aumento da permanência em circulação e o aumento da eficácia terapêutica através da libertação progressiva e controlada do fármaco por administrações menos frequentes. Além de todas estas vantagens, a administração destes sistemas possibilita a libertação dos fármacos em locais específicos, tais como em tumores e, assim, minimizar os efeitos colaterais indesejados dos fármacos em outros tecidos. O presente trabalho visa o desenvolvimento de novos biomateriais utilizando nanopartículas mesoporosas de sílica (MSN) e nanopartículas (NPs) metálicas de ouro para a aplicação a sistemas de libertação controlada de fármacos. Para isto, estudou-se a libertação de doxorrubicina (DOX) encapsulada em NPs e nanocápsulas mesoporosas de sílica tanto em solução como em superfícies como em vidro. Os resultados obtidos mostraram que as NPs apresentam uma grande capacidade de encapsulação com 36 ng DOX/mg partícula. O tempo de libertação em superfície (vidro) foi estimado em 50 horas enquanto que em solução obteve-se um período inferior a 10 horas. Em relação as NPs de ouro pode-se observar como estas promovem a libertação do fármaco ao serem irradiadas mediante um laser. Deste modo, estas NPs podem ser úteis para sistemas de libertação controlada de fármacos e para várias aplicações na nanomedicina.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trecho da Nota Técnica: "Com o avanço do uso da tecnologia digital nos sistemas de fornecimento de energia elétrica, começa a surgir o que se convencionou chamar de quarta geração desses sistemas, ou seja, as chamadas smart grids, caracterizadas pelo uso intensivo de equipamentos digitais, de telecomunicações, de sensoriamento e operação remotos de instalações, e de tecnologia de informação (TI), adicionalmente às instalações físicas de geração, transmissão e distribuição de energia elétrica existentes." Consultoria Legislativo - Área XII Recursos Minerais, Hídricos e Energéticos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Faz reflexões sobre as várias formas de relação entre sujeitos e objetos-técnicos, com ênfase para a utilização dos computadores digitais e, particularmente, os softwares chamados agentes inteligentes. Analisa o espaço e suas mudanças qualitativas na atualidade, a partir do conceito do espaço como produção humana, analisando como as transformações em curso no ambiente afetam nossas subjetividades e, reciprocamente, como afetamos nossos ambientes. Discutidas as possibilidades de sobrevivência do homem nu nesses novos espaços, sem que esteja devidamente atualizado com as últimas novidades tecnológicas - próteses sensoriais e motoras. Perpassa a discussão sobre o pensamento que se utiliza do espaço como elemento constituinte do próprio pensamento e reflete sobre o espaço abstrato por excelência, os mundos virtuais. Discute o padrão de apropriação de artefatos pelo homem e seus efeitos na subjetividade, a manutenção do padrão de apropriação dos objetos-técnicos materiais em relação às formas de apropriação dos objetos-técnicos intangíveis (softwares). Traz reflexões sobre a possibilidade de autonomização completa dos agentes inteligentes e a sua instituição, ipso facto, como agentes - a chamada Inteligência Artificial.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

“Urkiolaenea: Sistemas multidispositivo para negocios tradicionales” es un proyecto realizado en la empresa OrekaI.T. dentro de un contexto formativo, ya que a su vez es el proyecto con el que finalizo mis estudios de Ingeniería Informática. Con él, se ha pretendido dar respuesta a las necesidades de un cliente real que dispone de un negocio tradicional.En este caso, Urkiolaenea, una negocio de alojamiento rural que requería de una imagen renovada en Internet para lograr ser más competitiva en el ámbito del turismo rural, además de un sistema de gestión para mejorar sus procesos de negocio. Por otra parte, con este proyecto no sólo se ha buscado cumplir con las expectativas del cliente sino ir más allá, buscando las soluciones más adecuadas ante el mercado actual en Internet, dominado por los dispositivos móviles inteligentes. Por ello, gran parte de los esfuerzos realizados en este proyecto se han enfocado en conseguir que Urkiolaenea sea accesible cómodamente por cualquier persona, independientemente del dispositivo desde el que acceda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.