5 resultados para Iris tectorum
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.
Resumo:
Neste trabalho, algumas caracterizações químicas foram realizadas em arenitos asfálticos da região de Piracicaba-SP, Formação Piramboia da Bacia do Paraná, para verificar seu potencial de produção de óleo. Para isso, as amostras obtidas da região foram submetidas a avaliação por termogravimetria, teor de umidade, teor de cinzas, teor de material orgânico por extração, pirólise, análise elementar e fracionamento em coluna. Por TGA observou-se que a 500 C praticamente todo material orgânico presente sofreu pirólise. A extração colaborou para se obter a classificação das amostras quanto ao teor de material orgânico, apresentando entre 4 e 13%, sendo que pelos teores encontrados a amostra AM06 é considerada de alto potencial produtivo, as amostras AM05, AM08 e AM09 são de médio, as amostras AM01, AM02, AM03 e AM07 possuem baixo, mas ainda atrativo, e a AM04 não possui atratividade. Pela avaliação elementar, a relação H/C e O/C dos extratos evidenciaram que algumas amostras estão no processo final da diagênese e outras no início da catagênese, indicando que elas estão no processo inicial de maturação. A avaliação cromatográfica dos extratos revelou que houve perdas de óleo por intemperismo restando majoritariamente compostos de alto peso molecular. O fracionamento permitiu verificar que as amostras AM01, AM06 e AM09 possuem maior quantidade de hidrocarbonetos livres e as amostras AM06 e AM07 e AM09 apresentaram maior teor de óleo. O procedimento de pirólise evidenciou que as amostras AM01, AM05, AM06 e AM09 apresentam maior potencial de geração de óleo, sendo que a faixa encontrada de óleo pirolítico ficou entre 2 e 8%, e através de avaliação por CGAR e CGAR-EM observou-se que ela promove a liberação de quantidades consideráveis de substâncias mais leves do que quando comparados aos extratos obtidos diretamente nas amostras originais. Além de produzir uma série homóloga de hidrocarbonetos parafínicos e olefínicos. A comparação dos produtos de pirólise dos arenitos com os produtos de pirólise de um resíduo de vácuo por CGAR-EM permitiu observar que existe similaridade entre suas composições, onde o processo de pirólise do resíduo de vácuo gera uma série homóloga de hidrocarbonetos entre C10 a C32, similar aos produtos de pirólise da amostra AM09, porém com menor variedade de tipos de hidrocarbonetos. A pré-avaliação da co-pirólise dos arenitos com resíduos plásticos indicou que é possível aumentar a geração de líquidos, porém é necessário mais estudo para afirmações inequívocas. Com base nos resultados das avaliações realizadas podemos concluir que a região apresenta na sua maioria potencial interessante para produção de óleo utilizando pirólise
Resumo:
A realização da Internet das Coisas (Internet of Things, IoT) requer a integração e interação de dispositivos e serviços com protocolos de comunicação heterogêneos. Os dados gerados pelos dispositivos precisam ser analisados e interpretados em concordância com um modelo de dados em comum, o que pode ser solucionado com o uso de tecnologias de modelagem semântica, processamento, raciocínio e persistência de dados. A computação ciente de contexto possui soluções para estes desafios com mecanismos que associam os dados de contexto com dados coletados pelos dispositivos. Entretanto, a IoT precisa ir além da computação ciente de contexto, sendo simultaneamente necessário soluções para aspectos de segurança, privacidade e escalabilidade. Para integração destas tecnologias é necessário o suporte de uma infraestrutura, que pode ser implementada como um middleware. No entanto, uma solução centralizada de integração de dispositivos heterogêneos pode afetar escalabilidade. Assim esta integração é delegada para agentes de software, que são responsáveis por integrar os dispositivos e serviços, encapsulando as especificidades das suas interfaces e protocolos de comunicação. Neste trabalho são explorados os aspectos de segurança, persistência e nomeação para agentes de recursos. Para este fim foi desenvolvido o ContQuest, um framework, que facilita a integração de novos recursos e o desenvolvimento de aplicações cientes de contexto para a IoT, através de uma arquitetura de serviços e um modelo de dados. O ContQuest inclui soluções consistentes para os aspectos de persistência, segurança e controle de acesso tanto para os serviços de middleware, como para os Agentes de Recursos, que encapsulam dispositivos e serviços, e aplicações-clientes. O ContQuest utiliza OWL para a modelagem dos recursos e inclui um mecanismo de geração de identificadores únicos universais nas ontologias. Um protótipo do ContQuest foi desenvolvido e validado com a integração de três Agentes de Recurso para dispositivos reais: um dispositivo Arduino, um leitor de RFID e uma rede de sensores. Foi também realizado um experimento para avaliação de desempenho dos componentes do sistema, em que se observou o impacto do mecanismo de segurança proposto no desempenho do protótipo. Os resultados da validação e do desempenho são satisfatórios
Resumo:
Este artigo compara a habilidade preditiva foradaamostra de um modelo DSGE (DynamicStochastic General EquilibriumModel)Novo-Keynesiano, especificado e estimado para o Brasil, com a de um modelo Autorregressivo Vetorial (VAR) e com a de um modelo AutorregressivoVetorial Bayesiano (BVAR). O artigo inova em relação a outros trabalhos similares feitos para o Brasil (Castro et al. (2011) e Caetano e Moura (2013)), ao escolher uma especificação para o modelo DSGE que, ao permitir o uso de um conjunto de informação mais rico, tornou possível computar-se a habilidade preditiva do DSGE a partir de previsões que são,verdadeiramente,previsõesfora da amostra. Ademais, diferentemente de outros artigos que utilizaram dados brasileiros, avalia-se em que medida as respostas das variáveis aos choques na política monetária e no câmbio, obtidas pelo modelo DSGE, se assemelham àquelas de um BVAR estimado através de procedimentos bayesianos desenvolvidos de forma consistente. O modelo DSGE estimado é similar ao utilizado por Justiniano e Preston (2010) e Alpanda (2010). O modelo BVAR foi estimado utilizando uma metodologia semelhante à desenvolvida por Sims e Zha (1998), Waggoner e Zha (2003) e Ramírez, Waggoner e Zha (2007).Os resultados obtidos mostram que o modelo DSGE é capaz de gerar, para algumas variáveis, previsões competitivas em relação às dos outros modelos rivais VAR e BVAR. Além disso, as respostas das variáveis aos choques nas políticas monetária e cambial, nos modelos DSGE e BVAR, são bastante similares.