10 resultados para Visione, flusso ottico, autopilota, algoritmo, Smart Camera, Sonar, giroscopio
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
In the last years the number of industrial applications for Augmented Reality (AR) and Virtual Reality (VR) environments has significantly increased. Optical tracking systems are an important component of AR/VR environments. In this work, a low cost optical tracking system with adequate attributes for professional use is proposed. The system works in infrared spectral region to reduce optical noise. A highspeed camera, equipped with daylight blocking filter and infrared flash strobes, transfers uncompressed grayscale images to a regular PC, where image pre-processing software and the PTrack tracking algorithm recognize a set of retro-reflective markers and extract its 3D position and orientation. Included in this work is a comprehensive research on image pre-processing and tracking algorithms. A testbed was built to perform accuracy and precision tests. Results show that the system reaches accuracy and precision levels slightly worse than but still comparable to professional systems. Due to its modularity, the system can be expanded by using several one-camera tracking modules linked by a sensor fusion algorithm, in order to obtain a larger working range. A setup with two modules was built and tested, resulting in performance similar to the stand-alone configuration.
Resumo:
Esta dissertação apresenta o desenvolvimento de um novo algoritmo de criptografia de chave pública. Este algoritmo apresenta duas características que o tornam único, e que foram tomadas como guia para a sua concepção. A primeira característica é que ele é semanticamente seguro. Isto significa que nenhum adversário limitado polinomialmente consegue obter qualquer informação parcial sobre o conteúdo que foi cifrado, nem mesmo decidir se duas cifrações distintas correspondem ou não a um mesmo conteúdo. A segunda característica é que ele depende, para qualquer tamanho de texto claro, de uma única premissa de segurança: que o logaritmo no grupo formado pelos pontos de uma curva elíptica de ordem prima seja computacionalmente intratável. Isto é obtido garantindo-se que todas as diferentes partes do algoritmo sejam redutíveis a este problema. É apresentada também uma forma simples de estendê-lo a fim de que ele apresente segurança contra atacantes ativos, em especial, contra ataques de texto cifrado adaptativos. Para tanto, e a fim de manter a premissa de que a segurança do algoritmo seja unicamente dependente do logaritmo elíptico, é apresentada uma nova função de resumo criptográfico (hash) cuja segurança é baseada no mesmo problema.
Resumo:
O presente trabalho tem por objetivo estudar e aplicar um método de integração numérica de tempo para estrutras dinâmicas com dissipação de energia. Nessa dissertação tal método é analisado e posteriormente implementado em MATLAB, afim de resolver algumas aplicações em sistemas dinâmicos dotados de massas, molas e amortecedores que são apresentados no primeiro capítulo. Usando o método implementado em MATLAB, também é apresentada uma aplicação para vibrações transversais em cordas axialmente.
Resumo:
O presente estudo teve como objetivos (i) avaliar a validade do emprego do teste SMART, em Drosophila melanogaster, como indicador da contaminação de amostras de água superficial associada a misturas complexas, (ii) detectar a atividade tóxico-genética de dejetos industriais, lançados no rio Caí, empregando o cruzamento aprimorado. Dentro desta perspectiva, pretendeu também (iii) comparar os dados obtidos para as amostras sob influência de despejos industriais com aqueles previamente observados para amostras sob influência de dejetos de origem urbana, provenientes das cidades de Montenegro e São Sebastião do Caí (Silva., 1999). Na tentativa de avaliar a genotoxicidade, associada ao curso final do rio Caí, foram selecionados os seguintes pontos de coleta de despejos industriais: Km 18,6 - situado na foz do arroio Bom Jardim, próximo à área de disposição do efluente final líquido e da drenagem das áreas de disposição dos resíduos sólidos do complexo industrial – e Km 13,6 - no canal da bacia de acumulação e segurança 7 do pólo industrial Neste ensaio genético, cada amostra industrial foi administrada às larvas de terceiro estágio em duas diluições (25% e 50%), bem como na sua forma crua (100%) - sendo avaliados um total de 40 indivíduos por amostra por concentração, totalizando a análise de 11.712.000 células por amostra. Foram utilizados dois controles negativos, o controle de campo – representado pela nascente de um riacho localizada em uma área conservada com fraca ação antrópica e próxima aos pontos do rio – assim como o diluente água destilada. Uma vez que as freqüências das diferentes categorias de manchas não foram significantemente superiores àquelas observadas nos controles negativos (água destilada), os pontos Km 18,6 e Km 13,6 foram caracterizados como destituídos de ação genotóxica nos três meses de coleta : março, junho e setembro. Estes achados sugerem que, nas condições experimentais empregadas, os dejetos de origem industrial não foram capazes de induzir lesões do tipo mutação gênica, cromossômica, assim como eventos relacionados com recombinação mitótica. Por outro lado, a comparação dos dados obtidos no presente estudo com os observados por Silva (1999) para dejetos urbanos, revelou a validade do emprego do teste SMART como uma ferramenta para detecção de contaminação ambiental. De fato, as amostras urbanas referentes aos meses de março (Km 52, 78 e 80) e setembro (Km 52) – coletadas concomitantemente com as de origem industrial – foram diagnosticadas como indutoras de aneuploidias e/ou de grandes deleções cromossômicas. As potências genotóxicas médias estimadas mostraram que o Km 80 foi o local com o maior grau de genotoxicidade – seguido pelos Km 78 e 52 – que apresentaram potências semelhantes Considerando os resultados obtidos, em cinco pontos situados ao longo do curso final do rio Caí, conclui-se que os prejuízos causados pelos dejetos urbanos podem ser tão ou mais nocivos que os impostos pelos de origem industrial – especialmente em função de seu grande volume de lançamento.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
A criptografia assumiu papel de destaque no cotidiano das pessoas, em virtude da necessidade de segurança em inúmeras transações eletrônicas. Em determinadas áreas, a utilização de hardware dedicado à tarefa de criptografia apresenta vantagens em relação à implementação em software, devido principalmente ao ganho de desempenho. Recentemente, o National Institute of Standards and Technology (NIST) publicou o novo padrão norte-americano de criptografia simétrica, chamado de Advanced Encryption Standard (AES). Após um período de aproximadamente 3 anos, no qual várias alternativas foram analisadas, adotou-se o algoritmo Rijndael. Assim, este trabalho apresenta um Soft IP do padrão AES, codificado em VHDL, visando a implementação em FPGA Altera. Todo o projeto foi construído com funções e bibliotecas genéricas, a fim de permitir a posterior implementação sobre outras tecnologias. Foram geradas duas versões: uma priorizando desempenho e outra priorizando a área ocupada nos componentes. Para cada uma das versões, produziu-se um circuito para encriptar e outro para decriptar. O desempenho alcançado em termos de velocidade de processamento superou todos os outros trabalhos publicados na área, sobre a mesma tecnologia. São apresentados os detalhes de implementação, arquiteturas envolvidas e decisões de projeto, bem como todos os resultados. A dissertação contém ainda conceitos básicos de criptografia e uma descrição do algoritmo Rijndael.
Resumo:
O presente trabalho visa definir um modelo de alocação dos recursos da produção para centros de trabalho em sistemas baseados em job shop, usando a abordagem heurística para garantir uma boa alocação dos recursos. São levados em conta a complexidade de um ambiente de produção, seus aspectos temporais e os modelos de Job Shop Scheduling atualmente em uso. Com isso são examinados os aspectos conceituais deste ambiente e proposto um modelo de alocação de recursos para auxiliar no planejamento operacional do mesmo. Pode-se definir os recursos como todos os elementos necessários à execução das diversas atividades de um processo produtivo, tais como equipamentos, máquinas, mão-de-obra, etc. Por sua vez, os recursos são limitados por natureza, quanto à quantidade de unidades disponíveis, às suas funcionalidades e à capacidade produtiva. O processo de alocação dos recursos pressupõe a designação dos recursos mais satisfatórios para a execução de cada uma das atividades que fazem parte de um projeto. O modelo proposto é baseado no uso de heurísticas para resolver o escalonamento nos centros de trabalho, também chamados de células de produção, usando restrições e regras entre as ordens de fabricação (peças) e as máquinas, para encontrar uma solução satisfatória ao problema. O resultado final é uma ferramenta de apoio à decisão no processo de manufatura, permitindo a visualização do melhor escalonamento de produção, visando a redução do ciclo e setup de produção no processo, com base nas informações locais do ambiente fabril. O sistema está implementado numa empresa de componentes hidráulicos, inicialmente no centro de trabalho de corte, composto por quatro máquinas que realizam o corte de diversos tipos de matérias-primas.
Resumo:
O uso de dados altimétricos para a avaliação e monitoramento da variação dos níveis dos oceanos, teve início com o satélite Seasat e vem desenvolvendo-se com êxito em outros sistemas como o Geosat e o ERS-l. Esta técnica tem se mostrado única em termos de oceanografia e abre caminho para a sua utilização em outros campos como a hidrologia. A possibilidade de avaliar-se os niveis das águas continentais por meio da altimetria, trata-se de uma proposta promissora termos de recursos hidricos em países de dimensões como o Brasil.O desenvolvimento de um algoritmo capaz de. a partir dos dados do satélite altimétrico Geosat processá-los de forma mais rápida e econômica, fornecendo informações prévias com as quais se possa efetivamente obter a variação do nível das águas de rios e Lagoas, constitue-se no desafio desta dissertação.O ajuste matemático proposto, que se utilizaria de um número menor de variáveis, se comparado ao método aplicado pela NASA, não trouxe os resultados esperados , mostrando-se ineficiente. Esta dissertação sugere que, embora este modelo proposto tenha se mostrado inadequado, abre-se um vasto campo de pesquisas para que a altimetria de satélites torne-se uma técnica operacional e viável em termos de recursos hidricos em águas continentais.