897 resultados para Impressoras (Processamento de dados)
Resumo:
Nesta dissertação, foi utilizada a técnica SIFT (Scale Invariant Feature Transform) para o reconhecimento de imagens da área dos olhos (região periorbital). Foi implementada uma classificação das imagens em subgrupos internos ao banco de dados, utilizando-se das informações estatísticas provenientes dos padrões invariantes produzidos pela técnica SIFT. Procedeu-se a uma busca categorizada pelo banco de dados, ao invés da procura de um determinado padrão apresentado, através da comparação deste com cada padrão presente no banco de dados. A tais padrões foi aplicada uma abordagem estatística, através da geração da matriz de covariâncias dos padrões gerados, sendo esta utilizada para a categorização, tendo por base uma rede neural híbrida. A rede neural classifica e categoriza o banco de dados de imagens, criando uma topologia de busca. Foram obtidos resultados corretos de classificação de 76,3% pela rede neural híbrida, sendo que um algoritmo auxiliar determina uma hierarquia de busca, onde, ocorrendo uma errônea classificação, a busca segue em grupos de pesquisas mais prováveis.
Resumo:
No mês de outubro de 2007 a Comissão Nacional de Cartografia (CONCAR) lançou uma norma cartográfica composta de especificações técnicas para Estruturação de Dados Geoespaciais Digitais Vetoriais (EDGV) para a realização do mapeamento topográfico sistemático no Brasil. No mês de novembro de 2008 foi publicado o Decreto n 6666, que institui a Infra-Estrutura Nacional de Dados Espaciais e ratifica o uso das normas homologadas pela CONCAR, pelas instituições Federais. Este trabalho realiza dois requisitos, a saber: (a) fornece um esquema relacional alinhado as especificações da EDGV e (b) implementa um protótipo, com vistas a sua utilização no processo de restituição fotogramétrica nas instituições públicas responsáveis pelo mapeamento topográfico no Brasil. A implementação é realizada em ambiente de software livre. Também é importante salientar o caráter educacional da plataforma de software a ser implementada, para que o seu uso seja também direcionado para o ensino teórico e prático da fotogrametria digital nas instituições de ensino e pesquisa.
Resumo:
Diferentes organizações públicas e privadas coletam e disponibilizam uma massa de dados sobre a realidade sócio-econômica das diferentes nações. Há hoje, da parte do governo brasileiro, um interesse manifesto de divulgar uma gama diferenciada de informações para os mais diversos perfis de usuários. Persiste, contudo, uma série de limitações para uma divulgação mais massiva e democrática, entre elas, a heterogeneidade das fontes de dados, sua dispersão e formato de apresentação pouco amigável. Devido à complexidade inerente à informação geográfica envolvida, que produz incompatibilidade em vários níveis, o intercâmbio de dados em sistemas de informação geográfica não é problema trivial. Para aplicações desenvolvidas para a Web, uma solução são os Web Services que permitem que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis. Neste sentido, o objetivo do trabalho é mostrar as possibilidades de construção de portais usando software livre, a tecnologia dos Web Services e os padrões do Open Geospatial Consortium (OGC) para a disseminação de dados espaciais. Visando avaliar e testar as tecnologias selecionadas e comprovar sua efetividade foi desenvolvido um exemplo de portal de dados sócio-econômicos, compreendendo informações de um servidor local e de servidores remotos. As contribuições do trabalho são a disponibilização de mapas dinâmicos, a geração de mapas através da composição de mapas disponibilizados em servidores remotos e local e o uso do padrão OGC WMC. Analisando o protótipo de portal construído, verifica-se, contudo, que a localização e requisição de Web Services não são tarefas fáceis para um usuário típico da Internet. Nesta direção, os trabalhos futuros no domínio dos portais de informação geográfica poderiam adotar a tecnologia Representational State Transfer (REST).
Resumo:
Sedimentos em suspensão representam um dos principais fatores que afetam a qualidade dos sistemas aquáticos no mundo; influenciam os processos geomórficos de construção da paisagem e podem indicar problemas de erosão e perda de solo na bacia hidrográfica contribuinte. O seu monitoramento espacial e temporal é fundamental nas atividades de gestão ambiental de áreas costeiras. Nesse sentido, a hipótese básica desta pesquisa é que o padrão espacial e temporal de plumas de sedimentos costeiras associado ao regime hidrológico do rio pode ser caracterizado a partir de imagens orbitais de média resolução espacial. Para comprová-la, elegeu-se a foz do rio Paraíba do Sul como área de estudo para definição e teste metodológico, e formulou-se como principal objetivo mapear qualitativamente a pluma costeira deste rio a partir de imagens Landsat 5 e CBERS-2, ao longo do período compreendido entre 1985 e 2007. As datas avaliadas foram criteriosamente definidas através de três estratégias de análise, totalizando cinqüenta imagens. Pesquisa bibliográfica e avaliação da resposta espectral da feição de interesse nas imagens selecionadas consistiram nas etapas principais da definição da metodologia. As plumas foram então identificadas, mapeadas e extraídas; posteriormente, suas características espaciais e temporais foram analisadas por intermédio de sistemas de informação geográfica e avaliadas em conjunto com dados históricos de vazão. Os resultados indicam que a banda do vermelho forneceu uma melhor discriminação interna da pluma, sendo, portanto, utilizada como base para as análises realizadas neste trabalho. Com exceção do procedimento de correção atmosférica, a metodologia proposta consiste na utilização de técnicas simples de processamento digital de imagens, baseadas na integração de técnicas semi-automáticas e de análise visual. A avaliação do padrão dos sedimentos e dos mapas temáticos qualitativos de concentração de sedimentos em suspensão indica a forte diferenciação existente entre cenários representativos de épocas de cheia e seca do rio. Análises espaciais do comportamento da pluma contribuem ainda para um maior conhecimento do espaço geográfico, fornecendo subsídios aos mais variados setores do planejamento e gestão ambiental.
Resumo:
O objetivo principal desse trabalho foi utilizar métodos não destrutivos (END), como a microtomografia com Raio X e técnicas de obtenção e processamento de imagens, para obtenção da porosidade do concreto. Foram utilizados dois métodos. Em um método as imagens foram obtidas por meio de microtomografia por Raio X e no outro foi utilizado um escâner comercial para obtenção das imagens. Essas imagens foram processadas por meio de técnicas de processamento de pixel e morfologia matemática. Os resultados obtidos para a porosidade foram comparados com resultado obtido por meio do método proposto pela NBR 9778 (2005) (Absorção de água, índice de vazios e massa específica em argamassa e concreto endurecido). As imagens microtomográficas das amostras de concreto foram obtidas num sistema Skyscan 1172 com 256 tons de cinza, ajustadas em contraste, binarizadas e filtradas. No outro método foi utilizado um Escâner Comercial com resolução de 2400 dpi para adquirir as imagens, sendo também utilizadas técnicas de processamento de pixel e morfologia matemática para processá-las. Os resultados dos valores da porosidade mostraram compatibilidade entre os dois métodos apresentados e o método proposto pela NBR 9778 (2005). Observou-se que os resultados obtidos por microtomografia foram mais confiáveis, mas o método utilizando o escâner comercial se apresentou como um método aceitável por seus resultados e principalmente por seu baixo custo e facilidade de operação.
Resumo:
O objetivo deste estudo foi avaliar a espessura mínima radicular remanescente e o desgaste porcentual do terço cervical em raízes mesiais de molares inferiores, após a instrumentação com as técnicas ProTaper Universal e Lima única F2. Foram obtidos 100 primeiros molares inferiores com raízes completamente separadas. Desse total, foram selecionados e incluídos no estudo somente 22 que possuíam dois canais distintos na raiz mesial, comprimento entre 20 e 22 mm e grau de curvatura da raiz mesial com angulação variando entre 10 e 20. Destes, 8 foram eliminados por possuírem uma anatomia muito discrepante, o que limitava o processamento e análise digital das imagens (PADI). Os dentes foram acessados e a patência apical foi realizada em todos os canais determinando o comprimento de trabalho. Em cada dente, cada canal mesial foi instrumentado por uma técnica diferente. As amostras foram posicionadas em um dispositivo de montagem e digitalizadas através de microtomografia computadorizada antes e depois de serem completamente instrumentadas. O volume de interesse, correspondente à região de zona de risco, com uma grande margem de tolerância, tanto em direção apical quanto em direção cervical, foi determinado por 234 fatias, totalizando um comprimento vertical de 3,5 mm, para avaliação quantitativa comparativa. Através de PADI mediu-se, de forma automática, a espessura mínima radicular nos dois canais mesiais, antes e após a instrumentação, para todas as fatias de todos os dentes. A partir destes dados foi calculado o desgaste porcentual. Após o tratamento estatístico das mais de 6500 medidas obtidas, pôde-se concluir que não existiu diferença no desgaste da zona de risco produzido pelas duas técnicas de instrumentação testadas. Em todos os casos a espessura radicular remanescente permaneceu dentro de uma margem de segurança, não havendo, portanto, nenhum caso de rasgo ou perfuração. Dessa forma, ambas as técnicas estudadas foram consideradas seguras quanto ao desgaste da zona de risco da raiz mesial dos molares inferiores.
Resumo:
Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas de vídeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).
Resumo:
A presente dissertação é um estudo de caso com caráter exploratório (Rampazo, 2005; Babie, 2008). Na parte teórica, propomos a categorização triádica das imagens no ciberespaço, que é uma das contribuições deste trabalho para a área de estudos sobre leitura no ciberespaço. A investigação apresenta como objetivos acompanhar e analisar o processo leitor de um professor de espanhol como língua estrangeira no ciberespaço, tendo como foco a multimodalidade. Tais objetivos têm a função de nortear a resolução dos problemas de pesquisa, a saber: (a) como um professor de ELE lê no ciberespaço tendo em vista as imagens como aspectos da multimodalidade; (b) como esse professor transpõe sua própria atividade leitora e os materiais da internet para uma atividade de aula. Os instrumentos de coleta utilizados foram: entrevista, questionário, protocolos e gravações do GTK. O cruzamento entre 12 critérios de análise permitiu, dentre outros detalhes, observar que nosso sujeito lê textos verbais no ciberespaço movimentando o cursor do mouse como se fosse seus dedos sobre uma folha de papel a percorrer linha a linha da esquerda para a direita. Também percebemos que a experiência de leitura no ciberespaço (conhecimentos prévios) pode ser o fator que contribui para que o sujeito despreze as imagens de categorias mescladas (B e C) e prefira utilizar as imagens de categoria B, no caso, por exemplo, de acessar uma reportagem a partir de sua manchete em jornal eletrônico. Quanto à transposição de materiais para as aulas, percebemos que a formação acadêmica de nosso sujeito ao não direcionar discussões teóricas e metodológicas sobre as TICs e seu uso em sala de aula e sua realidade de trabalho podem ter contribuído para o modo como o sujeito transpõe os materiais da internet para as aulas. As adaptações e afastamentos desses materiais não são trabalhados em sala de aula. As imagens e links são retirados e o texto utilizado na atividade docente é uma mistura de vários materiais provenientes de diferentes países, mas sem a fonte especificada na aula. O papel que a formação tem para a vida profissional e para a práxis do professor não pode ser descartado. Defendemos que uma formação que seja direcionada às TICs deve fazer parte do currículo acadêmico
Resumo:
O objetivo desse trabalho foi avaliar as alterações no tecido cardíaco e pulmonar de camundongos dislipidêmicos, esquistossomóticos e seus controles que haviam sido eutanasiados com 9 (fase aguda) e 17 (fase crônica) semanas de infecção. Foram estudados quatro grupos de camundongos, segundo a dieta e tempo de infecção: dieta padrão (SCa e SCc), dieta hiperlipídica (HFCa e HFCc), dieta padrão infectados (ISCa e ISCc) e dieta hiperlipídica infectados (IHFCa e IHFCc). O coração e o pulmão foram retirados, seccionados e os fragmentos foram submetidos a processamento histológico e corados com Hematoxilina e Eosina e Picrosirius red. Foram realizadas análises histopatológicas dos dois órgãos, além de estudos estereológico (dissector óptico) e morfométrico (vasos, cardiomiócitos e quantificação de colágeno) do coração. Os grupos foram comparados pelos Testes T de Student e/ou ANOVA. Todos os animais com dieta hiperlipídica, infectados ou não, apresentaram menor densidade de número e número total de cardiomiócitos (p<0,05), além de vasos intramiocárdicos com lúmen mais reduzido e paredes mais espessas que os controles, independente da semana em que foram eutanasiados. Os cardiomiócitos dos grupos IHFCa e IHFCc estavam mais hiperplásicos (p<0,0001) e continham mais colágeno ao redor (p<0,05) que os dos demais grupos estudados. Os corações dos grupos IHFC, nas duas fases, apresentaram maior quantidade de nichos inflamatórios, inúmeras regiões contendo coagulação de fibras cardíacas, maior número de áreas com desaparecimento de fibras e proliferação de fibroblastos quando comparados aos grupos ISC. Os pulmões de camundongos do grupo IHFCc apresentaram aumento do número de reações granulomatosas e infiltrados perivasculares quando comparados aos demais grupos infectados. Esses dados sugerem que a infecção por S. mansoni causa danos às estruturas miocárdica e pulmonar que se intensificam com a interação com a dieta rica em lipídios.
Resumo:
A Bacia de São José de Itaboraí está localizada no Município de Itaboraí, no Estado do Rio de Janeiro. Ela foi descoberta em 1928, pelo Engenheiro Carlos Euler, que após analisar um suposto caulim encontrado na Fazenda São José pelo seu então proprietário, Sr. Ernesto Coube, verificou que se tratava de calcário. Os Professores Rui Lima e Silva e Othon H. Leonardos, enviados ao local para estudos, encontraram uma grande quantidade de fósseis de gastrópodes continentais, despertando o interesse científico pela região. Os estudos preliminares de campo e análises químicas evidenciaram boas perspectivas de exploração do calcário para a fabricação de cimento do tipo Portland. Por mais de 50 anos, a Companhia Nacional de Cimento Portland Mauá (CNCPM) explorou a pedreira. Desde sua descoberta, a Bacia de São José, paralelamente às atividades de mineração, foi objeto de pesquisas científicas realizadas por geólogos, paleontólogos e arqueólogos. No início da década de 80, a Cia. de Cimento Mauá decidiu abandonar a área em função do esgotamento econômico da reserva de minério. Com a retirada das bombas que impediam a inundação da pedreira, formou-se uma lagoa que passou a impedir o livre acesso aos afloramentos. Desde então as pesquisas sobre a Bacia ficaram concentradas aos materiais coletados no período de exploração de calcário. Material esse distribuído no Museu Nacional (MN), Departamento Nacional da Produção Mineral (DNPM), Instituto de Geociências da UFRJ, entre outros. Em 1990, a área que pertencia a CNCPM foi desapropriada por pressão da comunidade científica. A mesma passou a pertencer ao Município de Itaboraí, que criou o Parque Paleontológico de São José de Itaboraí, por meio da Lei 1.346, de 12 de dezembro de 1995. O objetivo desse trabalho foi gerar novos dados através do método geofísico conhecido como magnetometria. Para isso foram realizados levantamentos de campo utilizando um magnetômetro portátil e GPS, foram analisados e corrigidos dados utilizando softwares específicos, elaborados modelos e criados perfis a partir de descrições de testemunhos de sondagem. Os resultados obtidos visam possibilitar uma nova interpretação da geologia e da estratigrafia da bacia, dando condições para que se possa ter uma atualização dos conhecimentos relacionados à região, após quase meio século de atividade mineradora.
Estudo de corrosão em sistema simulado de retortagem para processamento de folhelhos pirobetuminosos
Resumo:
O aço inoxidável é amplamente utilizado em sistemas para processamento e obtenção de derivados de folhelhos pirobetuminosos. Em função dos problemas de corrosão, originários da composição química dos folhelhos e do processamento em si, são gastos anualmente valores expressivos em manutenção e paradas programadas para reparos nestes sistemas. O presente trabalho busca estudar o processo de corrosão do aço inoxidável AISI 304L em meio simulado de retortagem de folhelhos, em condições de alta temperatura e em presença de elevados teores de enxofre, orgânico e inorgânico, empregando técnicas microscópicas e eletroquímicas. Os resultados mostraram que a temperatura influencia diretamente no processo de corrosão do aço, causando modificação na camada externa de óxidos. Este processo é agravado com a presença de sulfetos no meio, havendo formação, principalmente, de sulfetos de ferro sobre a superfície do aço inoxidável AISI 304L e consequente aumento do processo de corrosão. Foi observado que o enxofre de origem orgânica promove maior destruição da camada de óxido protetor do aço e aumento na formação do filme de sulfeto aderido à superfície deste material. Verificou-se ainda que o processo corrosivo é predominantemente químico, sendo o filme formado considerado protetor, do ponto de vista eletroquímico, no meio eletrolítico estudado
Resumo:
Na década de 90 com o aumento da capacidade de processamento e memória dos computadores, surgiu a fotogrametria digital, que tem como objetivo principal o mapeamento automático das feições naturais e artificiais do terreno, utilizando a imagem fotogramétrica digital como fonte primária de dados. As soluções fotogramétricas se tornaram mais compactas e versáteis. A estação fotogramétrica digital educacional E-FOTO é um projeto multidisciplinar, em desenvolvimento no laboratório de Fotogrametria Digital da Universidade do Estado do Rio de Janeiro, que se baseia em dois pilares: autoaprendizado e gratuidade. Este trabalho tem o objetivo geral de avaliar a qualidade das medições fotogramétricas utilizando a versão integrada 1.0β do E-FOTO. Para isso foram utilizados dois blocos de fotografias de regiões distintas do planeta: um bloco de fotografias (2005) do município de Seropédica-RJ e um bloco de fotografias antigas (1953) da região de Santiago de Compostela, na Espanha. Os resultados obtidos com o E-FOTO foram comparados com os resultados do software comercial de fotogrametria digital Leica Photogrammetry Suite (LPS 2010) e com as coordenadas no espaço-objeto de pontos medidos com posicionamento global por satélite (verdade de campo). Sendo possível avaliar as metodologias dos softwares na obtenção dos parâmetros das orientações interior e exterior e na determinação da exatidão das coordenadas no espaço-objeto dos pontos de verificação obtidas no módulo estereoplotter versão 1.64 do E-FOTO. Os resultados obtidos com a versão integrada 1.0β do E-FOTO na determinação dos parâmetros das orientações interior e exterior e no cálculo das coordenadas dos pontos de verificação, sem a inclusão dos parâmetros adicionais e a autocalibração são compatíveis com o processamento realizado com o software LPS. As diferenças dos parâmetros X0 e Y0 obtidos na orientação exterior com o E-FOTO, quando comparados com os obtidos com o LPS, incluindo os parâmetros adicionais e a autocalibração da câmara fotogramétrica, não são significativas. Em função da qualidade dos resultados obtidos e de acordo com o Padrão de Exatidão Cartográfica, seria possível obter um documento cartográfico Classe A em relação à planimetria e Classe B em relação à altimetria na escala 1/10.000, com o projeto Rural e Classe A em relação à planimetria e Classe C em relação à altimetria na escala 1/25.000, com o Projeto Santiago de Compostela. As coordenadas tridimensionais (E, N e H) dos pontos de verificação obtidas fotogrametricamente no módulo estereoplotter versão 1.64 do E-FOTO, podem ser consideradas equivalentes as medidas com tecnologia de posicionamento por satélites.
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.