996 resultados para Processamento de imagens - Técnicas digitais


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese tem por objetivo a aplicação do processamento por atrito linear na liga de titânio Ti-6Al-4V. Derivado da solda por atrito linear, é um processo recente desenvolvido na década de 90 para união de alumínio. Sua aplicação em outros tipos de materiais como aços e ligas de alto desempenho, em especial o titânio, tem interessado a industria. A metodologia utilizada nesta tese para avaliar o processamento por atrito linear, consistiu na execução de ensaios mecânicos de tração em condições mistas em chapas da liga de titânio Ti-6Al-4V. A máquina utilizada para o processamento das chapas foi um centro de usinagem CNC convencional, adaptado com dispositivos especiais. Além dos ensaios de tração em condições mistas, foram executadas medições de microdurezas nas regiões atingidas pelo processo, avaliação das microestruturas resultantes e medições de tensão residual para uma caracterização mais ampla do processo. As microestruturas na região processada são caracterizadas por uma estrutura totalmente transformada. As temperaturas de pico na região processada excederam a temperatura -transus durante o processamento e a transformação da fase + ocorreu durante a fase de resfriamento. A transformação da fase para resultou na formação de agulhas de fase nos contornos e pelo interior dos grãos da fase . Pequenas regiões com estrutura equiaxial de grãos ( globular) foram observados na zona de processamento. A abordagem dos resultados quantitativos foi feita de forma estatística, visando identificar os parâmetros de maior interação com os resultados observados. Foi identificado nesta tese que a rotação da ferramenta apresentou a maior influência nos resultados de tensão residual, microdureza e tensão de escoamento. Uma importante contribuição à modelagem da tensão de escoamento para materiais anisotrópicos é proposta, baseado em um critério de escoamento ortotrópico. Equações complementares baseadas nos testes mistos de tração e cisalhamento são propostas para modificar o modelo ortotrópico. O intuito deste modelo é indicar em que condições o material tem seu regime de escoamento atingido, podendo servir de base para simulações práticas de peças em condições similares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Proposta Técnica é uma documentação cuja elaboração é uma atividade frequente nas empresas prestadoras de serviço e fornecedoras de produtos, que envolve um time multidisciplinar de profissionais e consome quantidade significativa de recursos financeiros e tempo, tanto das empresas proponentes quanto das empresas contratantes, que analisarão seu conteúdo e por fim selecionarão a proposta a ser aceita. A proposta desempenha vários papeis, funcionando como um material de comunicação da empresa que representa, ao explicitar sua capacidade para realização do trabalho proposto, e também como anexo contratual da transação comercial, passando por servir de fonte de informações para a orçamentação do Projeto e sugerir novas soluções às problemáticas apresentadas pelo cliente. O presente trabalho explorará a importância da Proposta Técnica nas negociações comerciais, assim como seu processo de elaboração em empresas construtoras de edifícios comerciais para iniciativa privada no Brasil, utilizando-se a metodologia de estudo de caso. Por meio de análise da documentação e de entrevistas com os profissionais envolvidos tanto na elaboração quanto na classificação das propostas, são discutidos os pontos essenciais no processo de produção de uma Proposta Técnica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A esteatose hepática, que se caracteriza pelo acúmulo excessivo de gordura nas células do fígado, é um problema que vem preocupando a comunidade médico-científica, pois sua incidência vem aumentando a nível global, com expectativa de se tornar a doença crônica hepática de maior predominância em várias partes do mundo. Apesar de ser considerada uma doença benigna, a esteatose pode evoluir para doenças mais graves como cirrose, fibrose avançada, esteato hepatite (com ou sem fibrose) ou carcinoma. Entretanto, é potencialmente reversível, mesmo em quadros mais graves, o que reforça a urgência de se desenvolver métodos confiáveis para detecção e avaliação, inclusive ao longo de tratamento. Os métodos atuais para diagnóstico e quantificação da gordura hepática ainda são falhos: com a ultrassonografia não se é capaz de realizar quantificação; a tomografia computadorizada faz uso de radiação ionizante; a punção (biópsia), considerada o padrão ouro, é precisa, mas invasiva e pontual. A Ressonância Magnética (RM), tanto com espectroscopia (MRS) como com imagem (MRI), são alternativas completamente não invasivas, capazes de fornecer o diagnóstico e quantificação da gordura infiltrada no fígado. Entretanto, os trabalhos encontrados na literatura utilizam sequências de pulsos desenvolvidas especialmente para esse fim, com métodos de pós-processamento extremamente rebuscados, o que não é compatível com o estado atual dos equipamentos encontrados em ambientes clínicos nem mesmo ao nível de experiência e conhecimento das equipes técnicas que atuam em clínicas de radiodiagnóstico. Assim, o objetivo central do presente trabalho foi avaliar o potencial da RM como candidato a método de diagnóstico e de quantificação de gordura em ambientes clínicos, utilizando, para isso, sequências de pulsos convencionais, disponíveis em qualquer sistema comercial de RM, com protocolos de aquisição e processamento compatíveis com àqueles realizados em exames clínicos, tanto no que se refere à simplicidade como ao tempo total de aquisição. Foram avaliadas diferentes abordagens de MRS e MRI utilizando a biópsia hepática como padrão de referência. Foram avaliados pacientes portadores de diabetes tipo II, que apresentam alta prevalência de esteatose hepática não alcoólica, além de grande variabilidade nos percentuais de gordura. Foram realizadas medidas de correlação, acurácia, sensibilidade e especificidade de cada uma das abordagens utilizadas. Todos os métodos avaliados apresentaram alto grau de correlação positiva (> 87%) com os dados obtidos de maneira invasiva, o que revela que os valores obtidos utilizando RM estão de acordo com aquilo observado pela biópsia hepática. Muito embora os métodos de processamento utilizados não sejam tão complexos quanto seriam necessários caso uma quantificação absoluta fosse desejada, nossas análises mostraram alta acurácia, especificidade e sensibilidade da RM na avaliação da esteatose. Em conclusão, a RM se apresenta, de fato, como uma excelente candidata para avaliar, de forma não invasiva, a fração de gordura hepática, mesmo quando se considera as limitações impostas por um ambiente clínico convencional. Isso sugere que essas novas metodologias podem começar a migrar para ambientes clínicos sem depender das sequências complexas e dos processamentos exóticos que estão descritos na literatura mais atual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em virtude de uma elevada expectativa de vida mundial, faz-se crescente a probabilidade de ocorrer acidentes naturais e traumas físicos no cotidiano, o que ocasiona um aumento na demanda por reabilitação. A terapia física, sob o paradigma da reabilitação robótica com serious games, oferece maior motivação e engajamento do paciente ao tratamento, cujo emprego foi recomendado pela American Heart Association (AHA), apontando a mais alta avaliação (Level A) para pacientes internados e ambulatoriais. No entanto, o potencial de análise dos dados coletados pelos dispositivos robóticos envolvidos é pouco explorado, deixando de extrair informações que podem ser de grande valia para os tratamentos. O foco deste trabalho consiste na aplicação de técnicas para descoberta de conhecimento, classificando o desempenho de pacientes diagnosticados com hemiparesia crônica. Os pacientes foram inseridos em um ambiente de reabilitação robótica, fazendo uso do InMotion ARM, um dispositivo robótico para reabilitação de membros superiores e coleta dos dados de desempenho. Foi aplicado sobre os dados um roteiro para descoberta de conhecimento em bases de dados, desempenhando pré-processamento, transformação (extração de características) e então a mineração de dados a partir de algoritmos de aprendizado de máquina. A estratégia do presente trabalho culminou em uma classificação de padrões com a capacidade de distinguir lados hemiparéticos sob uma precisão de 94%, havendo oito atributos alimentando a entrada do mecanismo obtido. Interpretando esta coleção de atributos, foi observado que dados de força são mais significativos, os quais abrangem metade da composição de uma amostra.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Considerando que o petróleo quando extraído dos poços em águas profundas chega a ter teor de água superior a 50% e que antes de ser enviado à refinaria deve ter uma quantidade de água inferior a 1%, torna-se necessário o uso de técnicas de redução da quantidade de água. Durante a extração do petróleo formam-se emulsões de água em óleo que são muito estáveis devido a um filme interfacial contendo asfaltenos e/ou resinas ao redor das gotas de água. Nesse trabalho é apresentada a utilização de ondas estacionárias de ultrassom para realizar a quebra dessas emulsões. Quando gotículas de água com dimensões da ordem de 10m, muito menores que o comprimento de onda, são submetidas a um campo acústico estacionário em óleo, a força de radiação acústica empurra as gotículas para os nós de pressão da onda. Uma célula de coalescência com frequência central ao redor de 1 MHz, constituída por quatro camadas sendo uma piezelétrica, uma de acoplamento sólido, uma com o líquido e outra refletora, foi modelada empregando o método da matriz de transferência, que permite calcular a impedância elétrica em função da frequência. Para minimizar o efeito do gradiente de temperatura entre a entrada e a saída da cavidade da célula, quando está em operação, foram utilizados dois transdutores piezelétricos posicionados transversalmente ao fluxo que são excitados e controlados independentemente. Foi implementado um controlador digital para ajustar a frequência e a potência de cada transdutor. O controlador tem como entrada o módulo e a fase da corrente elétrica no transdutor e como saída a amplitude da tensão elétrica e a frequência. Para as células desenvolvidas, o algoritmo de controle segue um determinado pico de ressonância no interior da cavidade da célula no intervalo de frequência de 1,09 a 1,15 MHz. A separação acústica de emulsões de água em óleo foi realizada em uma planta de laboratório de processamento de petróleo no CENPES/PETROBRAS. Foram testados a variação da quantidade de desemulsificante, o teor inicial de água na emulsão e a influência da vazão do sistema, com uma potência de 80 W. O teor final de água na emulsão mostrou que a aplicação de ultrassom aumentou a coalescência de água da emulsão, em todas as condições testadas, quando comparada a um teste sem aplicação de ultrassom. Identificou-se o tempo de residência no interior da célula de separação como um fator importante no processo de coalescência de emulsões de água e óleo. O uso de desemulsificante químico é necessário para realizar a separação, porém, em quantidades elevadas implicaria no uso de processos adicionais antes do repasse final do petróleo à refinaria. Os teores iniciais de água na emulsão de 30 e 50% indicam que o uso da onda estacionária na coalescência de emulsões não tem limitação quanto a esse parâmetro. De acordo com os resultados obtidos em laboratório, essa técnica seria indicada como uma alternativa para integrar um sistema de processamento primário em conjunto com um separador eletrostático.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar uma técnica automática baseada em morfologia matemática para medida de sinal em imagens de cDNA desenvolvida no BIOINFO,em parceria com o Instituto Ludwig de Pesquisa contra o Câncer. A tecnologia de lâminas de cDNA é um processo baseado em hibridização que possibilita observar a concentração relativa de mRNA de amostras de tecidos analisando a luminosidade de sinais fluorescentes ou radioativos. Hibridização é o processo bioquímico onde duas fitas de ácido nucleico com seqüências complementares se combinam. A técnica apresentada permite o cálculo da expressão gênica com alto grau de automação, podendo o usuário corrigir com facilidade eventuais erros de segmentação. O usuário interage com o programa apenas para selecionar as imagens e inserir os dados de geometria da lâmina. A estratégia de solução usada tem três fases: gradeamento dos blocos, gradeamento dos spots e segmentação dos spots. Todas as fases utilizam filtros morfológicos e as fases de gradeamento possuem um passo final de correção baseado nos dados de geometria da lâmina o que aumenta a robustez do processo, que funciona bem mesmo em imagens ruidosas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso de Tomografia Computadorizada (CT) para procedimentos de imagiologia vem crescendo cada vez mais devido aos avanços da tecnologia dos equipamentos de CT, que permitem a obtenção de imagens com melhor resolução do que por outras técnicas, sendo consequentemente responsável pelo aumento da dose de radiação no paciente durante o procedimento. Isso acarretou uma maior preocupação com as doses recebidas pelos pacientes que se submetem a esse tipo de exame. Para a realização da dosimetria de feixes de CT, o instrumento mais utilizado é a câmara de ionização do tipo lápis, pois este dosímetro apresenta uma resposta uniforme ao feixe de radiação incidente em todos os ângulos. A câmara convencional que se encontra disponível no mercado apresenta um comprimento de volume sensível de 10 cm; entretanto, alguns estudos têm mostrado que esse dosímetro tem subestimado os valores de dose. Portanto, neste trabalho optou-se por desenvolver no Laboratório de Calibração de Instrumentos do Instituto de Pesquisas Energéticas e Nucleares (LCI-IPEN/CNEN) duas câmaras de ionização, fazendo uso de materiais nacionais de baixo custo, com comprimentos de volume sensível de 10 cm e 30 cm. A caracterização destas câmaras foi realizada e os resultados se apresentaram dentro dos limites recomendáveis internacionais. Como uma aplicação, as câmaras desenvolvidas, juntamente com uma câmara comercial, foram testadas em um tomógrafo clínico. As câmaras de ionização desenvolvidas foram analisadas de maneira completa, para os seus possíveis usos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As unidades de beneficiamento de minério de ouro buscam cada vez mais uma produção de baixo custo e maximização dos ganhos financeiros. A caracterização tecnológica está inserida em uma abordagem multidisciplinar que permite agregar conhecimento, alternativas de otimização e redução nos custos de operação. Inserida como uma ferramenta na caracterização tecnológica, a análise de imagens automatizada tem importante papel no setor mineral principalmente pela rapidez das análises, robustez estatística e confiabilidade nos resultados. A técnica pode ser realizada por meio de imagens adquiridas em microscópio eletrônico de varredura, associada a microanálises químicas sendo utilizada em diversas etapas de um empreendimento mineiro. Este estudo tem como objetivo a caraterização tecnológica de minério de ouro da Mina Morro do Ouro, Minas Gerais na qual foi utilizado a técnica de análise de imagens automatizada por MLA em um conjunto de 88 amostras. Foi possível identificar que 90% do ouro está na fração acima de 0,020 mm; o quartzo e mica representam cerca de 80% da massa total do minério; os sulfetos apresentam diâmetro de círculo equivalente entre 80 e 100 ?m e são representados por pirita e arsenopirita, com pirrotita, calcopirita, esfalerita e galena subordinada. Também foi possível observar que o ouro está majoritariamente associado à pirita e arsenopirita e com o aumento de teor de arsênio, cresce a parcela de ouro associado à arsenopirita. As medianas das distribuições de tamanho dos grãos de ouro apresentam um valor médio de 19 ?m. Verificou-se que a composição dos grãos de ouro é bastante diversa, em média 77% de ouro e 23% de prata. Para material abaixo de 0,50 mm observa-se uma parcela expressiva de perímetro exposto dos grãos de ouro (média 73%); o ouro incluso (21% do total dos grãos de ouro) está associado a pirita e arsenopirita, sendo que em 14 das 88 amostras este valor pode superar 40% do total de ouro contido. A ferramenta da análise de imagens automatizada mostrou-se bastante eficiente definindo características particulares o que fornece de forma objetiva subsídios para os trabalhos de planejamento de mina e processamento mineral.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este documento apresenta o Lyra, um novo esquema de derivação de chaves, baseado em esponjas criptográficas. O Lyra foi projetado para ser estritamente sequencial, fornecendo um nível elevado de segurança mesmo contra atacantes que utilizem múltiplos núcleos de processamento, como uma GPU ou FPGA. Ao mesmo tempo possui uma implementação simples em software e permite ao usuário legítimo ajustar o uso de memória e tempo de processamento de acordo com o nível de segurança desejado. O Lyra é, então, comparado ao scrypt, mostrando que esta proposta fornece um nível se segurança mais alto, além de superar suas deficiências. Caso o atacante deseje realizar um ataque utilizando pouca memória, o tempo de processamento do Lyra cresce exponencialmente, enquanto no scrypt este crescimento é apenas quadrático. Além disto, para o mesmo tempo de processamento, o Lyra permite uma utilização maior de memória, quando comparado ao scrypt, aumentando o custo de ataques de força bruta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente pesquisa tem como objetivo compreender a dinâmica de comportamento do solo sob escala macro e micromorfológica visualizados em topossequência, no que concerne aos agentes morfológicos que condicionam e contribuem para deflagração de processos erosivos. A área de estudo está inserida na sub-bacia hidrográfica do Laranja Azeda localizada na região centro-leste do estado de São Paulo, no município de São Carlos/SP, e têm fundamental importância por pertencer à bacia hidrográfica do Ribeirão Feijão, importante manancial urbano para a cidade. O planejamento de uso e ocupação adequados aos fatores físicos que compõe a dinâmica desta paisagem são essenciais visando a conservação e preservação dos recursos hídricos ali existentes, onde a expressiva ocorrência de processos erosivos são objetos de preocupação, já que estes podem causar assoreamento de rios e reservatórios. Utilizando uma metodologia multiescalar para seleção da área de pesquisa em detalhe e compreensão da organização e dinâmica da cobertura pedológica, foram utilizados os procedimentos propostos pela Análise Estrutural da Cobertura Pedológica e conceitos e técnicas da micromorfologia de solos. Verifica-se que a distribuição dos solos na Topossequência Manacá está estritamente correlacionada à transformação vertical do materialde origem em solo, em cuja vertente existe uma diferenciação litológica que condiciona a morfologia diferenciada, tanto em escala macromorfológica quanto micromorfológica. O terço superior e médio da vertente está associado à depósitos colúvio-eluvionaresda Formação Itaqueri, onde desenvolve-se um Latossolo Vermelho Amarelo. Já o terço inferior da vertente corresponde a um solo formado a partir dos arenitos da Formação Botucatu, sendo enquadrado enquanto Neossolo Quartzarênico. Com o auxílio técnicas de análise bidimensional de imagens retiradas das lâminas delgadas de solo, foi possível visualizar e quantificar a macroposidade ao longo da vertente, importante atributo morfológico que controla os fluxos de água e são agentes condicionantes para o desenvolvimento de processos erosivos. Conclui-se que a ocorrência de voçorocas no terço médio inferior da vertente é a materialização em forma de processos erosivos deste comportamento diferencial da massa do solo, onde portanto, na Topossequência Manacá a busca de equilíbrio dinâmico na vertente é induzida pela dinâmica genética evolutiva das formações geológicas que sustentam a paisagem, desencadeada em processos erosivos que tendem a progredir em desequilíbrio, a depender do manejo estabelecido para o local.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho está fundamentado no desenvolvimento de uma metodologia e/ou uma tecnologia de obtenção e caracterização de filtros ópticos de interferência de banda passante variável [C.M. da Silva, 2010] e de banda de corte variáveis, constituídos por refletores dielétricos multicamadas de filmes finos intercalados por cavidades de Fabry-Perot não planares com espessuras linearmente variáveis, que apresentam a propriedade do deslocamento linear da transmitância máxima espectral em função da posição, isto é, um Filtro de Interferência Variável (FIV). Este método apresenta novas e abrangentes possibilidades de confecção de filtros ópticos de interferência variável: lineares ou em outras formas desejadas, de comprimento de onda de corte variável (passa baixa ou alta) e filtros de densidade neutra variável, através da deposição de metais, além de aplicações em uma promissora e nova área de pesquisa na deposição de filmes finos não uniformes. A etapa inicial deste desenvolvimento foi o estudo da teoria dos filtros ópticos dielétricos de interferência para projetar e construir um filtro óptico banda passante convencional de um comprimento de onda central com camadas homogêneas. A etapa seguinte, com base na teoria óptica dos filmes finos já estabelecida, foi desenvolver a extensão destes conhecimentos para determinar que a variação da espessura em um perfil inclinado e linear da cavidade entre os refletores de Bragg é o principal parâmetro para produzir o deslocamento espacial da transmitância espectral, possibilitando o uso de técnicas especiais para se obter uma variação em faixas de bandas de grande amplitude, em um único filtro. Um trabalho de modelagem analítica e análise de tolerância de espessuras dos filmes depositados foram necessários para a seleção da estratégia do \"mascaramento\" seletivo do material evaporado formado na câmara e-Beam (elétron-Beam) com o objetivo da obtenção do filtro espectral linear variável de características desejadas. Para tanto, de acordo com os requisitos de projeto, foram necessárias adaptações em uma evaporadora por e-Beam para receber um obliterador mecânico especialmente projetado para compatibilizar os parâmetros das técnicas convencionais de deposição com o objetivo de se obter um perfil inclinado, perfil este previsto em processos de simulação para ajustar e calibrar a geometria do obliterador e se obter um filme depositado na espessura, conformação e disposição pretendidos. Ao final destas etapas de modelagem analítica, simulação e refinamento recorrente, foram determinados os parâmetros de projeto para obtenção de um determinado FIV (Filtro de Interferência Variável) especificado. Baseadas nos FIVs muitas aplicações são emergentes: dispositivos multi, hiper e ultra espectral para sensoriamento remoto e análise ambiental, sistemas Lab-on-Chip, biossensores, detectores chip-sized, espectrofotometria de fluorescência on-chip, detectores de deslocamento de comprimento de onda, sistemas de interrogação, sistemas de imageamento espectral, microespectrofotômetros e etc. No escopo deste trabalho se pretende abranger um estudo de uma referência básica do emprego do (FIV) filtro de interferência variável como detector de varredura de comprimento de ondas em sensores biológicos e químicos compatível com pós processamento CMOS. Um sistema básico que é constituído por um FIV montado sobre uma matriz de sensores ópticos conectada a um módulo eletrônico dedicado a medir a intensidade da radiação incidente e as bandas de absorção das moléculas presentes em uma câmara de detecção de um sistema próprio de canais de microfluidos, configurando-se em um sistema de aquisição e armazenamento de dados (DAS), é proposto para demonstrar as possibilidades do FIV e para servir de base para estudos exploratórios das suas diversas potencialidades que, entre tantas, algumas são mencionadas ao longo deste trabalho. O protótipo obtido é capaz de analisar fluidos químicos ou biológicos e pode ser confrontado com os resultados obtidos por equipamentos homologados de uso corrente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento de algoritmos computacionais para a obtenção de distribuições de tamanho de partícula em dispersões e que utilizam dados espectroscópicos em tempo real e in-line a partir de sensores permitirá uma variedade de aplicações, como o monitoramento de propriedades em fluidos de corte industriais, acompanhamento de processos de polimerização, tratamento de efluentes e sensoriamento atmosférico. O presente estudo tem como objetivo a implementação e comparação de técnicas para resolução de problemas de inversão, desenvolvendo algoritmos que forneçam distribuição de tamanho de partículas em dispersões a partir de dados de espectroscopia UV-Vis-Nir (Ultravioleta, Visível e Infravermelho próximo). Foram implementadas quatro técnicas, sendo uma delas um método alternativo sem a presença de etapas de inversão. Os métodos que utilizaram alguma técnica de inversão evidenciaram a dificuldade em se obter distribuições de tamanho de gotas (DTG) de boa qualidade, enquanto o método alternativo foi aquele que se mostrou mais eficiente e confiável. Este estudo é parte de um programa cooperativo entre a Universidade de São Paulo e a Universidade de Bremen chamado programa BRAGECRIM (Brazilian German Cooperative Research Initiative in Manufacturing) e é financiado pela FAPESP, CAPES, FINEP e CNPq (Brasil) e DFG (Alemanha).