880 resultados para segmentazione immagini mediche algoritmo Canny algoritmo watershed edge detection


Relevância:

20.00% 20.00%

Publicador:

Resumo:

ZnO/MgF2/ZnO sandwich structure films were fabricated. The effects of a buffer layer on structure and optical properties of ZnO films were investigated by X-ray diffraction, photoluminescence, optical transmittance and absorption measurements. Measurement results showed that the buffer layer had the effects of improving the quality of ZnO films and releasing the residual stresses in the films. The near-band edge emissions of ZnO films deposited on the MgF2 buffer layer were significantly enhanced compared with those deposited on bare substrate due to the smaller lattice mismatch between MgF2 and ZnO than that between fused silica and ZnO. (c) 2006 Elsevier B.V. All rights reserved.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ZnO/ITO/ZnO sandwich structure films were fabricated. The effects of buffer layer on the structure and optical properties of ZnO films were investigated by x-ray diffraction (XRD), photoluminescence, optical transmittance, and absorption measurements. XRD spectra indicate that a buffer layer has the effects of lowering the grain orientation of ZnO films and increasing the residual stresses in the films. The near-band-edge emissions of ZnO films deposited on both single indium tin oxide (ITO) buffer and ITO/ZnO double buffers are significantly enhanced compared with that deposited on a bare substrate due to the quantum confinement effect. (C) 2006 American Institute of Physics.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Presente dissertação apresenta uma aplicação de Inteligência Computacional na área de Geotecnia, com a utilização da Técnica de Neuro-Fuzzy para indicar a suscetibilidade de escorregamento de taludes no município do Rio de Janeiro, a partir de inspeção visual. Neste trabalho, a suscetibilidade corresponde à possibilidade de ocorrência de escorregamento sem considerar os danos relacionados ao evento. Adotou-se como variável de saída a Previsão de Escorregamento (PE) com três adjetivos que correspondem a Suscetibilidades Alta, Média e Baixa. A metodologia utilizada consistiu em, inicialmente, montar um banco de dados com informações preliminares de análise de estabilidade, com a indicação dos condicionantes de escorregamento relacionados à geomorfologia, pluviosidade, capacidade de drenagem, vegetação e ocupação com seus respectivos graus de suscetibilidades de escorregamento obtidos em um conjunto de Laudos de Vistoria da Geo Rio. O banco de dados foi aplicado em um algoritmo de Neuro-Fuzzy. Diversos testes foram realizados com as alterações dos parâmetros do modelo Neuro-Fuzzy para uma combinação de fatores condicionantes de escorregamento e refinamento do banco de dados. Os testes apresentaram diminuição do erro fornecido pelo programa com o aumento de tipos de condicionantes utilizados no treinamento, o que permite inferir que o escorregamento ocorre por uma complexa relação entre diversos fatores condicionantes. O banco de dados utilizado nos testes apresenta descontinuidades nas relações entre os diversos condicionantes, ou seja, para uma mesma faixa de valores de Altura do talude, não é possível obter uma relação para todas as faixas de outro condicionante e, até mesmo, para todas as faixas da Previsão de Escorregamento. As PEs obtidas na validação do modelo tiveram seus valores próximos aos desejados somente nos conjuntos de variáveis utilizadas para o treinamento. O modelo não foi capaz de apresentar valores de suscetibilidades dentro da faixa de valores utilizados no treinamento para combinação de variáveis com pequenos ruídos, o que indica a necessidade de ampliação do banco de dados tanto quantitativamente quanto qualitativamente de modo a cobrir as descontinuidades apresentadas nas relações entre as variáveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The optical absorption edge and ultraviolet (UV) emission energy of ZnO films deposited by direct current (DC) reactive magnetron sputtering at room temperature have been investigated. With the oxygen ratio increasing, the structure of films changes from zinc and zinc oxide coexisting phase to single-phase ZnO and finally to the highly (002) orientation. Both the grain size and the stress of ZnO film vary with the oxygen partial pressure. Upon increasing the oxygen partial pressure in the growing ambient, the visible emission in the room-temperature photoluminescence spectra was suppressed without sacrificing the band-edge emission intensity in the ultraviolet region. The peaks of photoluminescence spectra were located at 3.06---3.15 eV. From optical transmittance spectra of ZnO films, the optical band gap edge was observed to shift towards shorter wavelength with the increase of oxygen partial pressure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta Tese desenvolvemos várias abordagens "Darbouxianas"para buscar integrais primeiras (elementares e Liouvillianas) de equações diferenciais ordinárias de segunda ordem (2EDOs) racionais. Os algoritmos (semi-algoritmos) que desenvolvemos seguem a linha do trabalho de Prelle e Singer. Basicamente, os métodos que buscam integrais primeiras elementares são uma extensão da técnica desenvolvida por Prelle e Singer para encontrar soluções elementares de equações diferenciais ordinárias de primeira ordem (1EDOs) racionais. O procedimento que lida com 2EDOs racionais que apresentam integrais primeiras Liouvillianas é baseado em uma extensão ao nosso método para encontrar soluções Liouvillianas de 1EDOs racionais. A ideia fundamental por tras do nosso trabalho consiste em que os fatores integrantes para 1-formas polinomiais geradas pela diferenciação de funções elementares e Liouvillianas são formados por certos polinômios denominados polinômios de Darboux. Vamos mostrar como combinar esses polinômios de Darboux para construir fatores integrantes e, de posse deles, determinar integrais primeiras. Vamos ainda discutir algumas implementações computacionais dos semi-algoritmos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Artículo científico Inorg. Chem. 2013, 52, 8074−8081

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.