999 resultados para Segmentação de imagens
Resumo:
No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
O processo de ensino e de aprendizagem funda-se numa relação escópica e especular estabelecida entre professor-aluno, da qual resultam a construção/consti-tuição de imagens. Estas, por sua vez, entendidas como processo e não como pro-duto, necessitam de três tempos para sua constituição, os quais são analisados a partir dos paradigmas da psicanálise freudo-lacaniana, da epistemologia genética e da filosofia benjaminiana. As imagens, na condição de suportes imaginários, representam, para o pro-fessor e para o aluno, um entre-lugar interdisciplinar enlaçando e fabricando se-melhanças e diferenças entre a Clínica e a Educação; entre o espaço privado da família e o espaço público da escola/social; entre o olhar e o ver; entre a imagem e sua representação. Trata-se, portanto, da construção de uma experiência e do exer-cício do ensinar e do aprender. Experiências essas, compartilhadas entre professor e aluno no espaço escolar Das análises e reflexões desenvolvidas nesta pesquisa, que tiveram por base tanto fragmentos de casos clínicos com crianças em atendimento psicomotor quanto entrevistas com professores, foi construído um instrumento denominado caso peda-gógico, cujo objetivo é auxiliar o professor a refletir sobre os efeitos imaginários pro-duzidos nas referidas relações escópicas e especulares, as quais interferem, susten-tam e, muitas vezes, obstaculizam o processo de ensino-aprendizagem, produzindo fracassos tanto no processo do ensinar, quanto no do aprender. Nesse sentido, é preciso compreender que o processo ensino-aprendizagem não implica apenas uma relação prazerosa, mas também e, especialmente, sofri-mentos: tanto do professor quanto do aluno, aos quais é preciso olhar e não apenas ver.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
O presente trabalho analisa a mulher na produção cinematográfica brasileira de 1896/1928, período que cobre um momento importante do debate sobre as alterações dos papéis sociais em meio às alterações trazidas com a modernidade.O Cinema Brasileiro apresenta-se como um
Resumo:
O Internet banking tem evoluído rapidamente nos últimos anos. Se em 1996 apenas alguns pioneiros se arriscavam a oferecer serviços bancários através da Web, hoje milhões de usuários no mundo todo transformaram o Internet banking numa das aplicações de maior sucesso no universo do comércio eletrônico. Entretanto, este crescimento do Internet banking não está ocorrendo de forma homogênea no mercado bancário. Dois dos fatores influenciam o grau de investimento de um banco nos serviços on-line pela Web são: porte do banco e orientação de mercado varejo ou atacado dos serviços oferecidos. Este estudo mostra que os bancos de maior porte e os serviços voltados para o varejo estão mais consolidados no uso do Internet banking, embora os bancos de menor porte e os serviços para o mercado de atacado já disponham de importantes iniciativas de uso da Internet como canal bancário.
Resumo:
The general objective of this research is to verify which attributes are most relevant to a stock photography agency that represent the purchaser's standards of choice. For this objective to be accomplished, qualitative interviews with the customers of stock photography agencies had been made in order to raise the attributes considered with relevance in the process of choice for the Brazilian stock photography agency market. The levels of each attribute to be tested had arisen through the mapping of the products and services offered by the competition and the relative weight assigned to each one of the attributes related to the research in the choices for a stock photography agency. A transversal study was made with a sample of stock photography agencies customers from Brazil¿s Southeastern region. For the analysis of this data, a survey method was used, that, according to MALHOTRA (2006: 182), involves a structuralized questionnaire to be answered by an interview that elucidates specific information, in which the questions had a predetermined order. This questionnaire was presented through interviews on the Internet. The method adopted for this analysis was a joint analysis. A sampling of 1000 customer stock photography agencies were selected, which were represented by a didactic book editor, advertising agencies, editorial companies, etc., in the states of Rio de Janeiro, São Paulo, Espírito Santo and Minas Gerais. They had been obtained by 16 stimulations, or cards, for the application of the companies. Of the sample of 1000 customers of stock photography agencies, 7,8% responded to the research. The attribute most relevant in accordance with the presented results is the availability of images in high resolution for layout. Its relative importance was 40,78%. At the end of the study, the management implications were propitiated to the stock photography agencies managers inabling them to be more competitive.
Resumo:
This document constitutes itself a thesis for a master¿s, partial fulfillment for getting a master¿s degree in Public and Business Management. The subject is a research on the influence of the attribute of safety in the segmentation of pork in the northwest border of the State of Rio Grande do Sul, Brazil, involving a bibliographic review related to the theme, and also an explorative research in order to identify the characteristics of the sector. From this information, a descriptive research is carried out from data collected in stores wich commercialize pork products in Santa Rosa, reaching a comprehensive undestanding on the subject. The main results of the research are the theoretical building of the thematic support concerning the safety of the food; the use of interviews aiming at verifying the importance of different attributes of pork which the consumer consider important and also the identification of segments based on these assessments. The conclusions from the research show that the consumers in general consider of high importance the safety of the food, and it is due to the fact that pork is still considered a product which offers a high risk at consumption. Consumers still have a preconceived idea about pork, because years ago, hog breeding was conducted with precarious standards of hygiene. It is imperative that the related business and producers divulge the advances of the sector in order to destroy this negative concept. The study identified three segments of market to the consumer of in natura pork: the first emphasized attributes are the inspection and the presentation of the product (cluster 1), flavour and softness stand out as the second ones. Finally, the third most important attributes that consumers consider when picking a pork product are its price and its aspect. It also favours further studies wich can provide the formulation of new marketing strategies to order products that form part of this agrolimentary system, giving this segment opportunity to boost its business and improve its approach to its consumer.
Resumo:
There is a intensity change within financial services industry: deregulation, technology, joint ventures and, in Brazil, privatization, increase of foreign competitors and fall of industry participating from 31 per cent to 5,4 per cent in Brazilian GDP.In this context financial institutions are working very hard to improve their market share, besides promoting customer retention and creating customer loyalty.In this paper we are presenting the scenario of industry in the 90's, opportunity to use segmentation and relationship strategies used by banks through distribution channels.The purpose of this study is to examine the relationship between customer satisfaction and segmentation. To ascertain whether such a link exists, a primary study of 3.378 individuals was conducted in two branches at Rio de Janeiro in March 2001. The results suggest that there is little relationship between customer satisfaction and segmentation, besides other qualitative findings.
Resumo:
Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.
Resumo:
Apesar de toda discussão sobre a crise na instituição família em função das amplas mudanças ocorridas na sociedade contemporânea, tais como o aumento dos domicílios unipessoais, das famílias chefiadas por mulheres, da média de idade ao se casar, de casais que convivem no mesmo domicílio sem necessariamente estarem casados, da participação da mulher no mercado de trabalho e do crescente poder de compra dos domicílios, o conceito “família” vem se flexibilizando para refletir as transições da rígida estrutura familiar nuclear para novos modelos familiares e os estilos de vida associados a eles. O desafio passa a ser um olhar minucioso para as necessidades específicas desta diversidade de arranjos familiares para uma melhor compreensão dos seus desejos e motivações, bem como as mudanças no decorrer dos vários estágios do ciclo de vida. O presente estudo apresenta o construto ciclo de vida familiar como uma importante ferramenta de segmentação, a partir da definição de padrões de consumo de acordo com os principais eventos da vida do individuo e da família. Este trabalho traz uma revisão dos principais modelos de ciclo de vida para posteriormente apresentar e validar um modelo específico para o ambiente brasileiro a partir dos microdados de uma pesquisa feita pelo Instituto Brasileiro de Geografia e Estatística em 2002 e 2003. Umas das grandes contribuições deste trabalho é o esforço em desenvolver uma teoria de Marketing, em especial na área de segmentação de mercados, adaptada à realidade brasileira, ao invés de simplesmente copiar modelos desenvolvidos em outros países