56 resultados para Divulgação de informações contábeis
Resumo:
O objetivo principal deste estudo é definir um modelo referencial para obtenção e tratamento de informações técnicas, sociais, econômicas e ambientais atualizadas, confiáveis e integráveis dos principais sistemas de produção de um município, visando o desenvolvimento municipal sustentável, com apoio de sistema de informações geográficas (SIG). O SIG permite analisar informações de forma mais rápida, segura e de fácil interpretação, viabilizando a implementação de ações com vistas a um desenvolvimento crescente e duradouro, melhorando as condições de vida das famílias de agricultores e o aproveitamento e preservação dos recursos naturais. O desenvolvimento municipal sustentável em Pinhalão, estado do Paraná, Brasil foi potencializado através do uso de SIG e da instituição de um núcleo de informações que visa mediar as forças do governo e da comunidade local. Os indivíduos, grupos e instituições formais tiveram sua organização e acesso às informações e tecnologias facilitados e passaram a ter possibilidade de participar nas decisões de interesse da coletividade, garantindo o uso correto dos recursos e a transparência da gestão pública. O modelo participativo de desenvolvimento municipal sustentável resulta na manutenção e viabilização das propriedades rurais e das bacias hidrográficas, através de atividades que valorizem o uso da mão-de-obra e gerem alta renda por unidade de área, estabelecendo um equilíbrio entre os fatores sociais, econômicos e ambientais.
Resumo:
A humanidade tem criado mais informações do que pode administrar. A informação é o recurso fundamental para estabelecer planejamento estratégico e vantagens competitivas. Assim a informação recebe cada vez mais importância dentro da organização. O desafio está em coletar a informação potencialmente relevantes e colocá- la à disposição para análise, interpretação e utilização. O presente estudo tem como objetivo central identificar a utilização de informações de mercado pelas instituições particulares de Ensino Básico que são conveniadas ao Sistema Positivo de Ensino (SPE). Para isso, este estudo visa identificar como os responsáveis, executivos ou dirigentes das escolas percebem o uso e a difusão das informações de mercado obtidas, a importância e a necessidade delas para que se tomem decisões adequadas, além de identificar as principais fontes e os principais instrumentos de coleta de informações utilizadas. A pesquisa descritiva quantitativa, objetivo deste estudo, foi delineada utilizando da amostragem por conveniência, sendo a análise dos resultados direcionada para o conjunto das escolas investigadas. A amostra resultante das respostas da aplicação de questionários estruturados encaminhados via correio a 2.154 escolas foi de 676 unidades de pesquisa, ou seja 31,4% do total. Os resultados do estudo indicam que no contexto geral, as práticas executadas pelas instituições educacionais conveniadas ao Sistema positivo de Ensino, não diferem de forma contundente. No entanto um estrato específico – o das escolas que possuem departamento ou setor de marketing – têm se direcionado de maneira mais acentuada para a utilização de técnicas e ferramentas mais abrangentes no uso de informações de mercado para a tomada de decisões.
Resumo:
Em todas as organizações, o tratamento dos dados e das informações tem representado grande parte das preocupações dos administradores. A introdução de sistemas de informações e de tecnologia da informação, no seu mais amplo sentido, nas empresas de todas as especialidades, independentemente de seu porte, propicia agilidade, rapidez e precisão aos negócios. Contudo as empresas do subsetor de edificações da indústria da construção civil têm se caracterizado pelo uso de recursos computacionais num nível inferior ao observado em outros ramos industriais. Esta resistência à introdução de novas tecnologias é inversamente proporcional à quantidade de dados e informações processados e compartilhados pelos profissionais do setor. Em particular, deve-se salientar que, no processo de desenvolvimento do projeto executivo de uma obra de edificação, um número enorme de dados e informações recebe algum tipo de tratamento. Verificando-se que o processo de desenvolvimento dos documentos complementares à parte gráfica dos projetos, principalmente nas pequenas e i micro-empresas, tem se apresentado de forma inadequada à importância do setor e dos próprios documentos, este trabalho desenvolveu um sistema de informações baseado num modelo que integra a elaboração desses vários documentos. O sistema, denominado SINDOC, auxilia os usuários nos processos decisórios, fazendo com que soluções adequadas, completas e coerentes venham a ser obtidas. Para oferecer subsídios ao desenvolvimento do sistema, empresas do setor foram analisadas, assim como o perfil dos seus profissionais. Estes estudos garantiram que o sistema resultante fosse adequado para o setor. Isto foi comprovado mediante experimento em laboratório utilizado para avaliar e validar o sistema. O trabalho pretende contribuir para incentivar mudanças nas empresas do subsetor de edificações quanto ao tratamento de dados e informações, apresentando sistema adequado às suas necessidades e às características de seus usuários.
Resumo:
Foi realizado um estudo de caso exploratório, visando mapear a demanda por informações em um site Web mantido por uma organização de P&D para o agronegócio. Os dados utilizados consistiram na seqüência de clicks (clickstream) realizados por visitantes entre as páginas do site, e nas palavras-chave (keywords) inseridas no seu mecanismo de busca. Procurou-se abordar a análise considerando as estatísticas gerais de acesso oriundas do domínio ".br", as primeiras ações dos visitantes ao acessar a página principal e as necessidades explícitas por informações, simbolizadas pelas palavras-chaves utilizadas para busca no site. A discussão dos resultados foi orientada à descoberta de conhecimentos que pudessem elevar o nível de personalização e customização do site estudado, ressaltando-se, entre os quais, o mapeamento das origens das visitas ao site, da distribuição das sessões ao longo de diferentes janelas de tempo, das preferências primárias de navegação dos visitantes através dos links do site e das necessidades explícitas por informação relacionada ao tema do site. Considerando o contexto atual, onde cada vez mais as organizações tenderão a buscar e interagir com clientes e parceiros através da Web, pode-se concluir que o estudo revelou aspectos úteis relacionados as atividades de transferência de tecnologia e marketing para a organização em estudo.
Resumo:
O presente estudo investiga como os gerentes de supermercados no Norte do Estado do Rio Grande do Sul usam as informações de mercado para apoiar suas decisões de marketing. Os dados foram coletados a partir de entrevistas pessoais através de um questionário aplicado em uma amostra de quarenta gerentes correspondendo a 71,4% da população estudada. Este estudo oferece uma estrutura de variáveis que contribuem para a análise dos processos de coleta, utilização e difusão das informações de mercado. Verifica também a percepção do decisor quanto à importância das informações de mercado e ao uso dos instrumentos para sua coleta. Geralmente, os gerentes coletam e utilizam muitas informações com o objetivo de apoiar suas decisões diárias. Os resultados revelam que eles coletam com bastante freqüência informações a partir de fontes externas, tais como comentários informais, conversas informais, jornais, revistas especializadas, telejornais e consumidores. E, ainda, utilizam bancos de dados internos e funcionários como as principais fontes internas de informação. Todavia, muitas fontes relevantes não são utilizadas, caracterizando um processo em que os gerentes coletam poucas informações de mercado e, quando o fazem, tendem a utilizar fontes informais de acesso. A utilização das informações é um dos processos de maior atenção dos gerentes, seja do uso interno ou externo. As informações externas mais utilizadas referem-se aos concorrentes e aos setores econômico, político, tecnológico e sociocultural. Por outro lado, percebe-se a baixa utilização de informações dos consumidores, revelando uma posição despreocupante em relação às tendências de customização de clientes. Por sua vez, as informações internas possuem uma elevada freqüência de uso, uma vez que são de fácil acesso e disponibilidade. Um aspecto evidenciado é que os gerentes utilizam muita informação conceitual e muito pouca informação instrumental, o que revela um elevado uso indireto das mesmas em ações relacionadas à estratégia e, em contrapartida, muito poucas são utilizadas diretamente para decisões de maior escopo. Os gerentes disseminam muito pouco as informações de mercado, tanto interna quanto externamente, embora suas percepções quanto à importância e necessidade dessas informações sejam elevadas. Evidencia-se, portanto, que os gerentes usam informações de maneira empírica, dispersa e assistemática, sem instrumentos formais de coleta, fundamentadas em relações informais, pessoais e impessoais.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
O presente trabalho se insere dentro de uma aplicação real na Assembléia Legislativa do Rio Grande do Sul (ALERGS), desenvolvida no Departamento de Sistemas de Informações, aproveitando-se do Sistema PRIMA/Vídeo – um sistema de veiculação interna de sinais de vídeo – já existente desde novembro de 1996. O PRIMA/Vídeo surgiu da necessidade de implantação de um sistema que permitisse o acompanhamento das múltiplas reuniões realizadas simultaneamente no âmbito do Palácio Farroupilha. Um projeto foi elaborado pela IBM do Brasil e implantado um sistema composto por dezesseis câmeras de sinais de vídeo ligadas a uma rede de 120 estações, que recebem analogicamente e em tempo real os sinais de vídeo. Este sistema permite o acompanhamento on-line de qualquer reunião nas dependências da ALERGS, além de receber imagens dos canais das emissoras a cabo. Entretanto, surgiu a necessidade de gravação destes vários eventos ocorridos para posterior exibição, criando, assim, um estudo para um sistema de informações composto de dados multimídia (sinais de vídeo do PRIMA/Vídeo). O Sistema de Informações Hipermídia da Assembléia Legislativa (SIHAL) visa o armazenamento e a disponibilização de sinais de vídeo (imagem e som) aos usuários internos da ALERGS. Através deste novo Sistema, os usuários poderão assistir a reuniões realizadas anteriormente e terão opções com capacidade de: • armazenar e organizar fisicamente os vídeos analógicos das Sessões Plenárias; • organizar o agendamento das Sessões Plenárias solicitadas no canal analógico de vídeo do PRIMA/Vídeo; • armazenar digitalmente os principais trechos de vídeo dos eventos da Assembléia; • fornecer o download dos trechos digitalizados aos usuários pela interface do Sistema; • fornecer a fita de vídeo aos usuários do Sistema; • criar uma base de dados de vídeo referente às imagens digitalizadas das Sessões Plenárias; • fornecer acesso à base de dados de vídeo. A principal contribuição desta dissertação é o estudo sobre soluções mistas, integrando dados multimídia analógicos e digitais com o intuito de propor um Sistema de Informações Hipermídia, o qual foi denominado de SIHAL. Um protótipo do SIHAL será implementado como demonstração da viabilidade das idéias citadas no sistema proposto.
Resumo:
O desenvolvimento de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas que desenvolvem, simultaneamente, suas opções e decisões com relação ao mesmo. Assim sendo, é necessário considerar que a realização do projeto é dependente da eficiência da comunicação entre os membros da equipe, uma vez que grande parte do trabalho de cada projetista deve ser desenvolvida sob as restrições impostas pelas necessidades dos demais. O cuidado com o fluxo de informações apresenta-se, portanto, como um mecanismo eficiente para garantir a integração, controle e organização das atividades, colaborando para a transparência do processo tanto para o coordenador como para cada um dos profissionais selecionados para a equipe. Assim, este trabalho propõe, com base na realização de uma série de entrevistas com profissionais da área de projeto da cidade de Porto Alegre (RS), um sequenciamento básico de atividades a serem desenvolvidas pelos profissionais ao longo das etapas do processo. O modelo traçado buscou explicitar de forma sistematizada o intercâmbio de informações necessário para o desenvolvimento de cada projeto específico, definindo os principais resultados que devem ser disponibilizados para que outros profissionais possam desenvolver sua parcela do trabalho. O modelo foi gerado caracterizando a dependência entre os resultados disponibilizados individualmente pelos intervenientes para a equipe de profissionais ao longo do processo Desta forma, cada resultado caracterizou uma atividade, para a qual é possível conhecer não só as dependências - atividade(s) precedente(s) e sucessora(s)- mas a quem cabe a responsabilidade de disponibilizar tal informação, permitindo a tomada de decisão sobre o processo como um todo ao observar as ocorrências do dia-a-dia.
Resumo:
Os Sistemas de Recuperação de Informações (SRI) computadorizados são sistemas capazes de armazenar, recuperar e manter informações, visando minimizar o esforço humano na realização de tais atividades. A classificação de textos é um subdomínio dos sistemas de recuperação de informações que tem como objetivo classificar um texto em uma ou mais categorias existentes. Pode ser utilizada na classificação de mensagens, notícias e documentos, na filtragem de informações, na sumarização de textos, além de auxiliar profissionais na execução destas tarefas. A filtragem automatizada das mensagens de correio eletrônico é uma forma de organizar o trabalho do usuário. O volume de informações divulgadas através deste serviço torna fundamental um sistema de filtros para melhor uso do serviço. Sieve é uma proposta para padrão de linguagens de filtro de mensagens. O Direto é um software de correio, agenda e catálogo corporativos que visa atender todo Governo do Estado do Rio Grande do Sul. Foi desenvolvido na PROCERGS, Companhia de Processamento de Dados do Estado do Rio Grande do Sul, utilizando a linguagem Java e utiliza os serviços de IMAP, SMTP, LDAP e SGBD. Está disponível com licença de software livre. O objetivo deste trabalho é aplicar técnicas de filtragem no Direto. O trabalho apresenta uma solução para filtrar as mensagens de correio do Direto utilizando Sieve. Também é especificado um serviço de canais de informação que visa divulgar informações de forma eficiente no Estado. Este serviço possui vários canais, cada um destinado a divulgar informações de determinado domínio. O usuário assina os canais que desejar e pode criar filtros para melhor refinamento das informações que deseja receber. Os filtros utilizam técnicas de classificação de textos no processo de filtragem.
Resumo:
Muitos estudos sobre análise do risco de crédito foram feitos até recentemente, tendo como principal foco a previsão de falência. A insolvência das empresas devedoras, sem dúvida, é um grande problema para os concedentes de crédito, no entanto, a inadimplência não é um fato exclusivo do processo falimentar. Neste sentido, a presente investigação se propôs a prognosticar a ocorrência da inadimplência - aqui definida como a cobrança que está sendo realizada por via judicial - com as informações disponíveis no momento da análise de crédito, neste caso, os três últimos demonstrativos contábeis. A pesquisa foi realizada com uma amostra constituída de empresas industriais, especificamente da indústria de transformação, clientes de uma instituição financeira que receberam financiamento durante o período de 1996 a 1997, dividida entre adimplentes e inadimplentes; mediante o uso de dois métodos estatísticos de análise múltipla de dados, já consolidados em estudos desta natureza: análise discriminante linear e regressão logística; e com emprego de quocientes financeiros obtidos a partir das demonstrações contábeis. Os resultados demonstraram que há uma lacuna no que tange a análise financeira tradicional no processo de exame de crédito, que pode ser suprida com modelos quantitativos setoriais estimados com auxilio de métodos estatísticos, contribuindo para uma melhor qualidade de análise, com intuito de evitar a inadimplência, melhorando o resultado das instituições financeiras.
Resumo:
A crescente utilização de computadores e a popularização da Internet contribuem cada vez mais para que usuários não especialistas em informática tenham acesso a sistemas computacionais. Tais usuários possuem diferentes habilidades, formações e idades que devem ser levadas em consideração no projeto de uma boa interface. No entanto, no projeto de interfaces web é muito difícil identificar essas características do público alvo, tendo em vista que ele é bastante diversificado. Assim, construir uma interface que atenda os requisitos de todos os usuários de um site não é uma tarefa fácil. Se o projetista tivesse uma maneira de conhecer o seu público, grande parte dos problemas de interação entre usuário e interface poderiam ser resolvidos. Assim, a fim de auxiliar na tarefa de conhecer o público que um site possui, várias técnicas estão disponíveis. Independente das características dos usuários de sites web, a sua principal necessidade consiste em encontrar a informação desejada de modo fácil e rápido. Ainda que seja possível identificar o comportamento de todos os usuários em um site, torna-se difícil disponibilizar informações de forma clara e simples para todos. Para isto, um site adaptativo, que se ajusta automaticamente a cada usuário de acordo com seus padrões de comportamento, é muito útil. Sites adaptativos são desenvolvidos com base em técnicas que auxiliam o projetista na tarefa de personalizar páginas web e, por este motivo, são chamadas de técnicas de personalização. O objetivo desta dissertação é investigar, desenvolver e experimentar uma técnica de personalização de interfaces web voltada especificamente para sites institucionais. Este tipo de site é voltado à divulgação de produtos e serviços de uma instituição e, normalmente, é composto por um grande número de páginas estruturadas de acordo com a estrutura organizacional da instituição. Essa característica permite o agrupamento de usuários por funções ou cargos. A técnica proposta neste trabalho é baseada em perfis de usuários, onde a personalização ocorre em dois níveis: nível de grupos de usuários e nível de usuários individuais, denominados respectivamente de macro perfil e micro perfil. Um estudo de caso realizado na intranet da Agência Nacional de Telecomunicações – ANATEL foi utilizado para aprimorar e validar a técnica. Foi desenvolvido um protótipo de site institucional personalizado, o qual foi disponibilizado, utilizado e avaliado por um grupo de usuários previamente selecionados. O processo de construção do protótipo assim como da avaliação e seus resultados são também descritos neste trabalho.
Resumo:
Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.
Resumo:
Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.