999 resultados para Sistema de informações geograficas
Resumo:
O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.
Resumo:
A presente pesquisa visou abordar de forma empírica e prática o envolvimento dos adolescentes com os entorpecentes para que se pudesse sugerir um sistema de gestão de informações processuais e extraprocessuais implementado no momento do atendimento pelo Poder público ao adolescente que comete o ato infracional. A pesquisa participante consistiu num levantamento de dados juntos a 550 processos analisados no período de novembro de 2009 a maio de 2010. Foram feitas visitas às Unidades de Internação para a observação direta, bem como se utilizou de entrevistas diretas e informais para a coleta de dados. Os relatórios de atos infracionais dos anos de 2008, 2009 e 2010 este, até o mês de maio foram analisados. O método dedutivo foi utilizado também no momento da análise dos dados coletados, com a perspectiva do cenário de utilização de entorpecentes por adolescentes no Brasil e da realidade na cidade de Porto Velho – Rondônia e pesquisa realizada no interior do Estado sobre o tema. Os resultados obtidos mostram que de 2008 para 2009 houve uma redução nos índices de atos ilícitos relacionados aos entorpecentes da ordem de 22%. Nenhuma mudança houve na contagem ou forma de registro processual que pudesse se afigurar variável interferente. Atribuiu-se tal fato a ampliação do mercado de trabalho para adolescente no Estado em decorrência da construção das chamadas “Usinas do Madeira”. Considera-se que o percentual de infrações até maio de 2010, porém, demanda atenção do poder público posto o fato de que e 2010 os atos infracionais que dizem respeito a entorpecentes somam 263 processos enquanto o total de 2009 apresentou 364 processos.
Resumo:
O presente trabalho objetiva discutir a importância da implantação do Sistema de Controle Interno – SCI na administração pública municipal, expondo a necessidade de sua adoção no âmbito da região do Agreste Meridional de Pernambuco, com o intuito de obter eficiência e eficácia na gestão dos recursos públicos. Ressalta-se, ainda, que para obtenção do sucesso do Sistema de Controle Interno - SCI é indispensável o cumprimento dos procedimentos legais. Pode-se afirmar que, a implantação do SCI é uma ferramenta que possibilita, ao ente público, suporte, apoio e assessoria, uma vez que oferece condições de governar de maneira eficiente, eficaz e efetiva, através da disponibilização de informações confiáveis em tempo hábil, respeitando os programas governamentais e resultando numa excelente conduta de gestão. Consequentemente, o gestor terá uma condição mais privilegiada, no sentido de que poderá auferir entendimentos conclusivos sobre questões específicas relacionadas à sua administração, propiciando, assim, efeitos qualitativos para a sociedade. O estudo revela também os procedimentos que foram adotados pelas administrações municipais a partir da Resolução TC nº 001/2009, instituída pelo Tribunal de Contas do Estado de Pernambuco, que disciplina sobre a criação, a implantação, a manutenção e a coordenação de Sistemas de Controle Interno nos Poderes Municipais, fazendo valer o prescrito nos artigos 31 e 74 da Carta Magna.
Resumo:
O presente estudo propõe, a partir das informações levantadas sobre as principais intoxicações e envenenamentos no país e, em particular, da análise do Sistema Nacional de Informações Tóxico Farmacológicas - como uma fonte de dados de morbidade - a adoção pelos Sistemas de Informações de um enfoque conceitual ampliado do objeto "Intoxicações e Envenenamentos", que englobe as questões Iigadas a contaminações ambiental nas suas diferentes formas, o consumo voluntário de tóxicos, compreendendo tabagismo, alcoolismo e drogas ilícitas, em seu campo de abrangência. Mostra a importância que vem ganhando, na atualidade, o conjunto destes eventos pelos impactos que acarretam sobre o meio ambiente, a saúde humana e aos demais seres vivos, em nível nacional e internacional. Destaca o papel relevante da informação como ferramenta essencial para subsidiar a formulação de políticas, para o gerenciamento dos serviços de saúde e para a administração cotidiana das atividades de atenção à saúde. Como conclusão sugere, para a superação das atuais limitações dos Sistemas de Informações Tóxico-Farmacológicas existentes, a adoção de uma visão compreensiva e integradora das diversas areas do conhecimento e especialidades que oriente a constituição de Sistemas de Informações diversificados e interativos e estruturados de acordo com a concepção sistêmica da teoria da informação.
Resumo:
Sistemas produtivos industriais podem combinar, em células de manufatura, diferentes características de automação de processos permitindo interfaceamento e possibilitando a flexibilização e otimização da manufatura. Nos processos de fabricação, as dificuldades para a execução de processos de usinagem convencional ou mesmo através de comando numérico, quando se dispõe de máquinas adequadas para a fabricação de peças de geometrias complexas, podem limitar a criatividade, bem como dificultar o desenvolvimento do processo produtivo de forma otimizada. As dificuldades encontradas vão desde fixação das peças, necessidades de dispositivos especiais, restrições nos volumes de trabalho de máquinas CNC e mesmo a geração de trajetórias complexas para máquinas com limitações de eixos. Este trabalho propõe uma metodologia alternativa para usinagem, especialmente fresamento, com desenvolvimento de um algoritmo capaz de, através da utilização de recursos de sistemas CAD/CAM, traduzir arquivos gráficos para uma linguagem de programação utilizada em robôs. Na aplicação utilizam-se recursos dos sistemas CAD/CAM para gerar, numa primeira etapa, o código de programação para máquinas-ferramenta de comando numérico e posterior adaptação, para aplicação em sistemas robóticos. Informações de caminhos de ferramenta para usinagem em máquinas CNC são convertidos, através de uma interface computacional, em trajetórias a serem seguidas por uma ferramenta guiada por um manipulador de robô industrial. Os parâmetros de processo são também adequados as restrições dos sistemas robotizados. A viabilidade do sistema proposto é confirmada através de testes realizados em modelos de superfícies complexas, onde o objetivo do referido trabalho foi alcançado.
Resumo:
O objetivo central desta pesquisa foi o de explorar, descrever e discutir de que forma e em que extensão as empresas se utilizam das informações contábeis tratadas por mecanismos que considerem os reflexos das variações no poder aquisitivo da moeda (Inflação) e das flutuações específicas de preços sobre os resultado e patrimônio empresarial, nos seus sistemas de controles internos e, consequentemente, em seus processos de tomada de decisão, avaliação de desempenho e fixação de tendências para o empreendimento. Em função dos objetivos propostos, a operacionalização desta pesquisa foi desenvolvida em duas etapas. A primeira fase, de caráter qualitativo, constituiu-se no levantamento dos dados básicos necessários ao atingimento dos objetivos desejados, através da aplicação de questionários em 12 (doze) empresas. Através dos dados levantados, foi possível inferir-se que o sistema contábil configura-se na base primária dos relatórios gerenciais das empresas pesquisadas. o modelo da Correção Integral teve sua validade conceitual confirmada, não obstante algumas simpliflcações metodológicas adotadas e o problema da lnadequacidade do padrão monetário utilizado principalmente em 1990. Em que pese ter havido consenso na indicação das distorções provocadas pelo problema do indexador, apenas duas empresas adotaram mecanismos tendentes a anular seus efeitos. Uma importante constatação também, foi o fato de que nas empresas em que se utilizavam sistemas contábeis baseados na metodologia da Lei Societária, como fonte primária, para geração de relatórios gerenciais, as suas adminlstrações não utilizavam tais relatórios como suporte aos seus processos de tomada de decisão, como por exemplo, no processo de estabelecimento de preços. Ressalte-se, também, que o pouco conhecimento da filosofia conceitual e vantagens informativas do modelo da Contabilidade a Custo Corrente Corrigido, tem impedido a sua implantação de forma mais ampla. Saliente-se que 60% das empresas da amostra já se utilizam de mecanismos de avaliação de ativos não monetários, com base em valores correntes (captaçao dos efeitos das flutuações especificas de preços), só que restritos aos itens circulantes (estoques) . Este é, certamente, o caminho para a aplicação plena do modelo, principalmente no âmbito gerencial. A segunda fase, cujo enfoque direcionou-se aos aspectos quantitativos, através do cálculo de indicadores econômicos-financeiros extraídos das demonstrações contábeis das empresas pesquisadas, relativos ao exercício de 1990, e elaborados em consonân ia com as metodologias da Correção Integral e da Lei Societária, buscou-se , mediante análise comparativa, avaliar as pricipais distorções encolvidas, que corroboram, de certa forma, os comentários feitos no parágrafo anterior. A natureza exploratória deste assunto, com deslocamento da ênfase da análise quantitativa, e com enfoque estritamente gerencial, é que o diferencia dos demais desenvolvidos em tempos recentes. Além disso, apresenta como caraterística acessória a busca por informações sugestivas para o desenvolvimento de pesquisas futuras.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
Este trabalho apresenta um sistema multiagente que permite simular execuções musicais em violão. Em uma execução musical no violão observam-se elementos distintos que, trabalhando em conjunto, produzem a sonoridade desejada pelo músico. Ou seja, as ações tomadas pelo violonista, através do sincronismo de suas mãos sobre o instrumento, influenciam diretamente na sonoridade obtida. A idéia básica deste trabalho é desenvolver uma comunidade de agentes que represente as entidades envolvidas em uma performance musical de violão. Quatro agentes foram identificados e modelados no contexto desta dissertação. São eles: Mão Esquerda (ME): Responsável pela execução dos acordes, ou seja, deve possuir o conhecimento de formação de acordes dada a afinação do instrumento bem como a interpretação das cifras que representam os acordes. Agente Mão Direita (MD): Responsável pelo ritmo impresso na música; Caixa de Som (CS): Permite que os usuários simplesmente escutem a composição, sem nenhuma (ou muito pouca) interferência na composição. Agente Solista (SL): Projetado somente para ler arquivos MIDI e enviar notas para o Agente Caixa de Som (CS). O conhecimento relativo ao reconhecimento das cifras, geração do acorde e posterior cálculo do desenho do acorde para um instrumento de corda foi encapsulado em duas bibliotecas que visam auxiliar no desenvolvimento de outros novos projetos que necessitem de funcionalidades similares. Ainda, são abordadas as questões da comunicação entre os agentes e componentes gráficos utilizados na captura de informações rítmicas. O material musical produzido pelo sistema está contido no CD-ROM em anexo, bem como a documentação das API’s.
Resumo:
Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.
Resumo:
Enquanto decresce o número de idéias de novos negócios, ao passarmos de um estágio para o subsequnte, aumentamos o volume de informações coligidas para cada projeto em estudo, com o intuito de subsidiar a tomada de decisão de dar continuidade ou descontinuar o processo de análise e avaliação de acordo com as expectativas e probabilidades de tornar aquele novo produto um sucesso comercial.
Resumo:
Neste trabalho, é abordada a importância de se utilizar novas formas (métodos) de rastreamento dos custos indiretos, em instituições pública e privada, demonstrando quanta informação uma administração responsável, na área de saúde, especificamente no setor de laboratórios de análises clínicas, pode visualizar com a utilização do Sistema de Custeio Baseado em Atividade - ABC, em substituição aos sistemas tradicionais de apuração dos custos, tipo o Absorção. Como efeito de trabalho de pesquisa buscou-se estabelecer o método de estudo de casos em duas instituições sendo uma da estrutura de saúde pública de São Luís, e outra da estrutura privada, que também presta os mesmos serviços, todos sob uma mesma remuneração – o SUS. Neste trabalho, permitem-se compará-los e verificar qual a melhor estrutura, seus problemas, limitações para a formação de seus custos. Permite também a análise comparativa entre formatos existentes, tipo o Sistema de Custeio Baseado em atividade – ABC e o sistema de custeio pro absorção. As análises obtidas permitem concluir nestes dois casos que os custos podem ser melhores determinados por uma sistemática de apuração que possibilite desenvolver diferenciais que poderão determinar a sua competitividade e a permanência dos seus serviços. Estas informações permitiriam um melhor desempenho tanto na área pública, quanto o da área privada.
Resumo:
As pesquisas sobre governança no sistema financeiro contribuem significativamente para a análise dos diversos elementos que influenciam a performance nesse setor. No entanto, estudos empíricos nessa área ainda são limitados. Um dos motivos é a complexidade inerente à noção de governança na área pública. Da mesma forma que os sistemas complexos, a governança pode ser descrita como um sistema que abrange um grande número de entidades interdependentes entre si, com diferentes graus de relacionamentos. Neste trabalho de pesquisa, o significado de governança regulamentar do SFN se insere nesse escopo de entendimento, isto é, a governança como um fenômeno que resulta das diversas interações existentes entre os atores que influenciam ou são influenciados pelas atividades de regulação do setor financeiro. Em função das especificidades dos sistemas complexos, desenvolve-se e implementa-se um modelo baseado em agentes para a análise da governança regulamentar do SFN mediante experimentos de simulação. Os modelos baseados em agentes possibilitam explicitar aspectos relativos às interações e comportamentos dos agentes (nível micro), ou seja, os comportamentos não-lineares do sistema, que são difíceis de serem capturados com outros formalismos matemáticos. O modelo baseado em agentes é integrado a um modelo econométrico que tem como função caracterizar o ambiente macro-econômico. O ambiente micro é modelado por intermédio de agentes computacionais, com o uso da arquitetura BDI (do inglês, beliefs-desires-intentions). Esses agentes interagem entre si e com o ambiente, possuem crenças sobre o meio onde atuam e desejos que querem satisfazer, levando-os a formar intenções para agir. O comportamento dos agentes foi modelado utilizando-se lógica difusa (fuzzy logic), com o uso de regras construídas por intermédio de pesquisa de análise de conteúdo, a partir de informações coletadas em notícias de jornais, e entrevistas semiestruturadas com especialistasda área financeira. Os resultados dos experimentos demonstram o potencial da simulação dos modelos baseados em agentes para a realização de estudos de ambientes complexos de governança regulamentar.
Resumo:
O objetivo deste estudo foi investigar o processo de corrosão no aço embutido nos concretos com relação a/agl 0,40; a/agl 0,50 e a/agl 0,70, com substituição parcial do cimento por 30% de cinza da casca de arroz (CCA), 25% ou 50% de cinza volante (CV), expresso por massa de cimento, obtendo-se concretos convencionais com resistência mecânica variando entre 17 e 51 MPa, aos 28 dias de idade. O processo de corrosão foi induzido pelos íons cloreto, por exposição aos ciclos de imersão em solução com 3,5% NaCl e secagem ao ar, durante um longo período de exposição (5 anos). Foram apresentados os resultados obtidos das propriedades físicas (resistência mecânica à compressão axial, índice de vazios e absorção de água) e propriedades elétricas (queda ôhmica, resistência e capacitância do concreto e interfacial). Foram discutidas as técnicas eletroquímicas usadas para avaliar o processo de corrosão, tais como o monitoramento do potencial de corrosão (Ecorr), resistência de polarização (Rp), espectroscopia de impedância eletroquímica (EIS) e curvas de polarização. A técnica de interrupção de corrente foi usada para obter-se informações sobre a queda ôhmica no sistema. No presente estudo foram utilizados diferentes métodos de determinação da velocidade de corrosão (icorr), tais como Rp e EIS. Ambas as técnicas foram relativamente adequadas para a determinação do valor da icorr, quando o aço se encontrava no estado de corrosão ativa. O valor da icorr obtida pela extrapolação das retas de Tafel (retas tangentes às curvas de polarização) tendeu ser mais baixo. Observou-se que a técnica de Rp é relativamente simples, rápida e quantitativa, mas requer a determinação da compensação da queda ôhmica no sistema, o qual pode variar com o tempo de exposição, conteúdo de umidade, teor de íons cloreto e com o grau de hidratação. A técnica EIS pode fornecer informações precisas sobre a icorr, processo de difusão envolvido, heterogeneidade ou porosidade da matriz e interfaces do concreto. Todavia, pode criar um espectro de difícil interpretação, além de consumir muito tempo para a aquisição dos resultados. A dificuldade na técnica EIS ficou também relacionada com a obtenção direta da resistência de transferência de carga (Rt) no diagrama de Nyquist. A evolução do processo de corrosão pode ser mais bem avaliada pelo acompanhamento da diminuição da inclinação da curva log |Z| x log ƒ no diagrama de Bode, sendo esta diretamente proporcional à Rt. Para a análise dos dados de impedância, um circuito equivalente foi proposto, auxiliando na interpretação física do processo de corrosão acontecendo no sistema aço-concreto sem pozolana. Os resultados obtidos também demonstraram que os concretos com mais baixa relação a/agl estudada e com pozolana (30% CCA, 25% CV ou 50% CV, por massa de cimento) foram mais eficientes no controle da iniciação do processo de corrosão, induzida por íons cloreto, quando monitorado pela medida do Ecorr.
Resumo:
O presente estudo buscou analisar a viabilidade econômica, agronômica e ambiental de um sistema que está em execução em uma propriedade no norte do estado de Goiás. Esse sistema, denominado Sistema Triângulo, vai de encontro com a Integração Lavoura-Pecuária e busca formas alternativas para o uso dos restos culturais (fardos) de soja fornecendo esse material como volumoso para o gado no sistema de confinamento. Para o estudo da viabilidade, foram usadas as informações da própria fazenda num estudo de caso. Para tal, realizou-se uma revisão quanto à adoção de sistema de produção na área agrícola, quanto às interações dos macronutrientes que seriam retirados das áreas por intermédio dos fardos, o papel da matéria orgânica quanto à sustentabilidade do sistema, o cenário atual dos confinamentos no Brasil e os custos que compõem e determinam a lucratividade dessa atividade. Por ser um estudo de caráter incremental, a viabilidade econômica ficou focada à redução dos custos alimentares. Foram utilizadas informações produzidas pela Fazenda Triângulo que é produtora de soja desde 2002. Sendo assim, foi possível acompanhar a evolução dos teores de macronutrientes (nitrogênio, fósforo, potássio, cálcio, magnésio e enxofre) e do carbono em uma área total de 351 ha. Os resultados mostraram uma estabilidade nos níveis dos macroelementos após o início da retirada dos restos culturais mas, apresentou-se inconclusivo no caso do carbono. Foi estimada também a exportação dos macronutrientes por intermédio da retirada dos fardos das áreas de soja. Levantada a composição química dos fardos, foram estabelecidos seis cenários de reposição via adubação específica e esses custos foram acrescidos de custos de processamento dos fardos e o custo dos outros componentes da dieta no confinamento. Calculado o valor presente líquido para cada um dos cenários e comparando com a alternativa tradicional de dieta de confinamento, onde se usa a silagem de milho como 100% do volumoso, mostrou-se uma redução de até 5,02% nos custos alimentares. Com as práticas agronômicas da produção de soja vigentes hoje, recomenda-se a adoção do Sistema Triângulo com a ressalva de uma necessidade de maiores estudos quando seu impacto nos teores de carbono orgânico no solo.
Resumo:
A crescente adoção da WEB para a realização de transações entre organizações e indivíduos aumenta consideravelmente a quantidade de informações disponíveis para tomada de decisão nas mais variadas circunstâncias. É de se esperar que o uso das tecnologias de auxílio à decisão possam contribuir para facilitar o processo de escolha, particularmente no que diz respeito às escolhas por produtos para consumo. Na busca para usufruir do maior número possível de elementos no processo decisório, indivíduos delegam parte da tarefa de organizar os dados dispersos na WEB a agregadores de informação que estabelecem com eles uma relação de confiança e possibilitam que seja considerada uma quantidade de variáveis muito superior à que eles seriam capazes de fazer isoladamente. Juntado a este fenômeno o conhecimento prévio dos indivíduos com relação a produtos e seus fornecedores, este trabalho propõe, por meio da combinação de dados de registros de navegação e percepção de consumidores, um modelo de explicação dos diversos elementos envolvidos no processo de confiança na decisão de compra com uso de interface interativa disponível pela WEB (SAD-WEB) representada por website de comparação de preços.