961 resultados para World Wide Web (Sistema de recuperación de la información) -- Diseño


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dentro de la evolución de la Administración de los Riesgos, se ha venido generando en los últimos años, la necesidad de que las entidades bancarias implementen un sistema que les permita desarrollar diferentes medidas y recomendaciones internacionales creadas desde hace algunos años, con el objeto de impedir el lavado de activos. Desde la perspectiva de la evolución de los riesgos, el riesgo de tratar con delincuentes es un riesgo inaceptable, para cualquier institución del sistema financiero, esto ha motivado que las instituciones financieras participen proactivamente en contra de los intereses de aquellos que, de una u otra forma, pretendan o quieran aprovechar el sistema financiero para camuflar el fruto de sus actividades ilegales o incluso para promoverlas. En general los riesgos a los que están expuestas las Instituciones Financieras, se diferencian entre sí, dependiendo de la solución que se decida adoptar, en los riesgos financieros la solución puede determinar que estos sean absorbidos, mitigados, cubiertos con recursos propios o transferidos; en el riesgo de lavado de activos por el contrario la solución se encamina a prevenir y controlar, esto debido a que los mismos mantienen consigo riesgos asociados, los cuales desde el punto de vista de severidad y frecuencia, exponen todos los días a las Instituciones Financieras a un resultado económico negativo y catastrófico. Por lo expuesto, el Diseño de un Modelo de Sistema de Administración de Riesgo de Lavado de Activos, permitirá al Banco Ecuatoriano de la Vivienda, gestionar la dificultad de identificar, evaluar, medir, mitigar y monitorear el riesgo de lavado de activos, con el fin de minimizarlo, pero nunca erradicarlo, pues no se podrá evitar que el sistema financiero sea utilizado para dar apariencia de legalidad a activos de procedencia delictiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oxford University Press’s response to technological change in printing and publishing processes in this period can be considered in three phases: an initial period when the computerization of typesetting was seen as offering both cost savings and the ability to produce new editions of existing works more quickly; an intermediate phase when the emergence of standards in desktop computing allowed experiments with the sale of software as well as packaged electronic publications; and a third phase when the availability of the world wide web as a means of distribution allowed OUP to return to publishing in its traditional areas of strength albeit in new formats. Each of these phases demonstrates a tension between a desire to develop centralized systems and expertise, and a recognition that dynamic publishing depends on distributed decision-making and innovation. Alongside these developments in production and distribution lay developments in computer support for managerial and collaborative publishing processes, often involving the same personnel and sometimes the same equipment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Kasparov-World, initiated by Microsoft and also sponsored by First USA, was a novel correspondence game played on the World Wide Web at one ply per day. This was the first time that any group had attempted to form on the Web and then solve shared problems against fixed, short-term deadlines. The first author first became involved in his role as a Web consultant, observing the dynamics and effectiveness of the group. These are fully described, together with observations on the technological contribution and the second author's post-hoc computation of some relevant Endgame Tables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We present a catalogue of galaxy photometric redshifts and k-corrections for the Sloan Digital Sky Survey Data Release 7 (SDSS-DR7), available on the World Wide Web. The photometric redshifts were estimated with an artificial neural network using five ugriz bands, concentration indices and Petrosian radii in the g and r bands. We have explored our redshift estimates with different training sets, thus concluding that the best choice for improving redshift accuracy comprises the main galaxy sample (MGS), the luminous red galaxies and the galaxies of active galactic nuclei covering the redshift range 0 < z < 0.3. For the MGS, the photometric redshift estimates agree with the spectroscopic values within rms = 0.0227. The distribution of photometric redshifts derived in the range 0 < z(phot) < 0.6 agrees well with the model predictions. k-corrections were derived by calibration of the k-correct_v4.2 code results for the MGS with the reference-frame (z = 0.1) (g - r) colours. We adopt a linear dependence of k-corrections on redshift and (g - r) colours that provide suitable distributions of luminosity and colours for galaxies up to redshift z(phot) = 0.6 comparable to the results in the literature. Thus, our k-correction estimate procedure is a powerful, low computational time algorithm capable of reproducing suitable results that can be used for testing galaxy properties at intermediate redshifts using the large SDSS data base.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A crescente utilização de computadores e a popularização da Internet contribuem cada vez mais para que usuários não especialistas em informática tenham acesso a sistemas computacionais. Tais usuários possuem diferentes habilidades, formações e idades que devem ser levadas em consideração no projeto de uma boa interface. No entanto, no projeto de interfaces web é muito difícil identificar essas características do público alvo, tendo em vista que ele é bastante diversificado. Assim, construir uma interface que atenda os requisitos de todos os usuários de um site não é uma tarefa fácil. Se o projetista tivesse uma maneira de conhecer o seu público, grande parte dos problemas de interação entre usuário e interface poderiam ser resolvidos. Assim, a fim de auxiliar na tarefa de conhecer o público que um site possui, várias técnicas estão disponíveis. Independente das características dos usuários de sites web, a sua principal necessidade consiste em encontrar a informação desejada de modo fácil e rápido. Ainda que seja possível identificar o comportamento de todos os usuários em um site, torna-se difícil disponibilizar informações de forma clara e simples para todos. Para isto, um site adaptativo, que se ajusta automaticamente a cada usuário de acordo com seus padrões de comportamento, é muito útil. Sites adaptativos são desenvolvidos com base em técnicas que auxiliam o projetista na tarefa de personalizar páginas web e, por este motivo, são chamadas de técnicas de personalização. O objetivo desta dissertação é investigar, desenvolver e experimentar uma técnica de personalização de interfaces web voltada especificamente para sites institucionais. Este tipo de site é voltado à divulgação de produtos e serviços de uma instituição e, normalmente, é composto por um grande número de páginas estruturadas de acordo com a estrutura organizacional da instituição. Essa característica permite o agrupamento de usuários por funções ou cargos. A técnica proposta neste trabalho é baseada em perfis de usuários, onde a personalização ocorre em dois níveis: nível de grupos de usuários e nível de usuários individuais, denominados respectivamente de macro perfil e micro perfil. Um estudo de caso realizado na intranet da Agência Nacional de Telecomunicações – ANATEL foi utilizado para aprimorar e validar a técnica. Foi desenvolvido um protótipo de site institucional personalizado, o qual foi disponibilizado, utilizado e avaliado por um grupo de usuários previamente selecionados. O processo de construção do protótipo assim como da avaliação e seus resultados são também descritos neste trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Antigamente as informações que as organizações utilizavam durante a sua gestão eram suficientemente armazenadas em arquivos. A própria aplicação era responsável pela manipulação dos dados e pela função de guardá-los de maneira segura. No entanto, a sociedade evoluiu com tamanha rapidez que as organizações começaram a gerar uma quantidade cada vez maior de informação e, também, a rapidez de acesso às informações armazenadas tornou-se cada vez mais importante. Os antigos sistemas de arquivos tornaram-se complexos sistemas de armazenamento de informações responsáveis por gerir grandes volumes de dados, chamados Sistemas Gerenciadores de Banco de Dados - SGBD’s. Devido à complexidade dos bancos de dados e à necessidade de sua operação ininterrupta surge a tarefa do Administrador, cuja função é assegurar que os bancos de dados permaneçam operantes, íntegros e rápidos. Para realizar suas tarefas o Administrador precisa contar com boas ferramentas de modo a tornar as intervenções no banco de dados rápidas e seguras. Existem no mercado, boas ferramentas para administração de banco de dados. No entanto, são todas proprietárias, possuem custo elevado e apresentam deficiências quando o DBA e o BD estão localizados logicamente em redes de dados distintas. Para tentar resolver este problema, este trabalho se propõe a desenvolver uma ferramenta de administração de banco de dados que o DBA possa utilizar para gerenciar os bancos de dados, utilizando a Web como instrumento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente tese visa contribuir na construção de ambientes de desenvolvimento de software através da proposição de uma arquitetura reflexiva para ambiente de suporte a processo, nomeada WRAPPER (Webbased Reflective Architecture for Process suPport EnviRonment). O objetivo desta arquitetura é prover uma infra-estrutura para um ambiente de suporte a processo de software, integrando tecnologias da World Wide Web, objetos distribuídos e reflexão computacional. A motivação principal para esta arquitetura vem da necessidade de se obter maior flexibilidade na gerência de processo de software. Esta flexibilidade é obtida através do uso de objetos reflexivos que permitem a um gerente de processo obter informações e também alterar o processo de software de forma dinâmica. Para se obter um ambiente integrado, a arquitetura provê facilidades para a agregação de ferramentas CASE de plataformas e fabricantes diversos, mesmo disponibilizadas em locais remotos. A integração de ferramentas heterogêneas e distribuídas é obtida através do uso de tecnologias Web e de objetos distribuídos. Reflexão computacional é usada no ambiente tanto para extrair dados da execução do processo, quanto para permitir a adaptação do mesmo. Isto é feito através da introdução e controle de meta-objetos, no metanível da arquitetura, que podem monitorar e mesmo alterar os objetos do nível base. Como resultado, a arquitetura provê as seguintes características: flexibilidade na gerência de processo, permitindo o controle e adaptação do processo; distribuição do ambiente na Web, permitindo a distribuição de tarefas do processo de software e a integração de ferramentas em locais remotos; e heterogeneidade para agregar componentes ao ambiente, permitindo o uso de ferramentas de plataformas e fornecedores diversos. Neste contexto, o presente trabalho apresenta a estrutura da arquitetura reflexiva, bem como os mecanismos usados (e suas interações) para a modelagem e execução de processo dentro do ambiente de suporte ao processo de software.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Today the Internet is entwined into our everyday society. From the beginning days in 1980 to today, the Internet has been evolving. The creator of the World Wide Web, Tim Berners-Lee, envisioned that the Internet would be a system with everything connected to everything. The web today is changing with new applications arriving from outside the previous channels of the megalithic software companies. Thousands of individual developers are creating micro-applications to enhance the earlier framework of the web. This revolution has been coined "Web 2.0". Many observers today are skeptical that Web 2.0 is really a revolution at all, but maybe is just a continuation of Berners-Lee's original concept. This paper examines, based on a critical literature review, the discussions taking place regarding Web 2.0.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Internet has taken the world by storm. It has eliminated the barriers of technology, and unlocked the doors to electronic commerce and the 'Virtual Economy'. It has given us a glimpse into the future of 'Business' itself, and it has created a bewildering variety of choices in our personal and professional lives. It has taken on a life of its own, and we are all frantically trying to keep up. Many overwhelmed companies are asking questions like: 'What should our Internet Strategy be?' Or 'How do we put our business on the Internet like everybody else is doing?' or 'How do we use this thing to make money without spending any?'. These questions may seem reasonable on the surface, but they miss the point because they focus on the technologies rather than the core issues of conducting day-to-day business. The Internet can indeed offer fast returns in marketing reach, speed, director consumer sales and so on, and many companies are using it to good advantage, but the highest and best use of any such technology is to support, enhance and even re-invent the fundamentals of general business practice. When the initial excitement is over, and companies gain experience and confidence with the new business models, this larger view will begin to assert itself. Companies will then start to position their 'Internet Strategies' in context of where the business world itself is going over time, and how they can prepare for what is to come. Until now, the business world has been very fragmented, its collective progress limited (in part) by the inability to communicate within and between companies. Now that the technical remedy seems to be at hand and standards are beginning to emerge, we are starting to see a trend toward consolidation, cooperation, and economic synergy. Companies are improving their internal business processes with Intranets, and Electronic Commerce initiatives have sprung up using EDI, the World Wide Web, E-Mail, secure credit card payments and other tools. Companies are using the Internet to talk to each other and to sell their goods and services to the end consumer. Like Berlin, the walls are coming down because they have to. Electronic 'Communities of Common Interest' are beginning to surface, with the goal of supporting and aligning similar industries (such as Government, Insurance, Transportation and Health care) or similar business functions (such as Purchasing, Payments, and Human Resources). As these communities grow and mature, their initial scope will broaden and their spheres of influence will expand. They will begin to overlap into other communities, creating a synergistic effect and reshaping the conduct of business. The business world will undergo a gradual evolution toward globalization, driven by economic imperatives and natural selection in the marketplace, and facilitated by Electronic Commerce and Internet technologies. The business world 'beyond 2000' will have a substantially different look and feel than that which we see today.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta pesquisa, batizada Astrha (Automata Structured Hyper-Animation), tem suas raízes no projeto “Hyper Seed - Framework, Ferramentas e Métodos para Sistemas Hipermídia voltados para EAD via WWW” que possui, entre seus objetivos e metas: (a) o desenvolvimento de uma fundamentação matemática para a unificação, de maneira coerente e matematicamente rigorosa, de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos; (b) a construção e validação de um protótipo de sistema com suporte à criação de conteúdo multimídia e hipermídia com ênfase em educação assistida por computador; (c) a definição e aplicação de estudos de caso. Atender às demandas acadêmicas e construtoras supra citadas, no que se refere à unificação de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos, em nível conceitual, é o objetivo principal do Astrha. Mais especificamente, unificar conceitos das especificações Hyper-Automaton; Hyper- Automaton: Avaliações Interativas; eXtensible Hyper-Automaton (XHA) e Animação Bidimensional para World Wide Web (AGA). Para resolvê-las, propõe uma solução em cinco fases. A primeira constitui-se numa investigação conceitual sobre unificação de ambientes hipermídia com animações por computador, da qual conclui-se que as hiperanimações são uma resposta adequada ao contexto. Em seguida, um autômato finito não-determinístico, reflexivo, com saídas associadas às transições, denominado Astrha/M, é especializado para modelar, formalmente, estruturas hiper-animadas. Na terceira fase, uma linguagem de quarta geração denominada Astrha/L é proposta com a finalidade de proporcionar semântica à ambientes hiper-animados. Construída a partir da metalinguagem XML, é composta de quatro dialetos: (1) Mealy, que traduz o modelo Astrha/M; (2) Environment, que oferece opções de configuração e documentação; (3) Hyper, linguagem hipermídia, de sintaxe simples, que oferece hiperligações estendidas; (4) Style, especificação de estilos em cascata e de caracteres especiais. A quarta fase é a modelagem e construção do protótipo, denominado Astrha/E, através das linguagens UML e Java, respectivamente, com uso de tecnologias de software livre, resultando em um applet interativo, dinâmico, multimídia, que oferece características e propriedades de uma hiper-animação, traduzindo não-determinismos em escolhas pseudo-aleatórias e reflexividades em inoperabilidades aparentes. Por fim, a quinta fase trata de estudos de caso aplicados em educação a distância, em diversas áreas, de onde se conclui sua validade como conceito, modelo e ferramenta para programas educacionais que utilizam a Internet como meio de auxílio ao aprendizado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Panorama sobre mudanças climáticas exibido durante consulta pública do projeto Visões Globais do Clima (World Wide Views). A iniciativa foi realizada em 2009, para levantar recomendações de cidadãos de diversas partes do mundo aos governos de seus países sobre posições a tomar na COP-15, a Conferência do Clima da Dinamarca. No Brasil, o projeto foi realizado pelo Observatório do Clima em parceria com o GVces

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Visões Globais do Clima é uma iniciativa para promover a participação cidadã nas discussões sobre aquecimento global, que terão um capítulo fundamental em dezembro, durante a Conferência da ONU sobre Mudança do Clima (COP-15). O projeto acontece simultaneamente em 39 países e visa colher a opinião de cidadãos comuns sobre as mudanças climáticas e levar os resultados para cada delegação nacional que representará esses países nas negociações internacionais na COP15, em Copenhagen. No Brasil, a exemplo dos outros países participantes, o ponto alto desse processo foi uma "consulta pública" com 100 cidadãos - que representaram a distribuição demográfica da população - que aconteceu na Fundação Getulio Vargas durante todo o dia 26 de setembro, com a articulação do Observatório do Clima e a facilitação do GVces - Centro de Estudos em Sustentabilidade da FGV