863 resultados para World Wide Web (WWW)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A crescente utilização de computadores e a popularização da Internet contribuem cada vez mais para que usuários não especialistas em informática tenham acesso a sistemas computacionais. Tais usuários possuem diferentes habilidades, formações e idades que devem ser levadas em consideração no projeto de uma boa interface. No entanto, no projeto de interfaces web é muito difícil identificar essas características do público alvo, tendo em vista que ele é bastante diversificado. Assim, construir uma interface que atenda os requisitos de todos os usuários de um site não é uma tarefa fácil. Se o projetista tivesse uma maneira de conhecer o seu público, grande parte dos problemas de interação entre usuário e interface poderiam ser resolvidos. Assim, a fim de auxiliar na tarefa de conhecer o público que um site possui, várias técnicas estão disponíveis. Independente das características dos usuários de sites web, a sua principal necessidade consiste em encontrar a informação desejada de modo fácil e rápido. Ainda que seja possível identificar o comportamento de todos os usuários em um site, torna-se difícil disponibilizar informações de forma clara e simples para todos. Para isto, um site adaptativo, que se ajusta automaticamente a cada usuário de acordo com seus padrões de comportamento, é muito útil. Sites adaptativos são desenvolvidos com base em técnicas que auxiliam o projetista na tarefa de personalizar páginas web e, por este motivo, são chamadas de técnicas de personalização. O objetivo desta dissertação é investigar, desenvolver e experimentar uma técnica de personalização de interfaces web voltada especificamente para sites institucionais. Este tipo de site é voltado à divulgação de produtos e serviços de uma instituição e, normalmente, é composto por um grande número de páginas estruturadas de acordo com a estrutura organizacional da instituição. Essa característica permite o agrupamento de usuários por funções ou cargos. A técnica proposta neste trabalho é baseada em perfis de usuários, onde a personalização ocorre em dois níveis: nível de grupos de usuários e nível de usuários individuais, denominados respectivamente de macro perfil e micro perfil. Um estudo de caso realizado na intranet da Agência Nacional de Telecomunicações – ANATEL foi utilizado para aprimorar e validar a técnica. Foi desenvolvido um protótipo de site institucional personalizado, o qual foi disponibilizado, utilizado e avaliado por um grupo de usuários previamente selecionados. O processo de construção do protótipo assim como da avaliação e seus resultados são também descritos neste trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Antigamente as informações que as organizações utilizavam durante a sua gestão eram suficientemente armazenadas em arquivos. A própria aplicação era responsável pela manipulação dos dados e pela função de guardá-los de maneira segura. No entanto, a sociedade evoluiu com tamanha rapidez que as organizações começaram a gerar uma quantidade cada vez maior de informação e, também, a rapidez de acesso às informações armazenadas tornou-se cada vez mais importante. Os antigos sistemas de arquivos tornaram-se complexos sistemas de armazenamento de informações responsáveis por gerir grandes volumes de dados, chamados Sistemas Gerenciadores de Banco de Dados - SGBD’s. Devido à complexidade dos bancos de dados e à necessidade de sua operação ininterrupta surge a tarefa do Administrador, cuja função é assegurar que os bancos de dados permaneçam operantes, íntegros e rápidos. Para realizar suas tarefas o Administrador precisa contar com boas ferramentas de modo a tornar as intervenções no banco de dados rápidas e seguras. Existem no mercado, boas ferramentas para administração de banco de dados. No entanto, são todas proprietárias, possuem custo elevado e apresentam deficiências quando o DBA e o BD estão localizados logicamente em redes de dados distintas. Para tentar resolver este problema, este trabalho se propõe a desenvolver uma ferramenta de administração de banco de dados que o DBA possa utilizar para gerenciar os bancos de dados, utilizando a Web como instrumento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main argument of this paper is that Natural Language Processing (NLP) does, and will continue to, underlie the Semantic Web (SW), including its initial construction from unstructured sources like the World Wide Web (WWW), whether its advocates realise this or not. Chiefly, we argue, such NLP activity is the only way up to a defensible notion of meaning at conceptual levels (in the original SW diagram) based on lower level empirical computations over usage. Our aim is definitely not to claim logic-bad, NLP-good in any simple-minded way, but to argue that the SW will be a fascinating interaction of these two methodologies, again like the WWW (which has been basically a field for statistical NLP research) but with deeper content. Only NLP technologies (and chiefly information extraction) will be able to provide the requisite RDF knowledge stores for the SW from existing unstructured text databases in the WWW, and in the vast quantities needed. There is no alternative at this point, since a wholly or mostly hand-crafted SW is also unthinkable, as is a SW built from scratch and without reference to the WWW. We also assume that, whatever the limitations on current SW representational power we have drawn attention to here, the SW will continue to grow in a distributed manner so as to serve the needs of scientists, even if it is not perfect. The WWW has already shown how an imperfect artefact can become indispensable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

One of most modern professional jobs minimum requirements is to handle and manage the World Wide Web [WWW] and communications such as Electric Mail [email]. In my office all staff including, administration, marketing, management, and all levels of quantity surveyors, ranging from cadet to director must manage electric communication. One of many aspects in my professional development I have struggled with is managing my tasks dictated to me through e-mail.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Remote Sensing Core Curriculum (RSCC) was initiated in 1993 to meet the demands for a college-level set of resources to enhance the quality of education across national and international campuses. The American Society of Photogrammetry and Remote Sensing adopted the RSCC in 1996 to sustain support of this educational initiative for its membership and collegiate community. A series of volumes, containing lectures, exercises, and data, is being created by expert contributors to address the different technical fields of remote sensing. The RSCC program is designed to operate on the Internet taking full advantage of the World Wide Web (WWW) technology for distance learning. The issues of curriculum development related to the educational setting, with demands on faculty, students, and facilities, is considered to understand the new paradigms for WWW-influenced computer-aided learning. The WWW is shown to be especially appropriate for facilitating remote sensing education with requirements for addressing image data sets and multimedia learning tools. The RSCC is located at http://www.umbc.edu/rscc. The Remote Sensing Core Curriculum (RSCC) was initiated in 1993 to meet the demands for a college-level set of resources to enhance the quality of education across national and international campuses. The American Society of Photogrammetry and Remote Sensing adopted the RSCC in 1996 to sustain support of this educational initiative for its membership and collegiate community. A series of volumes, containing lectures, exercises, and data, is being created by expert contributors to address the different technical fields of remote sensing. The RSCC program is designed to operate on the Internet taking full advantage of the World Wide Web (WWW) technology for distance learning. The issues of curriculum development related to the educational setting, with demands on faculty, students, and facilities, is considered to understand the new paradigms for WWW-influenced computer-aided learning. The WWW is shown to be especially appropriate for facilitating remote sensing education with requirements for addressing image data sets and multimedia learning tools. The RSCC is located at http://www.umbc.edu/rscc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper reports the availability of a database of protein structural domains (DDBASE), an alignment database of homologous proteins (HOMSTRAD) and a database of structurally aligned superfamilies (CAMPASS) on the World Wide Web (WWW). DDBASE contains information on the organization of structural domains and their boundaries; it includes only one representative domain from each of the homologous families. This database has been derived by identifying the presence of structural domains in proteins on the basis of inter-secondary structural distances using the program DIAL [Sowdhamini & Blundell (1995), Protein Sci. 4, 506-520]. The alignment of proteins in superfamilies has been performed on the basis of the structural features and relationships of individual residues using the program COMPARER [Sali & Blundell (1990), J. Mol. Biol. 212, 403-428]. The alignment databases contain information on the conserved structural features in homologous proteins and those belonging to superfamilies. Available data include the sequence alignments in structure-annotated formats and the provision for viewing superposed structures of proteins using a graphical interface. Such information, which is freely accessible on the WWW, should be of value to crystallographers in the comparison of newly determined protein structures with previously identified protein domains or existing families.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Personalised video can be achieved by inserting objects into a video play-out according to the viewer's profile. Content which has been authored and produced for general broadcast can take on additional commercial service features when personalised either for individual viewers or for groups of viewers participating in entertainment, training, gaming or informational activities. Although several scenarios and use-cases can be envisaged, we are focussed on the application of personalised product placement. Targeted advertising and product placement are currently garnering intense interest in the commercial networked media industries. Personalisation of product placement is a relevant and timely service for next generation online marketing and advertising and for many other revenue generating interactive services. This paper discusses the acquisition and insertion of media objects into a TV video play-out stream where the objects are determined by the profile of the viewer. The technology is based on MPEG-4 standards using object based video and MPEG-7 for metadata. No proprietary technology or protocol is proposed. To trade the objects into the video play-out, a Software-as-a-Service brokerage platform based on intelligent agent technology is adopted. Agencies, libraries and service providers are represented in a commercial negotiation to facilitate the contractual selection and usage of objects to be inserted into the video play-out.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este artículo se describen y analizan los resultados de un estudio exploratorio sobre el uso de Internet -más concretamente el World Wide Web (WWW)- por parte de un grupo de estudiantes universitarios para documentarse a la hora de desarrollar tareas académicas. Los datos -obtenidos a través de un cuestionario auto-administrado - ponen de manifiesto la escasa competencia de este alumnado para la búsqueda y manejo de información contenida en el ciberespacio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde el surgimiento de las doctrinas económicas sobre el crecimiento endógeno, se ha determinado que la inversión extranjera es un factor que contribuye al crecimiento económico, ya que facilita la transferencia de tecnología y conocimientos en técnicas de producción, de mercadeo y de gestión en mercado extranjeras donde la competencia permite la existencia de incrementos en la productividad de los factores. Hacia el año 2000 la política de IED en Colombia, contemplaba unas políticas de gobierno centradas en la paz, reformas estructurales y promoción a las exportaciones. Dadas estas condiciones, los retos concernientes a aumentar la inversión extranjera eran bastante exigentes al momento de iniciar el periodo de gobierno de Álvaro Uribe Vélez (2002 – 2010), razón por la cual el objetivo de esta investigación es analizar los resultados al finalizar los dos periodos consecutivos de mandato del Presidente Uribe. Durante su gobierno, el Presidente Uribe Vélez, logró que la inversión extranjera directa alcanzara un notable incremento en sectores específicos como el minero y el petrolero, acompañando el proceso de crecimiento económico, sin embargo, este crecimiento no figura generalizado y contrariamente los índices de desempleo se incrementaron y las utilidades generadas se convierten en remesas al exterior conllevando baja reinversión en el país y estancamiento de otros sectores. Centraré la investigación en las situaciones inicial y final del periodo presidencial, en los aspectos concernientes a los niveles de inversión captados en Colombia, los sectores más favorecidos con dicha inversión, el origen de los recursos y la relación que estos flujos han tenido en los resultados de indicadores de crecimiento económico, productividad, competitividad, empleo y reinversión de utilidades.