917 resultados para World Wide Web (Information Retrieval System)
Resumo:
The Internet has an increasing role in facilitating communication between people and groups of people. As access to the Internet and World Wide Web is widely available, collaborative services enabled over the Internet are also burgeoning. In this paper, we present the current issues and our techniques for developing collaborative social software. We discuss online communities in the context of social collaborative systems. We then describe our approach to the development of supporting software for online communities and collaboration.
Resumo:
The Perspex Machine arose from the unification of computation with geometry. We now report significant redevelopment of both a partial C compiler that generates perspex programs and of a Graphical User Interface (GUI). The compiler is constructed with standard compiler-generator tools and produces both an explicit parse tree for C and an Abstract Syntax Tree (AST) that is better suited to code generation. The GUI uses a hash table and a simpler software architecture to achieve an order of magnitude speed up in processing and, consequently, an order of magnitude increase in the number of perspexes that can be manipulated in real time (now 6,000). Two perspex-machine simulators are provided, one using trans-floating-point arithmetic and the other using transrational arithmetic. All of the software described here is available on the world wide web. The compiler generates code in the neural model of the perspex. At each branch point it uses a jumper to return control to the main fibre. This has the effect of pruning out an exponentially increasing number of branching fibres, thereby greatly increasing the efficiency of perspex programs as measured by the number of neurons required to implement an algorithm. The jumpers are placed at unit distance from the main fibre and form a geometrical structure analogous to a myelin sheath in a biological neuron. Both the perspex jumper-sheath and the biological myelin-sheath share the computational function of preventing cross-over of signals to neurons that lie close to an axon. This is an example of convergence driven by similar geometrical and computational constraints in perspex and biological neurons.
Resumo:
The aims of the present study are to explore the willingness to pay a tax for the abolition of the use of pesticides as well as a premium price per kilo for organically grown fruit. An investigation was carried out in the region of Emilia-Romagna both by means of face to face questionnaires administered randomly in large supermarkets and via the World Wide Web. The results of econometric estimates show that consumers in this region appear to be particularly sensitive to the ban of pesticides and willing to pay higher prices for such products.
Resumo:
We present a catalogue of galaxy photometric redshifts and k-corrections for the Sloan Digital Sky Survey Data Release 7 (SDSS-DR7), available on the World Wide Web. The photometric redshifts were estimated with an artificial neural network using five ugriz bands, concentration indices and Petrosian radii in the g and r bands. We have explored our redshift estimates with different training sets, thus concluding that the best choice for improving redshift accuracy comprises the main galaxy sample (MGS), the luminous red galaxies and the galaxies of active galactic nuclei covering the redshift range 0 < z < 0.3. For the MGS, the photometric redshift estimates agree with the spectroscopic values within rms = 0.0227. The distribution of photometric redshifts derived in the range 0 < z(phot) < 0.6 agrees well with the model predictions. k-corrections were derived by calibration of the k-correct_v4.2 code results for the MGS with the reference-frame (z = 0.1) (g - r) colours. We adopt a linear dependence of k-corrections on redshift and (g - r) colours that provide suitable distributions of luminosity and colours for galaxies up to redshift z(phot) = 0.6 comparable to the results in the literature. Thus, our k-correction estimate procedure is a powerful, low computational time algorithm capable of reproducing suitable results that can be used for testing galaxy properties at intermediate redshifts using the large SDSS data base.
Resumo:
När en grafisk profil för en spännande ny internationell webbtidning för ungdomar skall göras är det viktigt att tänka på hur färg och form påverkar våra känslor. Experiment med färg som har gjorts av ledande färgpsykologer och färgvetare som Goethe, Itten, Lüscher och Karl Ryberg bevisar att färg har en stor psykologisk påverkan på människan. Internet är ett väldigt effektiv kommunikationsmedium och för att kommunicera effektivt är det inte bara orden, utan även färgerna och formerna på webbsidorna som skall vara väl genomtänkta. Vilka färger kopplar ungdomar i Sverige och Chile ihop med vissa känslor? Vilka former kopplas ihop med samma känslor? Svaren på de frågorna sammanställdes och analyserades efter svaren på en enkät om färg och form som delades it till två högstadieskolor i Borlänge, Sverige och en i Santiago, Chile.
Resumo:
Esta pesquisa refere-se à análise da utilização do comércio eletrônico (CE) por parte de grandes empresas da região sul do Brasil. Justifica-se a escolha porque pesquisas recentes indicam que as empresas brasileiras ainda não utilizam plenamente as várias possibilidades oferecidas pela Tecnologia de Informação em seus negócios e seus administradores ainda não têm em mente muitas vantagens proporcionadas pelo CE em relação aos canais de venda tradicionais. Há, portanto um campo oportuno de negócios a ser explorado. A pesquisa visou avaliar o estágio de utilização do CE, de modo a verificar aspectos de adoção tecnológica e relacionamento com clientes e fornecedores, a adequação de produtos e serviços ao novo canal, assim como a estratégia e o comprometimento organizacional, a partir do referencial teórico e baseada em um foco regional. Através da lista divulgada anualmente pela Revista Expressão, sobre as 300 Maiores Empresas do Sul, conduziu-se um estudo quantitativo exploratório com executivos da área de Informação, que pudesse fornecer subsídios para processos de tomada de decisão por parte das empresas em relação ao CE. Os resultados indicam que são empresas que atuam em setores tradicionais da economia e que ainda não estão conscientes das possibilidades trazidas por processos de CE, embora já se observe o surgimento de vantagens competitivas através da adoção destes processos, no que se refere ao contato entre empresas e a alianças mais sólidas entre os membros da cadeia produtiva.
Resumo:
Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.
Resumo:
O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.
Resumo:
Esta pesquisa tem como foco principal os atributos favoráveis à motivação de uso de um site, especificamente um portal educacional. Concentra-se no levantamento de atributos usuais para a construção de sites na Internet, sendo primeiramente levantados em bibliografias e, paralelamente, junto a profissionais responsáveis pela construção de um portal educacional para o mercado brasileiro. Com a definição dos atributos mais importantes, buscou-se a constatação de seu uso em três portais educacionais, dois deles concorrentes ao portal estudado, por meio do uso da ferramenta de benchmarking. Com os dados sobre os atributos, partiu-se para a fase de avaliação de tais atributos com usuários finais de um portal educacional, para a verificação se tais atributos eram relevantes na busca e uso de tal site. A pesquisa concentrou-se em um grupo fechado de respondentes, por serem efetivos usuários do portal educacional e poderem, com suas respostas, colaborar de forma significativa para o avanço da pesquisa. Os resultados obtidos revelam importantes considerações sobre a construção de sites – especificamente portais educacionais – mas por serem atributos gerais podem formar uma base para analise de outros sites em construção.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
Resumo:
Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.
Resumo:
Este trabalho apresenta um framework para editores distribuídos de manipulação colaborativa de documentos diagramáticos (FreDoc). FreDoc fornece um conjunto de classes que propicia um ambiente distribuído para edição colaborativa de diagramas de duas dimensões. Ele é constituído de 4 pacotes de classes: 1) de controle de acesso; 2) de controle de edição; 3) formas geométricas básicas; e 4) editor distribuído. Além disso, é apresentado um estudo sobre mecanismos para construção de editores distribuídos. Editores distribuídos são ferramentas úteis no processo de criação de documentos em um ambiente colaborativo tal como a World Wide Web. O uso de editores distribuídos torna o processo de colaboração mais rápido, pois o colaborador participa ativamente do processo de construção através da inserção de anotações que. Estas anotações podem ser aceitas ou rejeitadas total ou parcialmente pelo ou coordenador. Por fim, é descrito um protótipo, o FreDocUML, desenvolvido para testar a aplicação do framewrok FreDoc, mostrando um processo colaborativo de edição de diagrama de classes na notação UML é descrito.