863 resultados para World wide web (www)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
In this paper we study the intersection of Knowledge Organization with Information Technologies and the challenges and opportunities for Knowledge Organization experts that, in our view, are important to be studied and for them to be aware of. We start by giving some definitions necessary for providing the context for our work. Then we review the history of the Web, beginning with the Internet and continuing with the World Wide Web, the Semantic Web, problems of Artificial Intelligence, Web 2.0, and Linked Data. Finally, we conclude our paper with IT applications for Knowledge Organization in libraries, such as FRBR, BIBFRAME, and several OCLC initiatives, as well as with some of the challenges and opportunities in which Knowledge Organization experts and researchers might play a key role in relation to the Semantic Web.
Resumo:
Researchs about consumer behavior show influences coming from a lot of fonts. Among them culture, social class, personal influence, family and consumer situation. Personal influence it’s the font object of this research. Personal influence can define what a consumer will buy or will not buy, especially with closer friends. Normally people got the information and transmit to him group, him family, making some difference in the opinion of this people. Ten years ago we were i………..by a dozen of friends. In these days, we have more facility to communicate and more facility to receiver information trough internet. Our personal influence extended from our closest friend to the world wide web group. That’s why company’s must to know what the consumer is speaking on internet
Resumo:
Hepatitis C is a disease that affects approximately four million Brazilians. It is a rare disease with symptoms but with a treatment that involves marked secondary effects. The silence of their symptoms, however, socially projected, build the social imaginary figures that send feelings and prejudices, being born therefore the social stigma. This situation fundamentally affects the welfare of their subjects. In this aspect, this research traces a parallel between the situation experienced by patients with hepatitis C and the use for these individuals from the World Wide Web and its interactive tools on overcoming limits the disease and in the reconstruction of their social identities.
Resumo:
The technological advances of recent decades combined with digital inc1usion in Brazil sparked the country's population to the constant use of computers to perform tasks in many different natures. Whether it's for communication, entertainment, work or school, computers are tools with increasing numbers in Brazilian homes. Along with this evolution the Brazilian Physics teaching should be aware of the use of teaching tools that relate directly to the computer to student learning. Highlighting in this work we have scanned the contents of the Wikipedia community, a wide variety of educational videos placed on YouTube, educational games that try to teach the player in a fun way and a variety educational softwares placed on the World Wide Web. It is with special attention to educational softwares as tools for teaching physics, which describe some strategies for use of these software, combined with the textbooks, to illustrate some ways to introduce the use of educational softwares directly in the classroom
Resumo:
Given the exponential growth in the spread of the virus world wide web (Internet) and its increasing complexity, it is necessary to adopt more complex systems for the extraction of malware finger-prints (malware fingerprints - malicious software; is the name given to extracting unique information leading to identification of the virus, equivalent to humans, the fingerprint). The architecture and protocol proposed here aim to achieve more efficient fingerprints, using techniques that make a single fingerprint enough to compromise an entire group of viruses. This efficiency is given by the use of a hybrid approach of extracting fingerprints, taking into account the analysis of the code and the behavior of the sample, so called viruses. The main targets of this proposed system are Polymorphics and Metamorphics Malwares, given the difficulty in creating fingerprints that identify an entire family from these viruses. This difficulty is created by the use of techniques that have as their main objective compromise analysis by experts. The parameters chosen for the behavioral analysis are: File System; Records Windows; RAM Dump and API calls. As for the analysis of the code, the objective is to create, in binary virus, divisions in blocks, where it is possible to extract hashes. This technique considers the instruction there and its neighborhood, characterized as being accurate. In short, with this information is intended to predict and draw a profile of action of the virus and then create a fingerprint based on the degree of kinship between them (threshold), whose goal is to increase the ability to detect viruses that do not make part of the same family
Resumo:
This study aimed to develop a computer program which systematizes the structural shielding design calculation in diagnostic radiology facilities. For this purpose methodology of the National Council of Radiation Protection and Measurements (NCRP 147[5]) was used. By comparative statistics studies, it was verified if reference parameters values suggested by the US publication correspond to the average national values. The World Wide Web was chosen because of its characteristics as a powerful mean of communication, especially in terms of the wide variety of useful resources and easy access. To compare the reference values of some parameters proposed by NCRP 147 to Brazilian average, studies about the normalized workload per patient, performance of X-ray tube and primary air kerma, unshielded, at one meter from the focal point of the X-ray tube were made. Through this research, relative differences were found. In workload values this differences reached up to 50% in mammography compared to those presented by the NCRP 147; in X-ray tube performance the percentage differences reached 69% in dental radiology, and air kerma results amounted 31% in fluoroscopy. This demonstrates the importance of validation of international protocols to local realities
Resumo:
Suitable computacional tools allow to build applications that can link information to its physical location, and represent them into visual and interactive schemes, e ectively reaching the power of visual comunication. This leads the user to synthesize information in a simple and e cient way. These applications are linked to the de nition of Geographic Information System (GIS). GIS are comprised by many concepts and tools, which have the main purpose of collecting, storing, viewing and processing spatial data, obtaining the information needed for decision making. Within this context, this paper presents the Conception and Implementation of a Control System for Urban Forestry through Integration of Free and Open Source Software. This conception arose from the need of an Environmental Project developed by the Agriculture's House of the city of Regente Feij o, which has as main objectives cataloging and management of urban a orestation of the municipality. Due to this diversity of concepts, the challenge in building this system is the integration of platforms that are involved in all stages: collecting and storage of data, including maps and other spatial information, operations on the stored information, obtaining results and graphical visualization of the same. After implementation, it was possible to provide for the system users an improvement in the capacity of perception in the information analysis and facilitate the process of decision making
Resumo:
Recently, there has been growing interest in developing optical fiber networks to support the increasing bandwidth demands of multimedia applications, such as video conferencing and World Wide Web browsing. One technique for accessing the huge bandwidth available in an optical fiber is wavelength-division multiplexing (WDM). Under WDM, the optical fiber bandwidth is divided into a number of nonoverlapping wavelength bands, each of which may be accessed at peak electronic rates by an end user. By utilizing WDM in optical networks, we can achieve link capacities on the order of 50 THz. The success of WDM networks depends heavily on the available optical device technology. This paper is intended as a tutorial on some of the optical device issues in WDM networks. It discusses the basic principles of optical transmission in fiber and reviews the current state of the art in optical device technology. It introduces some of the basic components in WDM networks, discusses various implementations of these components, and provides insights into their capabilities and limitations. Then, this paper demonstrates how various optical components can be incorporated into WDM optical networks for both local and wide-area applications. Last, the paper provides a brief review of experimental WDM networks that have been implemented.
Resumo:
Computer and telecommunication networks are changing the world dramatically and will continue to do so in the foreseeable future. The Internet, primarily based on packet switches, provides very flexible data services such as e-mail and access to the World Wide Web. The Internet is a variable-delay, variable- bandwidth network that provides no guarantee on quality of service (QoS) in its initial phase. New services are being added to the pure data delivery framework of yesterday. Such high demands on capacity could lead to a “bandwidth crunch” at the core wide-area network, resulting in degradation of service quality. Fortunately, technological innovations have emerged which can provide relief to the end user to overcome the Internet’s well-known delay and bandwidth limitations. At the physical layer, a major overhaul of existing networks has been envisaged from electronic media (e.g., twisted pair and cable) to optical fibers - in wide-area, metropolitan-area, and even local-area settings. In order to exploit the immense bandwidth potential of optical fiber, interesting multiplexing techniques have been developed over the years.
Resumo:
[EN]This paper is a proposal for teaching pragmatics following a corpus-based approach. Corpora have had a high impact on how linguistics is looked at these days. However, teaching linguistics is still traditional in its scope and stays away from a growing tendency of incorporating authentic samples in the theoretical classroom, and so lecturers perpetuate the presentation of the same canonical examples students may find in their textbooks or in other introductory monographs. Our view is that using corpus linguistics, especially corpora freely available in the World Wide Web, will result in a more engaging and fresh look at the course of Pragmatics, while promoting early research in students. This way, they learn the concepts but most importantly how to later identify pragmatic phenomena in real text. Here, we raise our concern with the methodology, presenting clear examples of corpus-based pragmatic activities, and one clear result is the fact that students learn also how to be autonomous in their analysis o f data. In our proposal, we move from more controlled tasks to autonomy. This proposal focuses on students enrolled in the course Pragmática de la Lengua inglesa, currently part of the curriculum in Lenguas Modernas, Universidad de Las Palmas de Gran Canaria.
Resumo:
L'obiettivo della ricerca è di compiere un'analisi dell'impatto della cosiddetta cultura "open" alla luce dell'attuale condizione del World Wide Web. Si prenderà in considerazione, in particolare, la genesi del movimento a partire dalle basi di cultura hacker e la relativa evoluzione nella filosofia del software libero, con il fine ultimo di identificare il ruolo attuale del modello open source nello scenario esistente. L'introduzione al concetto di Open Access completerà la ricerca anche considerando la recente riaffermazione della conoscenza come bene comune all'interno della Società dell'Informazione
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.
Resumo:
L’avvento di Internet e delle innovazioni tecnologiche hanno determinato una rivoluzione nel panorama della comunicazione e dell’informazione soprattutto in quello pubblicitario. La pubblicità online (in inglese Advertising Online o Internet Advertising) è un fenomeno in continua crescita. Rispetto ai media tradizionali come la stampa e la televisione dove i contenuti sono trasmessi in modo generico e di massa, l’Advertising Online sfrutta la capacità del World Wide Web al fine di raggiungere una quantità notevole di persone permettendo di attuare campagne pubblicitarie verso un target mirato. In questo settore la facilità di misurare l'effetto nei confronti del pubblico permette alle aziende di investire in questo tipo di mercato rispetto a quello tradizionale poiché, in quest'ultimo l’assenza di strumenti di misurazione è basata su rilevanze teoriche. In riferimento a quanto citato, un’oggetto di studio e di analisi presentato in questa tesi riguarda la start-up TAGGALO un sistema ideato e sviluppato da un gruppo di ricercatori del CNR Puglia. Questa soluzione tecnologia è applicata nel campo pubblicitario del Digital out of Home e del Digital Signage dove la comunicazione del messaggio viene percepita dal potenziale cliente mentre è fuori casa mediante l’uso di schermi elettronici disposti nella maggior parte dei luoghi pubblici. Attraverso questa tecnologia è possibile rilevare il reale impatto della pubblicità online, rappresentando una soluzione efficace per misurare il reale ritorno per chi investe ovvero il ROI.
Resumo:
Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.