906 resultados para World Wide Web -- Design
Resumo:
[EN]This paper is a proposal for teaching pragmatics following a corpus-based approach. Corpora have had a high impact on how linguistics is looked at these days. However, teaching linguistics is still traditional in its scope and stays away from a growing tendency of incorporating authentic samples in the theoretical classroom, and so lecturers perpetuate the presentation of the same canonical examples students may find in their textbooks or in other introductory monographs. Our view is that using corpus linguistics, especially corpora freely available in the World Wide Web, will result in a more engaging and fresh look at the course of Pragmatics, while promoting early research in students. This way, they learn the concepts but most importantly how to later identify pragmatic phenomena in real text. Here, we raise our concern with the methodology, presenting clear examples of corpus-based pragmatic activities, and one clear result is the fact that students learn also how to be autonomous in their analysis o f data. In our proposal, we move from more controlled tasks to autonomy. This proposal focuses on students enrolled in the course Pragmática de la Lengua inglesa, currently part of the curriculum in Lenguas Modernas, Universidad de Las Palmas de Gran Canaria.
Resumo:
L'obiettivo della ricerca è di compiere un'analisi dell'impatto della cosiddetta cultura "open" alla luce dell'attuale condizione del World Wide Web. Si prenderà in considerazione, in particolare, la genesi del movimento a partire dalle basi di cultura hacker e la relativa evoluzione nella filosofia del software libero, con il fine ultimo di identificare il ruolo attuale del modello open source nello scenario esistente. L'introduzione al concetto di Open Access completerà la ricerca anche considerando la recente riaffermazione della conoscenza come bene comune all'interno della Società dell'Informazione
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.
Resumo:
L’avvento di Internet e delle innovazioni tecnologiche hanno determinato una rivoluzione nel panorama della comunicazione e dell’informazione soprattutto in quello pubblicitario. La pubblicità online (in inglese Advertising Online o Internet Advertising) è un fenomeno in continua crescita. Rispetto ai media tradizionali come la stampa e la televisione dove i contenuti sono trasmessi in modo generico e di massa, l’Advertising Online sfrutta la capacità del World Wide Web al fine di raggiungere una quantità notevole di persone permettendo di attuare campagne pubblicitarie verso un target mirato. In questo settore la facilità di misurare l'effetto nei confronti del pubblico permette alle aziende di investire in questo tipo di mercato rispetto a quello tradizionale poiché, in quest'ultimo l’assenza di strumenti di misurazione è basata su rilevanze teoriche. In riferimento a quanto citato, un’oggetto di studio e di analisi presentato in questa tesi riguarda la start-up TAGGALO un sistema ideato e sviluppato da un gruppo di ricercatori del CNR Puglia. Questa soluzione tecnologia è applicata nel campo pubblicitario del Digital out of Home e del Digital Signage dove la comunicazione del messaggio viene percepita dal potenziale cliente mentre è fuori casa mediante l’uso di schermi elettronici disposti nella maggior parte dei luoghi pubblici. Attraverso questa tecnologia è possibile rilevare il reale impatto della pubblicità online, rappresentando una soluzione efficace per misurare il reale ritorno per chi investe ovvero il ROI.
Resumo:
Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.
Resumo:
Digital technologies have often been perceived as imperilling traditional cultural expressions (TCE). This angst has interlinked technical and socio-cultural dimensions. On the technical side, it is related to the affordances of digital media that allow, among other things, instantaneous access to information without real location constraints, data transport at the speed of light and effortless reproduction of the original without any loss of quality. In a socio-cultural context, digital technologies have been regarded as the epitome of globalisation forces - not only driving and deepening the process of globalisation itself but also spreading its effects. The present article examines the validity of these claims and sketches a number of ways in which digital technologies may act as benevolent factors. We illustrate in particular that some digital technologies can be instrumentalised to protect TCE forms, reflecting more appropriately the specificities of TCE as a complex process of creation of identity and culture. The article also seeks to reveal that digital technologies - and more specifically the Internet and the World Wide Web - have had a profound impact on the ways cultural content is created, disseminated, accessed and consumed. We argue that this environment may have generated various opportunities for better accommodating TCE, especially in their dynamic sense of human creativity.
Resumo:
The Winter 1996 issue of The Olive Tree features articles about library projects, collections, technological innovations, and events at Fogler Library, University of Maine.
Resumo:
Objetivo de esta comunicación es presentar los resultados sobre un análisis realizado en torno a lo que podemos denominar el «paisaje lingüístico hispano virtual» en Washington D.F. Los estudios sobre paisaje lingüístico han experimentado en el último tiempo un verdadero boom, sobre todo como reflejo de la convivencia de diferentes culturas con sus respectivas lenguas y variedades en las urbes del siglo XXI. En efecto: el paisaje lingüístico multilingüe es uno de los aspectos más explotados en trabajos en esta línea teórica. En este estudio el centro de atención no es el paisaje "real", documentado in situ y captado motu propio en instantáneas por nuestros aparatos fotográficos, sino el paisaje lingüístico mediatizado por el ordenador y difundido mediante la World Wide Web. En este sentido, lo que nos interesa es si se ve reflejada y qué manera la hispanidad en Washington D.F. a través del paisaje urbano que nos ofrecen programas especializados como Google Earth y Google Street View. Con este objetivo proponemos un paseo virtual por Washington D.F. y sus diferentes barrios para analizar mediante un estudio de naturaleza cuantitativa y cualitativa, apoyándonos en las herramientas teóricas y metodológicas que ofrecen los estudios de paisaje lingüístico y de la Comunicación Mediada por Ordenadores, de qué manera lo hispano constituye un engranaje del paisaje lingüístico de esta ciudad.
Resumo:
The State of Connecticut owns a LIght Detection and Ranging (LIDAR) data set that was collected in 2000 as part of the State’s periodic aerial reconnaissance missions. Although collected eight years ago, these data are just now becoming ready to be made available to the public. These data constitute a massive “point cloud”, being a long list of east-north-up triplets in the State Plane Coordinate System Zone 0600 (SPCS83 0600), orthometric heights (NAVD 88) in US Survey feet. Unfortunately, point clouds have no structure or organization, and consequently they are not as useful as Triangulated Irregular Networks (TINs), digital elevation models (DEMs), contour maps, slope and aspect layers, curvature layers, among others. The goal of this project was to provide the computational infrastructure to create a first cut of these products and to serve them to the public via the World Wide Web. The products are available at http://clear.uconn.edu/data/ct_lidar/index.htm.
Resumo:
La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.
Resumo:
Los años 90 produjeron una explosión tecnológica con el acceso masivo a Internet. En la Argentina, la realidad económica de '1 peso, 1 dólar' facilitaba la adquisición de la tecnología del primer mundo: cualquier persona podía conectarse desde su casa o cualquier cibercafé. Realmente estábamos fascinados con la idea de navegar por un mundo nuevo: la World Wide Web, y de comunicarnos a través del correo electrónico y el chat con personas de cualquier lugar del mundo. Esa etapa ya pasó, ahora estamos frente a la Web 2.0. ¿Qué es esto? ¿Una nueva manera de llamarla? Sí, porque ya no es la misma. Es mucho más interactiva y cualquier persona puede publicar sus ideas en ella sin ser necesarios conocimientos de diseño web. Una de las novedades de la Web 2.0 son los weblogs o blogs. Este año, la Escuela de Lenguas ha incorporado el uso de los blogs a los cursos de Jóvenes 4mayores y Adultos 5. Todo un desafío tanto para las docentes como los alumnos porque nos encontramos ante dos áreas de conocimiento a explorar: el idioma y la tecnología. Esta exposición tratará este tema: La incorporación de los blogs a la enseñanza del idioma inglés
Resumo:
Los años 90 produjeron una explosión tecnológica con el acceso masivo a Internet. En la Argentina, la realidad económica de '1 peso, 1 dólar' facilitaba la adquisición de la tecnología del primer mundo: cualquier persona podía conectarse desde su casa o cualquier cibercafé. Realmente estábamos fascinados con la idea de navegar por un mundo nuevo: la World Wide Web, y de comunicarnos a través del correo electrónico y el chat con personas de cualquier lugar del mundo. Esa etapa ya pasó, ahora estamos frente a la Web 2.0. ¿Qué es esto? ¿Una nueva manera de llamarla? Sí, porque ya no es la misma. Es mucho más interactiva y cualquier persona puede publicar sus ideas en ella sin ser necesarios conocimientos de diseño web. Una de las novedades de la Web 2.0 son los weblogs o blogs. Este año, la Escuela de Lenguas ha incorporado el uso de los blogs a los cursos de Jóvenes 4mayores y Adultos 5. Todo un desafío tanto para las docentes como los alumnos porque nos encontramos ante dos áreas de conocimiento a explorar: el idioma y la tecnología. Esta exposición tratará este tema: La incorporación de los blogs a la enseñanza del idioma inglés
Resumo:
La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.
Resumo:
La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.
Resumo:
Los años 90 produjeron una explosión tecnológica con el acceso masivo a Internet. En la Argentina, la realidad económica de '1 peso, 1 dólar' facilitaba la adquisición de la tecnología del primer mundo: cualquier persona podía conectarse desde su casa o cualquier cibercafé. Realmente estábamos fascinados con la idea de navegar por un mundo nuevo: la World Wide Web, y de comunicarnos a través del correo electrónico y el chat con personas de cualquier lugar del mundo. Esa etapa ya pasó, ahora estamos frente a la Web 2.0. ¿Qué es esto? ¿Una nueva manera de llamarla? Sí, porque ya no es la misma. Es mucho más interactiva y cualquier persona puede publicar sus ideas en ella sin ser necesarios conocimientos de diseño web. Una de las novedades de la Web 2.0 son los weblogs o blogs. Este año, la Escuela de Lenguas ha incorporado el uso de los blogs a los cursos de Jóvenes 4mayores y Adultos 5. Todo un desafío tanto para las docentes como los alumnos porque nos encontramos ante dos áreas de conocimiento a explorar: el idioma y la tecnología. Esta exposición tratará este tema: La incorporación de los blogs a la enseñanza del idioma inglés