952 resultados para Recursos web


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la enseñanza de idiomas el funcionamiento de la red ha producido un giro: profesores y alumnos tienen la posibilidad de acceder y procesar un gran volumen de información multimedial, que está disponible a toda hora y a bajo coste. En la clasificación de recursos educativos que se presentan en la comunicación se distinguen aquellos recursos que también pueden aprovecharse como recursos aunque no hayan sido diseñados con esta finalidad. En la evaluación, se considerarán tanto aspectos formales como los pedagógicos y los posibles usos como recursos para la enseñanza de la lengua.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ponencia presentada en el Encuentro de patrimonio audiovisual de Gran Canaria (13 de julio al 31 de agosto de 2012. Las Palmas de Gran Canaria). Resumen: La producción de filmaciones y grabaciones sonoras ya no solo se realiza con medios digitales, sino que se transmite de igual modo. Al igual que otros entornos utilizados para preservar la memoria colectiva, el ámbito audiovisual es ya impensable sin los medios que, cada día más, se encuentran al alcance no sólo de los técnicos, sino de la población en general. Su calidad y acceso a los nuevos canales de distribución a través de Internet, particularmente mediante los entornos Web 2.0 permiten que la generación de contenidos y su difusión estén casi al alcance de cualquiera. Sin embargo, los conocimientos necesarios para favorecer su consulta sin barreras, las herramientas más adecuadas, los protocolos que hay que cumplir, el enfoque de esta producción como patrimonio y las políticas de preservación a largo plazo, sigue siendo en buena parte desconocidos.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O presente estudo tem por objetivos compilar e analisar percepções sobre o uso de ferramentas web 2.0 no ensino de inglês como língua estrangeira e aliar a análise de atitudes à teoria da Andragogia, que trata do aprendizado de adultos, proposta por Knowles (1973, 1975, 1984, 1990). O assunto parece não contar com estudos coordenados, visto que Thomas (2010) apenas muito recentemente editou um compêndio com trabalhos envolvendo as possíveis aplicações de recursos da web 2.0 no estudo de uma língua estrangeira e as percepções de alunos, embora outros estudos, como os de Rosell-Aguilar (2004), Conole (2008), Kárpáti (2009) e Jarvis e Szymczyk (2010) tenham discutido o assunto isoladamente. Neste trabalho é realizada a compilação das opiniões de alunos adultos e de professores de inglês como língua estrangeira. Como instrumento de coleta de dados optou-se pela utilização de questionários fechados. Tal abordagem possivelmente dá a esta pesquisa um caráter inédito, ao menos no que se refere à coleta de atitudes de alunos adultos e professores brasileiros de um curso de idiomas quanto ao uso de ferramentas web 2.0 no ensino de uma língua estrangeira. A análise dos dados mostrou que aprendizes adultos e professores têm atitudes positivas e estão preparados para a utilização de recursos web 2.0 em sala de aula. Conclui-se, entretanto, que embora a maioria dos participantes desta pesquisa concorde que o uso de tais ferramentas contribui para o ensino de inglês como língua estrangeira, alguns ajustes e procedimentos ainda devem ser implementados para que as ferramentas web 2.0 se tornem não apenas um acessório, mas parte integrante do processo de aquisição do idioma

Relevância:

70.00% 70.00%

Publicador:

Resumo:

El Centro Aragonés de Recursos para la Educación Intercultural (CAREI) ha elaborado un repertorio de libros, películas, discos, exposiciones disponibles en su centro para la educación intercultural. Pretende ser una herramienta que muestre los materiales disponibles para ayudar a la enseñanza y aprendizaje del Español, trabajar la interculturalidad y leer en diferentes lenguas. Además cuenta con discos, películas y exposiciones itinerantes. Destaca la relación de sitios y recursos web para trabajar las diferentes culturas.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

70.00% 70.00%

Publicador:

Resumo:

On the last years, several middleware platforms for Wireless Sensor Networks (WSN) were proposed. Most of these platforms does not consider issues of how integrate components from generic middleware architectures. Many requirements need to be considered in a middleware design for WSN and the design, in this case, it is possibility to modify the source code of the middleware without changing the external behavior of the middleware. Thus, it is desired that there is a middleware generic architecture that is able to offer an optimal configuration according to the requirements of the application. The adoption of middleware based in component model consists of a promising approach because it allows a better abstraction, low coupling, modularization and management features built-in middleware. Another problem present in current middleware consists of treatment of interoperability with external networks to sensor networks, such as Web. Most current middleware lacks the functionality to access the data provided by the WSN via the World Wide Web in order to treat these data as Web resources, and they can be accessed through protocols already adopted the World Wide Web. Thus, this work presents the Midgard, a component-based middleware specifically designed for WSNs, which adopts the architectural patterns microkernel and REST. The microkernel architectural complements the component model, since microkernel can be understood as a component that encapsulates the core system and it is responsible for initializing the core services only when needed, as well as remove them when are no more needed. Already REST defines a standardized way of communication between different applications based on standards adopted by the Web and enables him to treat WSN data as web resources, allowing them to be accessed through protocol already adopted in the World Wide Web. The main goals of Midgard are: (i) to provide easy Web access to data generated by WSN, exposing such data as Web resources, following the principles of Web of Things paradigm and (ii) to provide WSN application developer with capabilities to instantiate only specific services required by the application, thus generating a customized middleware and saving node resources. The Midgard allows use the WSN as Web resources and still provide a cohesive and weakly coupled software architecture, addressing interoperability and customization. In addition, Midgard provides two services needed for most WSN applications: (i) configuration and (ii) inspection and adaptation services. New services can be implemented by others and easily incorporated into the middleware, because of its flexible and extensible architecture. According to the assessment, the Midgard provides interoperability between the WSN and external networks, such as web, as well as between different applications within a single WSN. In addition, we assessed the memory consumption, the application image size, the size of messages exchanged in the network, and response time, overhead and scalability on Midgard. During the evaluation, the Midgard proved satisfies their goals and shown to be scalable without consuming resources prohibitively

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Informação - FFC

Relevância:

70.00% 70.00%

Publicador:

Resumo:

This PhD thesis contributes to the problem of resource and service discovery in the context of the composable web. In the current web, mashup technologies allow developers reusing services and contents to build new web applications. However, developers face a problem of information flood when searching for appropriate services or resources for their combination. To contribute to overcoming this problem, a framework is defined for the discovery of services and resources. In this framework, three levels are defined for performing discovery at content, discovery and agente levels. The content level involves the information available in web resources. The web follows the Representational Stateless Transfer (REST) architectural style, in which resources are returned as representations from servers to clients. These representations usually employ the HyperText Markup Language (HTML), which, along with Content Style Sheets (CSS), describes the markup employed to render representations in a web browser. Although the use of SemanticWeb standards such as Resource Description Framework (RDF) make this architecture suitable for automatic processes to use the information present in web resources, these standards are too often not employed, so automation must rely on processing HTML. This process, often referred as Screen Scraping in the literature, is the content discovery according to the proposed framework. At this level, discovery rules indicate how the different pieces of data in resources’ representations are mapped onto semantic entities. By processing discovery rules on web resources, semantically described contents can be obtained out of them. The service level involves the operations that can be performed on the web. The current web allows users to perform different tasks such as search, blogging, e-commerce, or social networking. To describe the possible services in RESTful architectures, a high-level feature-oriented service methodology is proposed at this level. This lightweight description framework allows defining service discovery rules to identify operations in interactions with REST resources. The discovery is thus performed by applying discovery rules to contents discovered in REST interactions, in a novel process called service probing. Also, service discovery can be performed by modelling services as contents, i.e., by retrieving Application Programming Interface (API) documentation and API listings in service registries such as ProgrammableWeb. For this, a unified model for composable components in Mashup-Driven Development (MDD) has been defined after the analysis of service repositories from the web. The agent level involves the orchestration of the discovery of services and contents. At this level, agent rules allow to specify behaviours for crawling and executing services, which results in the fulfilment of a high-level goal. Agent rules are plans that allow introspecting the discovered data and services from the web and the knowledge present in service and content discovery rules to anticipate the contents and services to be found on specific resources from the web. By the definition of plans, an agent can be configured to target specific resources. The discovery framework has been evaluated on different scenarios, each one covering different levels of the framework. Contenidos a la Carta project deals with the mashing-up of news from electronic newspapers, and the framework was used for the discovery and extraction of pieces of news from the web. Similarly, in Resulta and VulneraNET projects the discovery of ideas and security knowledge in the web is covered, respectively. The service level is covered in the OMELETTE project, where mashup components such as services and widgets are discovered from component repositories from the web. The agent level is applied to the crawling of services and news in these scenarios, highlighting how the semantic description of rules and extracted data can provide complex behaviours and orchestrations of tasks in the web. The main contributions of the thesis are the unified framework for discovery, which allows configuring agents to perform automated tasks. Also, a scraping ontology has been defined for the construction of mappings for scraping web resources. A novel first-order logic rule induction algorithm is defined for the automated construction and maintenance of these mappings out of the visual information in web resources. Additionally, a common unified model for the discovery of services is defined, which allows sharing service descriptions. Future work comprises the further extension of service probing, resource ranking, the extension of the Scraping Ontology, extensions of the agent model, and contructing a base of discovery rules. Resumen La presente tesis doctoral contribuye al problema de descubrimiento de servicios y recursos en el contexto de la web combinable. En la web actual, las tecnologías de combinación de aplicaciones permiten a los desarrolladores reutilizar servicios y contenidos para construir nuevas aplicaciones web. Pese a todo, los desarrolladores afrontan un problema de saturación de información a la hora de buscar servicios o recursos apropiados para su combinación. Para contribuir a la solución de este problema, se propone un marco de trabajo para el descubrimiento de servicios y recursos. En este marco, se definen tres capas sobre las que se realiza descubrimiento a nivel de contenido, servicio y agente. El nivel de contenido involucra a la información disponible en recursos web. La web sigue el estilo arquitectónico Representational Stateless Transfer (REST), en el que los recursos son devueltos como representaciones por parte de los servidores a los clientes. Estas representaciones normalmente emplean el lenguaje de marcado HyperText Markup Language (HTML), que, unido al estándar Content Style Sheets (CSS), describe el marcado empleado para mostrar representaciones en un navegador web. Aunque el uso de estándares de la web semántica como Resource Description Framework (RDF) hace apta esta arquitectura para su uso por procesos automatizados, estos estándares no son empleados en muchas ocasiones, por lo que cualquier automatización debe basarse en el procesado del marcado HTML. Este proceso, normalmente conocido como Screen Scraping en la literatura, es el descubrimiento de contenidos en el marco de trabajo propuesto. En este nivel, un conjunto de reglas de descubrimiento indican cómo los diferentes datos en las representaciones de recursos se corresponden con entidades semánticas. Al procesar estas reglas sobre recursos web, pueden obtenerse contenidos descritos semánticamente. El nivel de servicio involucra las operaciones que pueden ser llevadas a cabo en la web. Actualmente, los usuarios de la web pueden realizar diversas tareas como búsqueda, blogging, comercio electrónico o redes sociales. Para describir los posibles servicios en arquitecturas REST, se propone en este nivel una metodología de alto nivel para descubrimiento de servicios orientada a funcionalidades. Este marco de descubrimiento ligero permite definir reglas de descubrimiento de servicios para identificar operaciones en interacciones con recursos REST. Este descubrimiento es por tanto llevado a cabo al aplicar las reglas de descubrimiento sobre contenidos descubiertos en interacciones REST, en un nuevo procedimiento llamado sondeo de servicios. Además, el descubrimiento de servicios puede ser llevado a cabo mediante el modelado de servicios como contenidos. Es decir, mediante la recuperación de documentación de Application Programming Interfaces (APIs) y listas de APIs en registros de servicios como ProgrammableWeb. Para ello, se ha definido un modelo unificado de componentes combinables para Mashup-Driven Development (MDD) tras el análisis de repositorios de servicios de la web. El nivel de agente involucra la orquestación del descubrimiento de servicios y contenidos. En este nivel, las reglas de nivel de agente permiten especificar comportamientos para el rastreo y ejecución de servicios, lo que permite la consecución de metas de mayor nivel. Las reglas de los agentes son planes que permiten la introspección sobre los datos y servicios descubiertos, así como sobre el conocimiento presente en las reglas de descubrimiento de servicios y contenidos para anticipar contenidos y servicios por encontrar en recursos específicos de la web. Mediante la definición de planes, un agente puede ser configurado para descubrir recursos específicos. El marco de descubrimiento ha sido evaluado sobre diferentes escenarios, cada uno cubriendo distintos niveles del marco. El proyecto Contenidos a la Carta trata de la combinación de noticias de periódicos digitales, y en él el framework se ha empleado para el descubrimiento y extracción de noticias de la web. De manera análoga, en los proyectos Resulta y VulneraNET se ha llevado a cabo un descubrimiento de ideas y de conocimientos de seguridad, respectivamente. El nivel de servicio se cubre en el proyecto OMELETTE, en el que componentes combinables como servicios y widgets se descubren en repositorios de componentes de la web. El nivel de agente se aplica al rastreo de servicios y noticias en estos escenarios, mostrando cómo la descripción semántica de reglas y datos extraídos permiten proporcionar comportamientos complejos y orquestaciones de tareas en la web. Las principales contribuciones de la tesis son el marco de trabajo unificado para descubrimiento, que permite configurar agentes para realizar tareas automatizadas. Además, una ontología de extracción ha sido definida para la construcción de correspondencias y extraer información de recursos web. Asimismo, un algoritmo para la inducción de reglas de lógica de primer orden se ha definido para la construcción y el mantenimiento de estas correspondencias a partir de la información visual de recursos web. Adicionalmente, se ha definido un modelo común y unificado para el descubrimiento de servicios que permite la compartición de descripciones de servicios. Como trabajos futuros se considera la extensión del sondeo de servicios, clasificación de recursos, extensión de la ontología de extracción y la construcción de una base de reglas de descubrimiento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Lan honen helburua, egungo gizarte eta hezkuntzaren desoreka digitala egiaztatzea eta horri aurre egiteko proposamen bat planteatzea izan da. Hori burutzeko, irakasle talde bati Informazio eta komunikaziorako Tresnen (IKT) inguruko galdera batzuk egin zaizkie, teknologia berriekiko haien jakintza, prestakuntza eta erabilera zeintzuk diren ezagutzeko. Jasotako emaitzak aztertu dira eta irakasle hauen ezjakintasun maila baliabide teknologiko berritzaileekiko altua dela ondorioztatu da, haien gaitasun digitala oso baxua izanda. Hori dela eta, arazo horri irtenbide berritzaile bat bilatu zaio, Lehen Hezkuntzako irakasleen prestakuntzara bideratutako tutorial ezberdinak sortu direlarik, web 2.0-ko baliabide batzuen erabilera zein den azalduz.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Primer premio en la segunda edición de premios a la elaboración de materiales de estudio sobre la Región de Murcia en la modalidad de Secundaria. - Incorpora recursos bibliográficos y web para el profesorado (p. 29-33) y recursos web para el alumnado (p. 61-62)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Incluye recursos web de asociaciones, instituciones, profesionales y programas informáticos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Resumen tomado de la revista. Monográfico titulado: El placer de jugar. El placer de educar

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las nuevas tecnologías de la información y la comunicación se instauran en la biblioteca con el fin de mejorar el acceso a la información. Trata sobre la utilización de Internet dentro de una biblioteca escolar, como herramienta de gran utilidad para acceder a la información. Se cita el programa de Nuevas Tecnologías de la Información y de las Comunicaciones (PNTIC) del Ministerio de Educación que recoge los proyectos Atenea y Mercurio, con el fin de instaurar las nuevas tecnologías en los centros educativos y dar uso a los recursos didácticos y de ocio que se encuentran en la red. Al final del artículo se analizan una serie de recursos web dirigidos a niños.