604 resultados para Workflows semânticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analizar las relaciones que se establecen entre ideología mentalidad social y educación, dentro del periodo histórico de la restauración. El estudio se centra en el lenguaje y en el contenido de uno de los libros de texto más empleados en la escuela elemental de esta época.. Se han utilizado 584 textos pasados a fichas en función de roles sociales que abarcan los siguientes bloques : la infancia, la familia, el maestro y el inspector, las autoridades, los profesionales y los marginados, con fichas referidas a diversos temas.. Análisis de contenido.. Se ofrece una visión pedagógica del autor. Se contextualiza el libro en la época de la Restauración, dentro de la España agrícola, escasa de industria, con proteccionismo estatal , oligarquía terrateniente, cultura dependiente del orden económico y social. Realiza un análisis interpretativo del texto, la práctica pedagógica como acción de vigilancia y de microfísica del poder, como forma de disciplina y sanción social.. El libro de texto es un instrumento de transmisión social y de la ideología del poder, contribuye a expresar y a reproducir las relaciones de poder. Los grupos semánticos reflejan las valoraciones de las clases que constituían los poderes fácticos durante la época de la restauración. Mediante el libro se transmitió la religiosidad, el honor, el respeto a los mayores, la obediencia, el valor por el trabajo, la aplicación, la caridad. El 'Juanito' fue un instrumento de vigilancia de la infancia, apoyado por mecanismos sancionadores y recompensadores de la actuación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analizar que papel cumplen las dos vías de acceso al léxico interno (fonética o indirecta y global o indirecta); estableciendo una revisión teórica y un trabajo experimental.. Ochenta niños y niñas entre los 9 y los 11 años, pertenecientes a distintas escuelas tanto públicas como privadas; cursan cuarto y quinto curso de EGB.. Variables : tiempos de lectura, número de errores cometidos en la lectura y combinación de ambas. Categorías de errores : fonológicos y semánticos.. Test T.A.L.E.. Análisis estadístico.. La variable frecuencia tienen efectos sobre la lectura. Un material frecuente se leerá en menor tiempo y con menor número de errores que el material menos frecuente. Las variables lexicalidad y longitud tienen efectos en la lectura. Los resultados demuestran que la lectura de palabras es mejor que la lectura de pseudopalabras, cometiéndose menos errores. Hay mayor número de errores de tipo fonológico que de tipo semántico, dentro de los primeros hay sustituciones que omisiones. Existen diferencias significativas en el uso de estrategias entre buenos y malos lectores, estos aumentan el tiempo de lectura y la producción de errores. Con la edad la habilidad lectora aumenta y disminuye el número de errores. Un buen lector tiene que haber identificado los segmentos de la palabra que corresponde a la letra, condición necesaria para poder crear un código fonológico a partir de la representación ortográfica, por otra parte es capaz de desarrollar al mismo tiempo la capacidad de reconocer la palabra escrita como una totalidad no analizada.. El método utilizado va a ser importante como estrategia par enseñar a leer y como estímulo que damos al sujeto con el que vamos a actuar para realizar un determinado aprendizaje. Este trabajo debe servir a posteriores estudios, que puedan llevar a dar respuesta sobre las posibles características de los procesos de lectura, de las dificultades lectoras y en definitiva a cuantas preguntas hayan surgido en el curso de posteriores investigaciones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Título del encuentro: 'Léxico en el aula de ELE', organizado por el Instituto Cervantes de Nápoles

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Título del encuentro: 'Léxico en el aula de ELE', organizado por el Instituto Cervantes de Nápoles

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen basado en el de la publicación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El mundo del software está cambiando. El desarrollo de Internet y las conexiones de datos hacen que las personas estén conectadas prácticamente en cualquier lugar. La madurez de determinadas tecnologías y el cambio del perfil de los usuarios de consumidor a generador de contenidos son algunos de los pilares de este cambio. Los Content Management Systems (CMS) son plataformas que proporcionan la base para poder generar webs colaborativas de forma sencilla y sin necesidad de tener excesivos conocimientos previos y son responsables de buena parte de este desarrollo. Una de las posibilidades que todavía no se han explotado suficientemente en estos sistemas es la georreferenciación de contenidos. De esta forma, aparece una nueva categoría de enlaces semánticos en base a las relaciones espaciales. En el actual estado de la técnica, se puede aprovechar la potencia de las bases de datos espaciales para manejar contenidos georreferenciados y sus relaciones espaciales, pero prácticamente ningún CMS lo aprovecha. Este proyecto se centra en desarrollar un módulo para el CMS Drupal que proporcione un soporte verdaderamente espacial y una interfaz gráfica en forma de mapa, mediante las que se puedan georreferenciar los contenidos. El módulo es independiente del proveedor de cartografía, ya que se utiliza la librería Open Source de abstracción de mapas IDELab Mapstraction Interactive. De esta forma se aúna la independencia tecnológica con la gestión verdaderamente espacial de los contenidos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

España Virtual es un proyecto de I+D, subvencionado por el [CDTI] dentro del programa Ingenio 2010, orientado a la definición de la arquitectura, protocolos y estándares de la futura Internet 3D, con un foco especial en lo relativo a visualización 3D, inmersión en mundos virtuales, interacción entre usuarios y a la introducción de aspectos semánticos, sin dejar de lado el estudio y maduración de las tecnologías para el procesamiento masivo y almacenamiento de datos geográficos. Con una duración de cuatro años, el proyecto está liderado por Elecnor DEIMOS y cuenta con la participación del Centro Nacional de Información Geográfica (IGN/CNIG), Indra Espacio, Androme Ibérica, GeoSpatiumLab, DNX, [Prodevelop], Telefónica I+D y una decena de prestigiosos centros de investigación y universidades nacionales. En este contexto Prodevelop y el Ai2 (Instituto de Automática e Informática Industrial) entran a participar en el proyecto gracias a la Asociación gvSIG con el objetivo de impulsar el desarrollo de la visualización 3D , incorporación de nuevos estándares y mejoras en los ya existentes, así como la evolución de funcionalidades, sobre todo en el ámbito de los servicios remotos y mejoras del rendimiento a través de sistemas de cacheado de datos. También se pretende servir como plataforma para el volcado de resultados en los diferentes activos experimentales realizados por otros socios del proyecto. Para la consecución de objetivos se definen diferentes paquetes de trabajo que va a trabajar sobre nuevos tipos de datos, acceso a datos 3D multirresolución, integración de datos geográficos al vuelo, componentes de visualización 2D, 3D y 4D, algoritmia multirresolución y efectos audiovisuales inmersivos. Concretamente y dentro de estos paquetes de trabajo se presentarán los avances realizados e integrados dentro de gvSIG Desktop v2.0, y otras funcionalidades gvSIG sobre dispositivos móviles

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compute grids are used widely in many areas of environmental science, but there has been limited uptake of grid computing by the climate modelling community, partly because the characteristics of many climate models make them difficult to use with popular grid middleware systems. In particular, climate models usually produce large volumes of output data, and running them also involves complicated workflows implemented as shell scripts. A new grid middleware system that is well suited to climate modelling applications is presented in this paper. Grid Remote Execution (G-Rex) allows climate models to be deployed as Web services on remote computer systems and then launched and controlled as if they were running on the user's own computer. Output from the model is transferred back to the user while the run is in progress to prevent it from accumulating on the remote system and to allow the user to monitor the model. G-Rex has a REST architectural style, featuring a Java client program that can easily be incorporated into existing scientific workflow scripts. Some technical details of G-Rex are presented, with examples of its use by climate modellers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compute grids are used widely in many areas of environmental science, but there has been limited uptake of grid computing by the climate modelling community, partly because the characteristics of many climate models make them difficult to use with popular grid middleware systems. In particular, climate models usually produce large volumes of output data, and running them usually involves complicated workflows implemented as shell scripts. For example, NEMO (Smith et al. 2008) is a state-of-the-art ocean model that is used currently for operational ocean forecasting in France, and will soon be used in the UK for both ocean forecasting and climate modelling. On a typical modern cluster, a particular one year global ocean simulation at 1-degree resolution takes about three hours when running on 40 processors, and produces roughly 20 GB of output as 50000 separate files. 50-year simulations are common, during which the model is resubmitted as a new job after each year. Running NEMO relies on a set of complicated shell scripts and command utilities for data pre-processing and post-processing prior to job resubmission. Grid Remote Execution (G-Rex) is a pure Java grid middleware system that allows scientific applications to be deployed as Web services on remote computer systems, and then launched and controlled as if they are running on the user's own computer. Although G-Rex is general purpose middleware it has two key features that make it particularly suitable for remote execution of climate models: (1) Output from the model is transferred back to the user while the run is in progress to prevent it from accumulating on the remote system and to allow the user to monitor the model; (2) The client component is a command-line program that can easily be incorporated into existing model work-flow scripts. G-Rex has a REST (Fielding, 2000) architectural style, which allows client programs to be very simple and lightweight and allows users to interact with model runs using only a basic HTTP client (such as a Web browser or the curl utility) if they wish. This design also allows for new client interfaces to be developed in other programming languages with relatively little effort. The G-Rex server is a standard Web application that runs inside a servlet container such as Apache Tomcat and is therefore easy to install and maintain by system administrators. G-Rex is employed as the middleware for the NERC1 Cluster Grid, a small grid of HPC2 clusters belonging to collaborating NERC research institutes. Currently the NEMO (Smith et al. 2008) and POLCOMS (Holt et al, 2008) ocean models are installed, and there are plans to install the Hadley Centre’s HadCM3 model for use in the decadal climate prediction project GCEP (Haines et al., 2008). The science projects involving NEMO on the Grid have a particular focus on data assimilation (Smith et al. 2008), a technique that involves constraining model simulations with observations. The POLCOMS model will play an important part in the GCOMS project (Holt et al, 2008), which aims to simulate the world’s coastal oceans. A typical use of G-Rex by a scientist to run a climate model on the NERC Cluster Grid proceeds as follows :(1) The scientist prepares input files on his or her local machine. (2) Using information provided by the Grid’s Ganglia3 monitoring system, the scientist selects an appropriate compute resource. (3) The scientist runs the relevant workflow script on his or her local machine. This is unmodified except that calls to run the model (e.g. with “mpirun”) are simply replaced with calls to "GRexRun" (4) The G-Rex middleware automatically handles the uploading of input files to the remote resource, and the downloading of output files back to the user, including their deletion from the remote system, during the run. (5) The scientist monitors the output files, using familiar analysis and visualization tools on his or her own local machine. G-Rex is well suited to climate modelling because it addresses many of the middleware usability issues that have led to limited uptake of grid computing by climate scientists. It is a lightweight, low-impact and easy-to-install solution that is currently designed for use in relatively small grids such as the NERC Cluster Grid. A current topic of research is the use of G-Rex as an easy-to-use front-end to larger-scale Grid resources such as the UK National Grid service.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grid workflow authoring tools are typically specific to particular workflow engines built into Grid middleware, or are application specific and are designed to interact with specific software implementations. g-Eclipse is a middleware independent Grid workbench that aims to provide a unified abstraction of the Grid and includes a Grid workflow builder to allow users to author and deploy workflows to the Grid. This paper describes the g-Eclipse Workflow Builder and its implementations for two Grid middlewares, gLite and GRIA, and a case study utilizing the Workflow Builder in a Grid user's scientific workflow deployment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the Biodiversity World (BDW) project we have created a flexible and extensible Web Services-based Grid environment for biodiversity researchers to solve problems in biodiversity and analyse biodiversity patterns. In this environment, heterogeneous and globally distributed biodiversity-related resources such as data sets and analytical tools are made available to be accessed and assembled by users into workflows to perform complex scientific experiments. One such experiment is bioclimatic modelling of the geographical distribution of individual species using climate variables in order to predict past and future climate-related changes in species distribution. Data sources and analytical tools required for such analysis of species distribution are widely dispersed, available on heterogeneous platforms, present data in different formats and lack interoperability. The BDW system brings all these disparate units together so that the user can combine tools with little thought as to their availability, data formats and interoperability. The current Web Servicesbased Grid environment enables execution of the BDW workflow tasks in remote nodes but with a limited scope. The next step in the evolution of the BDW architecture is to enable workflow tasks to utilise computational resources available within and outside the BDW domain. We describe the present BDW architecture and its transition to a new framework which provides a distributed computational environment for mapping and executing workflows in addition to bringing together heterogeneous resources and analytical tools.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the BiodiversityWorld project we are building a GRID to support scientific biodiversity-related research. The requirements associated with such a GRID are somewhat different from other GRIDs, and this has influenced the architecture that we have developed. In this paper we outline these requirements, most notably the need to interoperate over a diverse set of legacy databases and applications in an environment that supports effective resource discovery and use of these resources in complex workflows. Our architecture provides an invocation model that is usable over a wide range of resource types and underlying GRID middleware. However, there is a trade-off between the flexibility provided by our architecture and its performance. We discuss how this affects the inclusion of computationally intensive applications and applications that are highly interactive; we also consider the broader issue of interoperation with other GRIDs.