1000 resultados para Web as a Corpus


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La carencia de unmodelo bien definido de representaciónde la informaciónen la web ha traído consigoproblemas de cara a diversosaspectos relacionados con suprocesamiento. Para intentarsolucionarlos, el W3C, organismoencargado de guiar la evoluciónde la web, ha propuestosu transformación hacia unanueva web denominada websemántica. En este trabajo sepresentan las posibilidades queofrece este nuevo escenario, asícomo las dificultades para suconsecución, prestando especialatención a las ontologías,herramientas de representacióndel conocimiento fundamentalespara la web semántica. Porúltimo, se analiza el papel delprofesional de la biblioteconomíay documentación en estenuevo entorno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las administracionespúblicas de los países avanzadosestán llevando a caboiniciativas para gestionar lainformación y la comunicaciónde riesgo y emergencias mediantesitios web concebidos ydiseñados para ello. Estos sitiosestán pensados para facilitarinformación a los ciudadanosen caso de emergencias, perotambién contienen informaciónútil para los expertos y las autoridades.En este trabajo, y ala luz de la legislación españolasobre emergencias, se comparanlos sitios de la administraciónautonómica catalana y delgobierno de España con lossitios de tres países de referencia:Estados Unidos, Francia yReino Unido. Al mismo tiempose propone una metodologíasimple para llevar a cabo unacomparación que permita extraerconclusiones y plantearrecomendaciones en un aspectode la gestión de la información que puede resultar clave para salvar bienes materiales y vidas humanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A number of experimental methods have been reported for estimating the number of genes in a genome, or the closely related coding density of a genome, defined as the fraction of base pairs in codons. Recently, DNA sequence data representative of the genome as a whole have become available for several organisms, making the problem of estimating coding density amenable to sequence analytic methods. Estimates of coding density for a single genome vary widely, so that methods with characterized error bounds have become increasingly desirable. We present a method to estimate the protein coding density in a corpus of DNA sequence data, in which a ‘coding statistic’ is calculated for a large number of windows of the sequence under study, and the distribution of the statistic is decomposed into two normal distributions, assumed to be the distributions of the coding statistic in the coding and noncoding fractions of the sequence windows. The accuracy of the method is evaluated using known data and application is made to the yeast chromosome III sequence and to C.elegans cosmid sequences. It can also be applied to fragmentary data, for example a collection of short sequences determined in the course of STS mapping.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Unidad de Apoyo a la Calidad y a la Innovación Docente de la Escuela Superior Politécnica (Universidad Pompeu Fabra) crea una Web para potenciar las experiencias innovadoras que responden a las necesidades y demandas del profesorado de la Escuela así como a las directrices del EEES. Esta Web se propone afianzar el contacto entre esta Unidad y el personal a quien ofrece sus servicios – fundamentalmente, profesorado de la ESUP- de manera muy dinámica. Quedan recogidas publicaciones, congresos, recursos metodológicos, bibliográficos, etc. En catalán, español e inglés respondiendo a la tendencia multilingüe hacía la que se dirige la UPF.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The emergence of the Web 2.0 technologies in the last years havechanged the way people interact with knowledge. Services for cooperation andcollaboration have placed the user in the centre of a new knowledge buildingspace. The development of new second generation learning environments canbenefit from the potential of these Web 2.0 services when applied to aneducational context. We propose a methodology for designing learningenvironments that relates Web 2.0 services with the functional requirements ofthese environments. In particular, we concentrate on the design of the KRSMsystem to discuss the components of this methodology and its application.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In recent years, the large deployment of mobile devices has led to a massiveincrease in the volume of records of where people have been and when they were there.The analysis of these spatio-temporal data can supply high-level human behaviorinformation valuable to urban planners, local authorities, and designer of location-basedservices. In this paper, we describe our approach to collect and analyze the history ofphysical presence of tourists from the digital footprints they publicly disclose on the web.Our work takes place in the Province of Florence in Italy, where the insights on thevisitors’ flows and on the nationalities of the tourists who do not sleep in town has beenlimited to information from survey-based hotel and museums frequentation. In fact, mostlocal authorities in the world must face this dearth of data on tourist dynamics. In thiscase study, we used a corpus of geographically referenced photos taken in the provinceby 4280 photographers over a period of 2 years. Based on the disclosure of the locationof the photos, we design geovisualizations to reveal the tourist concentration and spatiotemporalflows. Our initial results provide insights on the density of tourists, the points ofinterests they visit as well as the most common trajectories they follow.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Winter maintenance, particularly snow removal and the stress of snow removal materials on public structures, is an enormous budgetary burden on municipalities and nongovernmental maintenance organizations in cold climates. Lately, geospatial technologies such as remote sensing, geographic information systems (GIS), and decision support tools are roviding a valuable tool for planning snow removal operations. A few researchers recently used geospatial technologies to develop winter maintenance tools. However, most of these winter maintenance tools, while having the potential to address some of these information needs, are not typically placed in the hands of planners and other interested stakeholders. Most tools are not constructed with a nontechnical user in mind and lack an easyto-use, easily understood interface. A major goal of this project was to implement a web-based Winter Maintenance Decision Support System (WMDSS) that enhances the capacity of stakeholders (city/county planners, resource managers, transportation personnel, citizens, and policy makers) to evaluate different procedures for managing snow removal assets optimally. This was accomplished by integrating geospatial analytical techniques (GIS and remote sensing), the existing snow removal asset management system, and webbased spatial decision support systems. The web-based system was implemented using the ESRI ArcIMS ActiveX Connector and related web technologies, such as Active Server Pages, JavaScript, HTML, and XML. The expert knowledge on snow removal procedures is gathered and integrated into the system in the form of encoded business rules using Visual Rule Studio. The system developed not only manages the resources but also provides expert advice to assist complex decision making, such as routing, optimal resource allocation, and monitoring live weather information. This system was developed in collaboration with Black Hawk County, IA, the city of Columbia, MO, and the Iowa Department of transportation. This product was also demonstrated for these agencies to improve the usability and applicability of the system.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rapid adoption of online media like Facebook, Twitter or Wikileaks leaves us with little time to think. Where is information technology taking us, our society and our democratic institutions ? Is the Web replicating social divides that already exist offline or does collaborative technology pave the way for a more equal society ? How do we find the right balance between openness and privacy ? Can social media improve civic participation or do they breed superficial exchange and the promotion of false information ? These and lots of other questions arise when one starts to look at the Internet, society and politics. The first part of this paper gives an overview of the social changes that occur with the rise of the Web. The second part serves as an overview on how the Web is being used for political participation in Switzerland and abroad. Le développement rapide de nouveaux médias comme Facebook, Twitter ou Wikileaks ne laisse que peu de temps à la réflexion. Quels sont les changements que ces technologies de l'information impliquent pour nous, notre société et nos institutions démocratiques ? Internet ne fait-il que reproduire des divisions sociales qui lui préexistent ou constitue-t-il un moyen de lisser et d'égaliser ces mêmes divisions ? Comment trouver le bon équilibre entre transparence et respect de la vie privée ? Les médias sociaux permettent-ils de stimuler la participation politique ou ne sont-ils que le vecteur d'échanges superficiels et de fausses informations ? Ces questions, parmi d'autres, émergent rapidement lorsque l'on s'intéresse à la question des liens entre Internet, la société et la politique. La première partie de ce cahier est consacrée aux changements sociaux générés par l'émergence et le développement d'Internet. La seconde fait l'état des lieux de la manière dont Internet est utilisé pour stimuler la participation politique en Suisse et à l'étranger.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Corpus constituido desde 1993 hasta la actualidad en el marco del proyecto Corpus del Institut Universitari de Lingüística Aplicada (IULA) de la Universidad Pompeu Fabra. Este proyecto recopila textos escritos en cinco lenguas diferentes (catalán, castellano, inglés, francés y alemán) de las áreas de especialidad de la economía, el derecho,el medio ambiente, la medicina y la informática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uno de los objetivos principales del trabajo terminográfico es la identificación de conocimientosobre los términos que aparecenen textos especializados. Para confeccionar diccionarios, glosarios u ontologías, los terminógrafos suelen buscar definiciones sobre los términos que pretenden definir. La búsqueda de definiciones se puede hacer apartir de corpus especializados, donde normalmente aparecen en contextos definitorios, es decir, en fragmentos de texto donde un autor explícitamente define el término en cuestión. Hoy en día hay un interés creciente por automatizar este proceso, basado enla búsqueda de patrones definitorios sobre corpus especializados anotados morfosintácticamente. En este artículo presentamos una investigación centrada en la extracción automática de contextos definitorios. Presentamos una metodología que incluye tres procesos automáticos diferentes: la extracción de ocurrencias de patrones definitorios, el filtradode contextos no relevantes, y la identificación de elementos constitutivos, es decir, términos, definiciones y patrones pragmáticos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El propósito de esta comunicación es analizar el estado actual de los periódicos digitales, prestandoespecial atención a la adaptación de éstos al entorno de la Web 2.0. Para llevar a cabo este trabajo sehan estudiado, entre otras, las siguientes variables: el tipo de herramientas propias de la Web 2.0que los periódicos digitales han incorporado a sus sitios web, la forma en que éstas ha cambiado elproceso de creación de los productos periodísticos, la respuesta que los periódicos digitales hanrecibido por parte de la audiencia y el nuevo tipo de interacción creado con los usuarios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Unidad de Apoyo a la Calidad y la Innovación Docente de la Escuela Superior Politécnica (Universidad Pompeu Fabra) se plantea la necesidad de potenciar experiencias innovadoras que respondan a las necesidades y demandas del profesorado de la Escuela así como a las directrices enmarcadas en el EEES. Es por esto que apostamos por la creación de un espacio Web sobre la USQUID que se fundamente en la idea de favorecer el contacto entre esta Unidad y el personal a quien ofrece sus servicios –fundamentalmente, profesorado de la ESUP-. En esta Web se facilitan recursos e informaciones varias como publicaciones, anuncios de congresos, recursos relacionados con metodologías docentes experimentadas en Ingenierías, etc.en los dos idiomas oficiales de Cataluña y en inglés para responder también al multilinguismo por el que apuesta nuestra universidad así como para potenciar el desarrollo de actividades multilingües en el aula.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The objective of the PANACEA ICT-2007.2.2 EU project is to build a platform that automates the stages involved in the acquisition,production, updating and maintenance of the large language resources required by, among others, MT systems. The development of a Corpus Acquisition Component (CAC) for extracting monolingual and bilingual data from the web is one of the most innovative building blocks of PANACEA. The CAC, which is the first stage in the PANACEA pipeline for building Language Resources, adopts an efficient and distributed methodology to crawl for web documents with rich textual content in specific languages and predefined domains. The CAC includes modules that can acquire parallel data from sites with in-domain content available in more than one language. In order to extrinsically evaluate the CAC methodology, we have conducted several experiments that used crawled parallel corpora for the identification and extraction of parallel sentences using sentence alignment. The corpora were then successfully used for domain adaptation of Machine Translation Systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents the platform developed in the PANACEA project, a distributed factory that automates the stages involved in the acquisition, production, updating and maintenance of Language Resources required by Machine Translation and other Language Technologies. We adopt a set of tools that have been successfully used in the Bioinformatics field, they are adapted to the needs of our field and used to deploy web services, which can be combined to build more complex processing chains (workflows). This paper describes the platform and its different components (web services, registry, workflows, social network and interoperability). We demonstrate the scalability of the platform by carrying out a set of massive data experiments. Finally, a validation of the platform across a set of required criteria proves its usability for different types of users (non-technical users and providers).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work briefly analyses the difficulties to adopt the Semantic Web, and in particular proposes systems to know the present level of migration to the different technologies that make up the Semantic Web. It focuses on the presentation and description of two tools, DigiDocSpider and DigiDocMetaEdit, designed with the aim of verifYing, evaluating, and promoting its implementation.