900 resultados para Knowledge representation (Information theory)
Resumo:
La educación en la Argentina está articulada bajo criterios sociales establecidos pero que son básicamente arbitrarios y sustentados en supuestos no demostrados que afirman que el conocimiento se construye a partir de ciertos contenidos y no de otros. Dichos criterios no han variado mayormente durante las últimas décadas y siguen utilizándose como plataforma inicial a partir de los cuales se articula la educación posterior del educando. Los sistemas de educación superior en América Latina sufren una crisis a raíz de la creciente internacionalización de las nuevas tecnologías de comunicación e información y de los reclamos de inclusión social de los sectores marginados, entre otras razones. Las tecnologías de compresión digital dan origen a un modelo educativo "en red" caracterizado por un funcionamiento no presencial, mediante el cual se produce la transformación del rol de la Universidad, como centro de descubrimiento y posesión del conocimiento, para convertirse en apenas una intermediaria en la búsqueda del saber y la información. Esta nueva modalidad de educación crece en la medida en que puede cubrir una demanda social de educación superior insatisfecha, conformada básicamente por adultos que trabajan, estudiantes de zonas alejadas de los centros educativos, extranjeros que carecen de opciones educativas y alumnos globalizados. Por ello, la educación virtual nace como una nueva respuesta a viejas demandas. La construcción de una sociedad planetaria y la convivencia del multiculturalismo, además de representar la expresión de sociedades abiertas, que quizás no dispongan de bases comunes de cohesión nacional, debe ser parte de un nuevo proyecto de solidaridad y confraternidad mundial.Resulta sumamente importante que las Universidades de América Latina defiendan su participación como tales en los mercados regionales mediante la adquisición de mayor flexibilidad, actualización y excelencia, para erigirse de esta manera como una opción comparativamente válida. Asimismo, creemos que la educación, entendida como todo el corpus del conocimiento que tiene una persona, no se construye de manera arbitraria sino, por el contrario, de manera selectiva de acuerdo a las posibilidades del educando; y es precisamente sobre la base de esta pormenorizada elección el sustento sobre el cual el alumno llega posteriormente a desarrollos intelectuales superiores. El objetivo del presente trabajo se centra en mostrar la importancia de índole social y política que tienen la flexibilización y la personalización en el currículum de estudios universitarios, al momento de observar el resultado final del ejercicio profesional del graduado. Desde este punto de vista, es fundamental que la elección de los contenidos del plan de estudios de la carrera universitaria estén a cargo del educando, con la dirección de una unidad académica, especialmente en relación con lo que hoy se conoce como "aprendizaje justo a tiempo". Dicho en otras palabras, solamente cuando el educando trasciende ese fundamento institucional e inicial de conocimientos para abrevar en otras fuentes, como las Artes, la Religión, la Filosofía, etc., puede relacionar y comparar conocimientos diferentes entre sí, pero cuya elección obedece fundamentalmente a criterios personales y no meramente institucionales
Resumo:
Se propone un análisis de la cientificidad y las pretensiones de conocimiento de las ciencias de la información desde la perspectiva de Richard Rorty. Se presenta la crítica rortyana a la filosofía epistemológicamente centrada, haciendo énfasis en la presunción de que el conocimiento tiene algún tipo de fundamento último, y la presunción de que la filosofía es la encargada de esclarecer este fundamento. Se introduce la propuesta del conductismo epistemológico de Rorty como alternativa al fundacionismo de la filosofía epistemológicamente centrada. Posteriormente se realiza una revisión de diferentes posturas sobre el status científico y la legitimidad epistémica de las ciencias de la información. Se agrupan las posturas revisadas en torno a dos estrategias de fundamentación: la adscripción de las ciencias de la información a algún modelo de cientificidad, o su vinculación con un sistema filosófico general. Se afirma que ambas estrategias presuponen una perspectiva fundacionista, en cuanto buscan ofrecer una fundamentación disciplinar en base a un marco filosófico exterior. A esto se opone el conductismo epistemológico rortyano, según el cual la autoridad epistémica debe explicarse a partir de los contextos específicos de cada comunidad, y no a partir de un fundamento epistémico externo
Resumo:
La educación en la Argentina está articulada bajo criterios sociales establecidos pero que son básicamente arbitrarios y sustentados en supuestos no demostrados que afirman que el conocimiento se construye a partir de ciertos contenidos y no de otros. Dichos criterios no han variado mayormente durante las últimas décadas y siguen utilizándose como plataforma inicial a partir de los cuales se articula la educación posterior del educando. Los sistemas de educación superior en América Latina sufren una crisis a raíz de la creciente internacionalización de las nuevas tecnologías de comunicación e información y de los reclamos de inclusión social de los sectores marginados, entre otras razones. Las tecnologías de compresión digital dan origen a un modelo educativo "en red" caracterizado por un funcionamiento no presencial, mediante el cual se produce la transformación del rol de la Universidad, como centro de descubrimiento y posesión del conocimiento, para convertirse en apenas una intermediaria en la búsqueda del saber y la información. Esta nueva modalidad de educación crece en la medida en que puede cubrir una demanda social de educación superior insatisfecha, conformada básicamente por adultos que trabajan, estudiantes de zonas alejadas de los centros educativos, extranjeros que carecen de opciones educativas y alumnos globalizados. Por ello, la educación virtual nace como una nueva respuesta a viejas demandas. La construcción de una sociedad planetaria y la convivencia del multiculturalismo, además de representar la expresión de sociedades abiertas, que quizás no dispongan de bases comunes de cohesión nacional, debe ser parte de un nuevo proyecto de solidaridad y confraternidad mundial.Resulta sumamente importante que las Universidades de América Latina defiendan su participación como tales en los mercados regionales mediante la adquisición de mayor flexibilidad, actualización y excelencia, para erigirse de esta manera como una opción comparativamente válida. Asimismo, creemos que la educación, entendida como todo el corpus del conocimiento que tiene una persona, no se construye de manera arbitraria sino, por el contrario, de manera selectiva de acuerdo a las posibilidades del educando; y es precisamente sobre la base de esta pormenorizada elección el sustento sobre el cual el alumno llega posteriormente a desarrollos intelectuales superiores. El objetivo del presente trabajo se centra en mostrar la importancia de índole social y política que tienen la flexibilización y la personalización en el currículum de estudios universitarios, al momento de observar el resultado final del ejercicio profesional del graduado. Desde este punto de vista, es fundamental que la elección de los contenidos del plan de estudios de la carrera universitaria estén a cargo del educando, con la dirección de una unidad académica, especialmente en relación con lo que hoy se conoce como "aprendizaje justo a tiempo". Dicho en otras palabras, solamente cuando el educando trasciende ese fundamento institucional e inicial de conocimientos para abrevar en otras fuentes, como las Artes, la Religión, la Filosofía, etc., puede relacionar y comparar conocimientos diferentes entre sí, pero cuya elección obedece fundamentalmente a criterios personales y no meramente institucionales
Resumo:
Esta tesina indaga en el ámbito de las Tecnologías de la Información sobre los diferentes desarrollos realizados en la interpretación automática de la semántica de textos y su relación con los Sistemas de Recuperación de Información. Partiendo de una revisión bibliográfica selectiva se busca sistematizar la documentación estableciendo de manera evolutiva los principales antecedentes y técnicas, sintetizando los conceptos fundamentales y resaltando los aspectos que justifican la elección de unos u otros procedimientos en la resolución de los problemas.
Resumo:
Se propone un análisis de la cientificidad y las pretensiones de conocimiento de las ciencias de la información desde la perspectiva de Richard Rorty. Se presenta la crítica rortyana a la filosofía epistemológicamente centrada, haciendo énfasis en la presunción de que el conocimiento tiene algún tipo de fundamento último, y la presunción de que la filosofía es la encargada de esclarecer este fundamento. Se introduce la propuesta del conductismo epistemológico de Rorty como alternativa al fundacionismo de la filosofía epistemológicamente centrada. Posteriormente se realiza una revisión de diferentes posturas sobre el status científico y la legitimidad epistémica de las ciencias de la información. Se agrupan las posturas revisadas en torno a dos estrategias de fundamentación: la adscripción de las ciencias de la información a algún modelo de cientificidad, o su vinculación con un sistema filosófico general. Se afirma que ambas estrategias presuponen una perspectiva fundacionista, en cuanto buscan ofrecer una fundamentación disciplinar en base a un marco filosófico exterior. A esto se opone el conductismo epistemológico rortyano, según el cual la autoridad epistémica debe explicarse a partir de los contextos específicos de cada comunidad, y no a partir de un fundamento epistémico externo
Resumo:
Esta tesina indaga en el ámbito de las Tecnologías de la Información sobre los diferentes desarrollos realizados en la interpretación automática de la semántica de textos y su relación con los Sistemas de Recuperación de Información. Partiendo de una revisión bibliográfica selectiva se busca sistematizar la documentación estableciendo de manera evolutiva los principales antecedentes y técnicas, sintetizando los conceptos fundamentales y resaltando los aspectos que justifican la elección de unos u otros procedimientos en la resolución de los problemas.
Resumo:
Se propone un análisis de la cientificidad y las pretensiones de conocimiento de las ciencias de la información desde la perspectiva de Richard Rorty. Se presenta la crítica rortyana a la filosofía epistemológicamente centrada, haciendo énfasis en la presunción de que el conocimiento tiene algún tipo de fundamento último, y la presunción de que la filosofía es la encargada de esclarecer este fundamento. Se introduce la propuesta del conductismo epistemológico de Rorty como alternativa al fundacionismo de la filosofía epistemológicamente centrada. Posteriormente se realiza una revisión de diferentes posturas sobre el status científico y la legitimidad epistémica de las ciencias de la información. Se agrupan las posturas revisadas en torno a dos estrategias de fundamentación: la adscripción de las ciencias de la información a algún modelo de cientificidad, o su vinculación con un sistema filosófico general. Se afirma que ambas estrategias presuponen una perspectiva fundacionista, en cuanto buscan ofrecer una fundamentación disciplinar en base a un marco filosófico exterior. A esto se opone el conductismo epistemológico rortyano, según el cual la autoridad epistémica debe explicarse a partir de los contextos específicos de cada comunidad, y no a partir de un fundamento epistémico externo
Resumo:
La educación en la Argentina está articulada bajo criterios sociales establecidos pero que son básicamente arbitrarios y sustentados en supuestos no demostrados que afirman que el conocimiento se construye a partir de ciertos contenidos y no de otros. Dichos criterios no han variado mayormente durante las últimas décadas y siguen utilizándose como plataforma inicial a partir de los cuales se articula la educación posterior del educando. Los sistemas de educación superior en América Latina sufren una crisis a raíz de la creciente internacionalización de las nuevas tecnologías de comunicación e información y de los reclamos de inclusión social de los sectores marginados, entre otras razones. Las tecnologías de compresión digital dan origen a un modelo educativo "en red" caracterizado por un funcionamiento no presencial, mediante el cual se produce la transformación del rol de la Universidad, como centro de descubrimiento y posesión del conocimiento, para convertirse en apenas una intermediaria en la búsqueda del saber y la información. Esta nueva modalidad de educación crece en la medida en que puede cubrir una demanda social de educación superior insatisfecha, conformada básicamente por adultos que trabajan, estudiantes de zonas alejadas de los centros educativos, extranjeros que carecen de opciones educativas y alumnos globalizados. Por ello, la educación virtual nace como una nueva respuesta a viejas demandas. La construcción de una sociedad planetaria y la convivencia del multiculturalismo, además de representar la expresión de sociedades abiertas, que quizás no dispongan de bases comunes de cohesión nacional, debe ser parte de un nuevo proyecto de solidaridad y confraternidad mundial.Resulta sumamente importante que las Universidades de América Latina defiendan su participación como tales en los mercados regionales mediante la adquisición de mayor flexibilidad, actualización y excelencia, para erigirse de esta manera como una opción comparativamente válida. Asimismo, creemos que la educación, entendida como todo el corpus del conocimiento que tiene una persona, no se construye de manera arbitraria sino, por el contrario, de manera selectiva de acuerdo a las posibilidades del educando; y es precisamente sobre la base de esta pormenorizada elección el sustento sobre el cual el alumno llega posteriormente a desarrollos intelectuales superiores. El objetivo del presente trabajo se centra en mostrar la importancia de índole social y política que tienen la flexibilización y la personalización en el currículum de estudios universitarios, al momento de observar el resultado final del ejercicio profesional del graduado. Desde este punto de vista, es fundamental que la elección de los contenidos del plan de estudios de la carrera universitaria estén a cargo del educando, con la dirección de una unidad académica, especialmente en relación con lo que hoy se conoce como "aprendizaje justo a tiempo". Dicho en otras palabras, solamente cuando el educando trasciende ese fundamento institucional e inicial de conocimientos para abrevar en otras fuentes, como las Artes, la Religión, la Filosofía, etc., puede relacionar y comparar conocimientos diferentes entre sí, pero cuya elección obedece fundamentalmente a criterios personales y no meramente institucionales
Resumo:
This paper sheds light on the important role played by global supply chains in the adaptation to product-related environmental regulations imposed by importing countries, with a focus on chemicals management. By utilizing a unique data collected in Penang, Malaysia, we depict the supply chain structures and how differences among firms in participation to global supply chain link to differences in chemical management. We found that firms belonging to a supply chain are in a better position to comply with these regulations because information and requirements are transmitted through global supply chains. In contrast, those firms that are neither exporters nor a part of a global supply chain lack the knowledge and information channels relevant to chemical management in a product.
Resumo:
Desde mediados de los 90, gracias a las posibilidades de la World Wide Web, se liberó la cartografía de su dependencia del medio físico, posibilitando el acceso y visualización de millones de mapas almacenados en formatos gráficos a través de Internet. En este contexto, el papel de la Información Geográfica (IG) en la vida cotidiana adquirió relevancia en la medida que el acceso a la misma resultaba cada vez más fácil gracias a múltiples herramientas y aplicaciones para distribuir y acercar los mapas en distintos formatos a la sociedad en general. Sin embargo, dado que esa información enseguida pasaba a estar desactualizada, surgió una demanda desde distintos ámbitos (seguridad, medio ambiente transporte, servicios, etc.) y de la sociedad en general para disponer de la información más actual. Como respuesta a esta demanda, surgen las iniciativas denominadas Infraestructuras de Datos Espaciales (IDE). Estas iniciativas, mediante la acción coordinada de un conjunto de tecnologías, estándares, normas y políticas, brindan la posibilidad a los usuarios de acceder, a través de Internet, a IG actualizada producida por instituciones y organismos oficiales, en un marco colaborativo y sustentada en una estructura organizativa. En este contexto, el ámbito educativo no ha permanecido ajeno representando uno de los espacios más propicios para la difusión de las potencialidades y usos de las IDE. En esta tesis se propone la utilización de las IDE en el contexto educativo, específicamente en la Educación Secundaria Obligatoria (ESO). Utilizar las IDE en el contexto educativo implica asignarle un papel en el proceso de enseñanza-aprendizaje y en el marco de esta tesis se presentan los fundamentos teóricos que permiten afirmar que las IDE son un re-curso educativo que responde a las características de las Tecnologías de la Información y la Comunicación (TIC). Esto se explicita a través de un concepto más amplio que hemos denominado “recurso educativo TIC”. En este contexto se analizan las posibilidades que ofrece las IDE para alcanzar los objetivos de aprendizaje de asignaturas de la ESO relacionadas con IG y se identifican contenidos susceptibles de ser abordados utilizándolas. Por otra parte, atendiendo al modelo educativo del aprendizaje basado en competencias, se exponen las posibilidades y potencialidades que ofrecen las IDE para desarrollar la competencia digital. Una vez planteado el marco teórico se desarrollaron dos estrategias de formación y difusión de las IDE orientadas al profesorado de la ESO. En primer lugar, utilizando el Modelo de Diseño Instruccional ADDIE, se diseñaron, desarrollaron, implementaron y evaluaron tres cursos e-learning para el profesorado de ESO de las asignaturas Ciencias Sociales, Ciencias de la Naturaleza y Tecnología. En segundo lugar, con objetivo de complementar los resultados obtenidos de los cursos e-learning, se realizó una actividad en dos Institutos de Educación Secundaria orientada a difundir las IDE. La puesta en práctica de estas estrategias ofreció al profesorado la información necesaria sobre qué son las IDE y proporcionó ejemplos concretos de uso de las mismas en su asignatura, permitiéndoles disponer de los conocimientos e información para emitir una valoración sobre las posibilidades que ofrecen las IDE como un recurso educativo TIC. Since about the middle of the 1990 decade, owing to the potential of the World Wide Web, cartography freed itself from its dependence on its physical support, enabling the access and visualisation of millions of maps stored in graphical formats through the Internet. In this context, the role of Geographic Information (GI) in daily life became relevant in as much as its access turned out to be ever easier due to multiple tools and applications to distribute and bring maps in different formats closer to society in general. Yet, since the information available often became outdated, a demand for updated information arose from different specific fields (security, environment, transport, services, etc.) and from the general public. As a response to this demand, the so-called Spatial Data Infrastructure (SDI) initiatives arose which, through the coordinated action of a set of technologies, stan-dards, and policies, enabled users to access updated GI created by organisations and official institutions, through the Internet, within a cooperative framework and an organisational structure. In this context the educational world has not remained aloof, since it represented one of the most propitious scope for the dissemination of the potentials and uses of SDI. In this thesis the utilization of SDI in the educational context is proposed, specifically in the Spanish Compulsory Secondary Education (Educación Secundaria Obligatoria – ESO). This utilization implies assigning SDI a role in the teaching-learning process; here the theo-retical foundation is presented which allows asserting that SDI is an educational resource fitting in with the characteristics of the Information and Communication Technologies (ICT). This is made explicit by means of a broader concept we have called “ICT educa-tional resource”. The possibilities offered by SDI to reach the objective of learning ESO subjects related to GI are analyzed, and contents apt to be addressed by using them are identified. On the other hand, attending to the educational model of learning based on competences, the possibilities and potentials the SDI offer to develop the digital compe-tence are exposed. After having set forth the theoretical frame, two strategies of training and dissemination of SDI were developed, oriented to the ESO teaching staff. First, using the ADDIE Instruc-tional Design Model, three learning courses were designed, developed, implemented and evaluated for the ESO teaching staff in the subjects of Social Sciences, Natural Sciences and Technology. In the second place, with the purpose of supplementing the results ob-tained from the e-learning courses, an activity was carried out in two High Schools, ori-ented to disseminate the SDI. The implementation of these strategies offered the teaching staff the needed information concerning the SDI and provided specific instances of utilisa-tion thereof in their subject, thus enabling them to acquire the knowledge and information to issue an assessment of the possibilities the SDI offer as an ICT educational resource
Resumo:
Today's knowledge society is creating increasingly competitive environments in which cognitive factors, creativity, knowledge and information determine the success of organizations. In this context the exercise of management and leadership is essential to achieve objectives, goals and relationships. Both concepts have been historically associated with the male domain because of the underrepresentation of women in managerial positions. However, the increasing participation of women in the workplace has led to the development of an extensive literature on the possible existence of differences between the styles of male and female leadership, although it has not been addressed from the analysis of competences associated with each sex. Through a participatory process the abilities and skills associated with women managers are analyzed, the differences in leadership styles and the barriers that still exist for the promotion of women into management positions. The results indicate that women particularly value the skills associated with human relationships, the female leadership style tends to be transformational and that there are still barriers to their advancement to management positions.
Resumo:
Tree-reweighted belief propagation is a message passing method that has certain advantages compared to traditional belief propagation (BP). However, it fails to outperform BP in a consistent manner, does not lend itself well to distributed implementation, and has not been applied to distributions with higher-order interactions. We propose a method called uniformly-reweighted belief propagation that mitigates these drawbacks. After having shown in previous works that this method can substantially outperform BP in distributed inference with pairwise interaction models, in this paper we extend it to higher-order interactions and apply it to LDPC decoding, leading performance gains over BP.
Resumo:
One of the main goals of Spanish Young Generation (JJNN) is to spread knowledge about nuclear energy, not only pointing out its advantages and its role in our society, but also trying to correct some of the ideas that are due to the biased information and to the lack of knowledge. With this goal in mind, lectures were given in several high schools, aimed at students ranging from 14 to 18 years old. This paper explains the experience accumulated during those talks and the conclusions that can be drawn, so as to better focus the communication about nuclear energy, especially the one aimed at a young public. In order to evaluate the degree of knowledge and information on a specific topic of a given group of individuals, statistical methods must be used. At the beginning of each lecture (and sometimes at the end, in order to evaluate the impact of the talk) the students were submitted to a short survey conducted by Spanish Young Generation. It consisted in eight questions, dealing with the relation between the main environmental issues (global warming, acid rain, radioactive waste…) and nuclear energy. The answers can be surprising, especially for professionals of the nuclear field who, since they are so familiar with this topic, often forget that this is just the case of a minority of people. A better knowledge of the degree of information of a given group enables to focus and personalize the communication. Another communication tool is the direct contact with students: it starts with their questions, which can then lead to a small debate. If the surveys inform about the topics they are unaware of, the direct exchange with them enables to find the most effective way to provide them the information. Of course, it depends a lot on the public attending the talk (age, background…) and on the debate following the talk: a good communication, adapted to the public, is necessary. Therefore, the outcome of the performed exercise is that Spanish teenagers have still a lack of knowledge about nuclear energy. We can learn that items that are evident for nuclear young professionals are unknown for high school teenagers
Resumo:
The Microarray technique is rather powerful, as it allows to test up thousands of genes at a time, but this produces an overwhelming set of data files containing huge amounts of data, which is quite difficult to pre-process, separate, classify and correlate for interesting conclusions to be extracted. Modern machine learning, data mining and clustering techniques based on information theory, are needed to read and interpret the information contents buried in those large data sets. Independent Component Analysis method can be used to correct the data affected by corruption processes or to filter the uncorrectable one and then clustering methods can group similar genes or classify samples. In this paper a hybrid approach is used to obtain a two way unsupervised clustering for a corrected microarray data.
Resumo:
OntoTag - A Linguistic and Ontological Annotation Model Suitable for the Semantic Web
1. INTRODUCTION. LINGUISTIC TOOLS AND ANNOTATIONS: THEIR LIGHTS AND SHADOWS
Computational Linguistics is already a consolidated research area. It builds upon the results of other two major ones, namely Linguistics and Computer Science and Engineering, and it aims at developing computational models of human language (or natural language, as it is termed in this area). Possibly, its most well-known applications are the different tools developed so far for processing human language, such as machine translation systems and speech recognizers or dictation programs.
These tools for processing human language are commonly referred to as linguistic tools. Apart from the examples mentioned above, there are also other types of linguistic tools that perhaps are not so well-known, but on which most of the other applications of Computational Linguistics are built. These other types of linguistic tools comprise POS taggers, natural language parsers and semantic taggers, amongst others. All of them can be termed linguistic annotation tools.
Linguistic annotation tools are important assets. In fact, POS and semantic taggers (and, to a lesser extent, also natural language parsers) have become critical resources for the computer applications that process natural language. Hence, any computer application that has to analyse a text automatically and ‘intelligently’ will include at least a module for POS tagging. The more an application needs to ‘understand’ the meaning of the text it processes, the more linguistic tools and/or modules it will incorporate and integrate.
However, linguistic annotation tools have still some limitations, which can be summarised as follows:
1. Normally, they perform annotations only at a certain linguistic level (that is, Morphology, Syntax, Semantics, etc.).
2. They usually introduce a certain rate of errors and ambiguities when tagging. This error rate ranges from 10 percent up to 50 percent of the units annotated for unrestricted, general texts.
3. Their annotations are most frequently formulated in terms of an annotation schema designed and implemented ad hoc.
A priori, it seems that the interoperation and the integration of several linguistic tools into an appropriate software architecture could most likely solve the limitations stated in (1). Besides, integrating several linguistic annotation tools and making them interoperate could also minimise the limitation stated in (2). Nevertheless, in the latter case, all these tools should produce annotations for a common level, which would have to be combined in order to correct their corresponding errors and inaccuracies. Yet, the limitation stated in (3) prevents both types of integration and interoperation from being easily achieved.
In addition, most high-level annotation tools rely on other lower-level annotation tools and their outputs to generate their own ones. For example, sense-tagging tools (operating at the semantic level) often use POS taggers (operating at a lower level, i.e., the morphosyntactic) to identify the grammatical category of the word or lexical unit they are annotating. Accordingly, if a faulty or inaccurate low-level annotation tool is to be used by other higher-level one in its process, the errors and inaccuracies of the former should be minimised in advance. Otherwise, these errors and inaccuracies would be transferred to (and even magnified in) the annotations of the high-level annotation tool.
Therefore, it would be quite useful to find a way to
(i) correct or, at least, reduce the errors and the inaccuracies of lower-level linguistic tools;
(ii) unify the annotation schemas of different linguistic annotation tools or, more generally speaking, make these tools (as well as their annotations) interoperate.
Clearly, solving (i) and (ii) should ease the automatic annotation of web pages by means of linguistic tools, and their transformation into Semantic Web pages (Berners-Lee, Hendler and Lassila, 2001). Yet, as stated above, (ii) is a type of interoperability problem. There again, ontologies (Gruber, 1993; Borst, 1997) have been successfully applied thus far to solve several interoperability problems. Hence, ontologies should help solve also the problems and limitations of linguistic annotation tools aforementioned.
Thus, to summarise, the main aim of the present work was to combine somehow these separated approaches, mechanisms and tools for annotation from Linguistics and Ontological Engineering (and the Semantic Web) in a sort of hybrid (linguistic and ontological) annotation model, suitable for both areas. This hybrid (semantic) annotation model should (a) benefit from the advances, models, techniques, mechanisms and tools of these two areas; (b) minimise (and even solve, when possible) some of the problems found in each of them; and (c) be suitable for the Semantic Web. The concrete goals that helped attain this aim are presented in the following section.
2. GOALS OF THE PRESENT WORK
As mentioned above, the main goal of this work was to specify a hybrid (that is, linguistically-motivated and ontology-based) model of annotation suitable for the Semantic Web (i.e. it had to produce a semantic annotation of web page contents). This entailed that the tags included in the annotations of the model had to (1) represent linguistic concepts (or linguistic categories, as they are termed in ISO/DCR (2008)), in order for this model to be linguistically-motivated; (2) be ontological terms (i.e., use an ontological vocabulary), in order for the model to be ontology-based; and (3) be structured (linked) as a collection of ontology-based