877 resultados para Natural Language
Resumo:
Online reputation management deals with monitoring and influencing the online record of a person, an organization or a product. The Social Web offers increasingly simple ways to publish and disseminate personal or opinionated information, which can rapidly have a disastrous influence on the online reputation of some of the entities. This dissertation can be split into three parts: In the first part, possible fuzzy clustering applications for the Social Semantic Web are investigated. The second part explores promising Social Semantic Web elements for organizational applications,while in the third part the former two parts are brought together and a fuzzy online reputation analysis framework is introduced and evaluated. Theentire PhD thesis is based on literature reviews as well as on argumentative-deductive analyses.The possible applications of Social Semantic Web elements within organizations have been researched using a scenario and an additional case study together with two ancillary case studies—based on qualitative interviews. For the conception and implementation of the online reputation analysis application, a conceptual framework was developed. Employing test installations and prototyping, the essential parts of the framework have been implemented.By following a design sciences research approach, this PhD has created two artifacts: a frameworkand a prototype as proof of concept. Bothartifactshinge on twocoreelements: a (cluster analysis-based) translation of tags used in the Social Web to a computer-understandable fuzzy grassroots ontology for the Semantic Web, and a (Topic Maps-based) knowledge representation system, which facilitates a natural interaction with the fuzzy grassroots ontology. This is beneficial to the identification of unknown but essential Web data that could not be realized through conventional online reputation analysis. Theinherent structure of natural language supports humans not only in communication but also in the perception of the world. Fuzziness is a promising tool for transforming those human perceptions intocomputer artifacts. Through fuzzy grassroots ontologies, the Social Semantic Web becomes more naturally and thus can streamline online reputation management.
Resumo:
In his in uential article about the evolution of the Web, Berners-Lee [1] envisions a Semantic Web in which humans and computers alike are capable of understanding and processing information. This vision is yet to materialize. The main obstacle for the Semantic Web vision is that in today's Web meaning is rooted most often not in formal semantics, but in natural language and, in the sense of semiology, emerges not before interpretation and processing. Yet, an automated form of interpretation and processing can be tackled by precisiating raw natural language. To do that, Web agents extract fuzzy grassroots ontologies through induction from existing Web content. Inductive fuzzy grassroots ontologies thus constitute organically evolved knowledge bases that resemble automated gradual thesauri, which allow precisiating natural language [2]. The Web agents' underlying dynamic, self-organizing, and best-effort induction, enable a sub-syntactical bottom up learning of semiotic associations. Thus, knowledge is induced from the users' natural use of language in mutual Web interactions, and stored in a gradual, thesauri-like lexical-world knowledge database as a top-level ontology, eventually allowing a form of computing with words [3]. Since when computing with words the objects of computation are words, phrases and propositions drawn from natural languages, it proves to be a practical notion to yield emergent semantics for the Semantic Web. In the end, an improved understanding by computers on the one hand should upgrade human- computer interaction on the Web, and, on the other hand allow an initial version of human- intelligence amplification through the Web.
Resumo:
This article discusses the detection of discourse markers (DM) in dialog transcriptions, by human annotators and by automated means. After a theoretical discussion of the definition of DMs and their relevance to natural language processing, we focus on the role of like as a DM. Results from experiments with human annotators show that detection of DMs is a difficult but reliable task, which requires prosodic information from soundtracks. Then, several types of features are defined for automatic disambiguation of like: collocations, part-of-speech tags and duration-based features. Decision-tree learning shows that for like, nearly 70% precision can be reached, with near 100% recall, mainly using collocation filters. Similar results hold for well, with about 91% precision at 100% recall.
Resumo:
This paper presents a conceptual approach to enhance knowledge management by synchronizing mind maps and fuzzy cognitive maps. The use of mind maps allows taking advantage of human creativity, while the application of fuzzy cognitive maps enables to store information expressed in natural language. By applying cognitive computing, it makes possible to gather and extract relevant information out of a data pool. Therefore, this approach is supposed to give a framework that enhances knowledge management. To demonstrate the potential of this framework, a use case concerning the development of a smart city app is presented.
Resumo:
Clinical Research Data Quality Literature Review and Pooled Analysis We present a literature review and secondary analysis of data accuracy in clinical research and related secondary data uses. A total of 93 papers meeting our inclusion criteria were categorized according to the data processing methods. Quantitative data accuracy information was abstracted from the articles and pooled. Our analysis demonstrates that the accuracy associated with data processing methods varies widely, with error rates ranging from 2 errors per 10,000 files to 5019 errors per 10,000 fields. Medical record abstraction was associated with the highest error rates (70–5019 errors per 10,000 fields). Data entered and processed at healthcare facilities had comparable error rates to data processed at central data processing centers. Error rates for data processed with single entry in the presence of on-screen checks were comparable to double entered data. While data processing and cleaning methods may explain a significant amount of the variability in data accuracy, additional factors not resolvable here likely exist. Defining Data Quality for Clinical Research: A Concept Analysis Despite notable previous attempts by experts to define data quality, the concept remains ambiguous and subject to the vagaries of natural language. This current lack of clarity continues to hamper research related to data quality issues. We present a formal concept analysis of data quality, which builds on and synthesizes previously published work. We further posit that discipline-level specificity may be required to achieve the desired definitional clarity. To this end, we combine work from the clinical research domain with findings from the general data quality literature to produce a discipline-specific definition and operationalization for data quality in clinical research. While the results are helpful to clinical research, the methodology of concept analysis may be useful in other fields to clarify data quality attributes and to achieve operational definitions. Medical Record Abstractor’s Perceptions of Factors Impacting the Accuracy of Abstracted Data Medical record abstraction (MRA) is known to be a significant source of data errors in secondary data uses. Factors impacting the accuracy of abstracted data are not reported consistently in the literature. Two Delphi processes were conducted with experienced medical record abstractors to assess abstractor’s perceptions about the factors. The Delphi process identified 9 factors that were not found in the literature, and differed with the literature by 5 factors in the top 25%. The Delphi results refuted seven factors reported in the literature as impacting the quality of abstracted data. The results provide insight into and indicate content validity of a significant number of the factors reported in the literature. Further, the results indicate general consistency between the perceptions of clinical research medical record abstractors and registry and quality improvement abstractors. Distributed Cognition Artifacts on Clinical Research Data Collection Forms Medical record abstraction, a primary mode of data collection in secondary data use, is associated with high error rates. Distributed cognition in medical record abstraction has not been studied as a possible explanation for abstraction errors. We employed the theory of distributed representation and representational analysis to systematically evaluate cognitive demands in medical record abstraction and the extent of external cognitive support employed in a sample of clinical research data collection forms. We show that the cognitive load required for abstraction in 61% of the sampled data elements was high, exceedingly so in 9%. Further, the data collection forms did not support external cognition for the most complex data elements. High working memory demands are a possible explanation for the association of data errors with data elements requiring abstractor interpretation, comparison, mapping or calculation. The representational analysis used here can be used to identify data elements with high cognitive demands.
Resumo:
Esta tesina indaga en el ámbito de las Tecnologías de la Información sobre los diferentes desarrollos realizados en la interpretación automática de la semántica de textos y su relación con los Sistemas de Recuperación de Información. Partiendo de una revisión bibliográfica selectiva se busca sistematizar la documentación estableciendo de manera evolutiva los principales antecedentes y técnicas, sintetizando los conceptos fundamentales y resaltando los aspectos que justifican la elección de unos u otros procedimientos en la resolución de los problemas.
Resumo:
Este artículo presenta el Análisis Descriptivo como una estrategia del tratamiento de la información durante el proceso de investigación y su posible uso en estudios de diseño cualitativo. Muchas investigaciones en Ciencias Sociales y Humanas no contemplan la importancia de explicitar los soportes teórico-metodológicos de las inferencias explicativas o interpretación/es a la/s que se arriba, es decir, cómo es que se ha pasado del referente seleccionado (unidad de referencia), al argumento (modelo explicativo o interpretativo) con el que se lo pretende representar. De este modo, se suele ignorar el problema de la representación del referente en un dato tratable y la necesaria transformación del lenguaje natural (LN) en lenguaje descriptivo (LD). Se desarrollan dos ejemplos del campo de la Etología y de la Psicología, aplicando la estrategia metodológica del Análisis Descriptivo. En ellos se demuestra que la codificación que permite realizar este método toma en cuenta por un lado, la base de conocimientos e informaciones relativas a un dominio disciplinar particular y, por otro, permite evidenciar las inferencias seguidas en el razonamiento y las reglas de interpretación utilizadas para arribar a nuevos conocimientos
Resumo:
Este artículo explora críticamente la tesis según la cual la lógica formal deductiva contemporánea proporciona métodos e instrumentos para una teoría de la evaluación de argumentos formulados en un lenguaje natural. En este artículo se sostiene que la teoría de la (in)validez de la lógica formal deductiva sólo se puede aplicar a los argumentos del lenguaje natural utilizando aquello que se quiere explicar teóricamente, i.e. Las intuiciones que los/las hablantes de un lenguaje natural tienen acerca de la relaciones de implicación lógica entre las expresiones de esa lengua. Se exploran también algunas consecuencias pedagógicas de esta crítica.
Resumo:
Esta tesina indaga en el ámbito de las Tecnologías de la Información sobre los diferentes desarrollos realizados en la interpretación automática de la semántica de textos y su relación con los Sistemas de Recuperación de Información. Partiendo de una revisión bibliográfica selectiva se busca sistematizar la documentación estableciendo de manera evolutiva los principales antecedentes y técnicas, sintetizando los conceptos fundamentales y resaltando los aspectos que justifican la elección de unos u otros procedimientos en la resolución de los problemas.
Resumo:
Este artículo presenta el Análisis Descriptivo como una estrategia del tratamiento de la información durante el proceso de investigación y su posible uso en estudios de diseño cualitativo. Muchas investigaciones en Ciencias Sociales y Humanas no contemplan la importancia de explicitar los soportes teórico-metodológicos de las inferencias explicativas o interpretación/es a la/s que se arriba, es decir, cómo es que se ha pasado del referente seleccionado (unidad de referencia), al argumento (modelo explicativo o interpretativo) con el que se lo pretende representar. De este modo, se suele ignorar el problema de la representación del referente en un dato tratable y la necesaria transformación del lenguaje natural (LN) en lenguaje descriptivo (LD). Se desarrollan dos ejemplos del campo de la Etología y de la Psicología, aplicando la estrategia metodológica del Análisis Descriptivo. En ellos se demuestra que la codificación que permite realizar este método toma en cuenta por un lado, la base de conocimientos e informaciones relativas a un dominio disciplinar particular y, por otro, permite evidenciar las inferencias seguidas en el razonamiento y las reglas de interpretación utilizadas para arribar a nuevos conocimientos
Resumo:
Este artículo explora críticamente la tesis según la cual la lógica formal deductiva contemporánea proporciona métodos e instrumentos para una teoría de la evaluación de argumentos formulados en un lenguaje natural. En este artículo se sostiene que la teoría de la (in)validez de la lógica formal deductiva sólo se puede aplicar a los argumentos del lenguaje natural utilizando aquello que se quiere explicar teóricamente, i.e. Las intuiciones que los/las hablantes de un lenguaje natural tienen acerca de la relaciones de implicación lógica entre las expresiones de esa lengua. Se exploran también algunas consecuencias pedagógicas de esta crítica.
Resumo:
Este artículo explora críticamente la tesis según la cual la lógica formal deductiva contemporánea proporciona métodos e instrumentos para una teoría de la evaluación de argumentos formulados en un lenguaje natural. En este artículo se sostiene que la teoría de la (in)validez de la lógica formal deductiva sólo se puede aplicar a los argumentos del lenguaje natural utilizando aquello que se quiere explicar teóricamente, i.e. Las intuiciones que los/las hablantes de un lenguaje natural tienen acerca de la relaciones de implicación lógica entre las expresiones de esa lengua. Se exploran también algunas consecuencias pedagógicas de esta crítica.
Resumo:
Esta tesina indaga en el ámbito de las Tecnologías de la Información sobre los diferentes desarrollos realizados en la interpretación automática de la semántica de textos y su relación con los Sistemas de Recuperación de Información. Partiendo de una revisión bibliográfica selectiva se busca sistematizar la documentación estableciendo de manera evolutiva los principales antecedentes y técnicas, sintetizando los conceptos fundamentales y resaltando los aspectos que justifican la elección de unos u otros procedimientos en la resolución de los problemas.
Resumo:
Este artículo presenta el Análisis Descriptivo como una estrategia del tratamiento de la información durante el proceso de investigación y su posible uso en estudios de diseño cualitativo. Muchas investigaciones en Ciencias Sociales y Humanas no contemplan la importancia de explicitar los soportes teórico-metodológicos de las inferencias explicativas o interpretación/es a la/s que se arriba, es decir, cómo es que se ha pasado del referente seleccionado (unidad de referencia), al argumento (modelo explicativo o interpretativo) con el que se lo pretende representar. De este modo, se suele ignorar el problema de la representación del referente en un dato tratable y la necesaria transformación del lenguaje natural (LN) en lenguaje descriptivo (LD). Se desarrollan dos ejemplos del campo de la Etología y de la Psicología, aplicando la estrategia metodológica del Análisis Descriptivo. En ellos se demuestra que la codificación que permite realizar este método toma en cuenta por un lado, la base de conocimientos e informaciones relativas a un dominio disciplinar particular y, por otro, permite evidenciar las inferencias seguidas en el razonamiento y las reglas de interpretación utilizadas para arribar a nuevos conocimientos
Resumo:
This paper describes the development of an Advanced Speech Communication System for Deaf People and its field evaluation in a real application domain: the renewal of Driver’s License. The system is composed of two modules. The first one is a Spanish into Spanish Sign Language (LSE: Lengua de Signos Española) translation module made up of a speech recognizer, a natural language translator (for converting a word sequence into a sequence of signs), and a 3D avatar animation module (for playing back the signs). The second module is a Spoken Spanish generator from sign-writing composed of a visual interface (for specifying a sequence of signs), a language translator (for generating the sequence of words in Spanish), and finally, a text to speech converter. For language translation, the system integrates three technologies: an example-based strategy, a rule-based translation method and a statistical translator. This paper also includes a detailed description of the evaluation carried out in the Local Traffic Office in the city of Toledo (Spain) involving real government employees and deaf people. This evaluation includes objective measurements from the system and subjective information from questionnaires. Finally, the paper reports an analysis of the main problems and a discussion about possible solutions.