820 resultados para Longues sentences


Relevância:

10.00% 10.00%

Publicador:

Resumo:

An important part of human intelligence, both historically and operationally, is our ability to communicate. We learn how to communicate, and maintain our communicative skills, in a society of communicators – a highly effective way to reach and maintain proficiency in this complex skill. Principles that might allow artificial agents to learn language this way are in completely known at present – the multi-dimensional nature of socio-communicative skills are beyond every machine learning framework so far proposed. Our work begins to address the challenge of proposing a way for observation-based machine learning of natural language and communication. Our framework can learn complex communicative skills with minimal up-front knowledge. The system learns by incrementally producing predictive models of causal relationships in observed data, guided by goal-inference and reasoning using forward-inverse models. We present results from two experiments where our S1 agent learns human communication by observing two humans interacting in a realtime TV-style interview, using multimodal communicative gesture and situated language to talk about recycling of various materials and objects. S1 can learn multimodal complex language and multimodal communicative acts, a vocabulary of 100 words forming natural sentences with relatively complex sentence structure, including manual deictic reference and anaphora. S1 is seeded only with high-level information about goals of the interviewer and interviewee, and a small ontology; no grammar or other information is provided to S1 a priori. The agent learns the pragmatics, semantics, and syntax of complex utterances spoken and gestures from scratch, by observing the humans compare and contrast the cost and pollution related to recycling aluminum cans, glass bottles, newspaper, plastic, and wood. After 20 hours of observation S1 can perform an unscripted TV interview with a human, in the same style, without making mistakes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An important part of human intelligence is the ability to use language. Humans learn how to use language in a society of language users, which is probably the most effective way to learn a language from the ground up. Principles that might allow an artificial agents to learn language this way are not known at present. Here we present a framework which begins to address this challenge. Our auto-catalytic, endogenous, reflective architecture (AERA) supports the creation of agents that can learn natural language by observation. We present results from two experiments where our S1 agent learns human communication by observing two humans interacting in a realtime mock television interview, using gesture and situated language. Results show that S1 can learn multimodal complex language and multimodal communicative acts, using a vocabulary of 100 words with numerous sentence formats, by observing unscripted interaction between the humans, with no grammar being provided to it a priori, and only high-level information about the format of the human interaction in the form of high-level goals of the interviewer and interviewee and a small ontology. The agent learns both the pragmatics, semantics, and syntax of complex sentences spoken by the human subjects on the topic of recycling of objects such as aluminum cans, glass bottles, plastic, and wood, as well as use of manual deictic reference and anaphora.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A methodology for developing an advanced communications system for the Deaf in a new domain is presented in this paper. This methodology is a user-centred design approach consisting of four main steps: requirement analysis, parallel corpus generation, technology adaptation to the new domain, and finally, system evaluation. During the requirement analysis, both the user and technical requirements are evaluated and defined. For generating the parallel corpus, it is necessary to collect Spanish sentences in the new domain and translate them into LSE (Lengua de Signos Española: Spanish Sign Language). LSE is represented by glosses and using video recordings. This corpus is used for training the two main modules of the advanced communications system to the new domain: the spoken Spanish into the LSE translation module and the Spanish generation from the LSE module. The main aspects to be generated are the vocabularies for both languages (Spanish words and signs), and the knowledge for translating in both directions. Finally, the field evaluation is carried out with deaf people using the advanced communications system to interact with hearing people in several scenarios. In this evaluation, the paper proposes several objective and subjective measurements for evaluating the performance. In this paper, the new considered domain is about dialogues in a hotel reception. Using this methodology, the system was developed in several months, obtaining very good performance: good translation rates (10% Sign Error Rate) with small processing times, allowing face-to-face dialogues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo que se presenta a continuación desarrolla un modelo para calcular la distancia semántica entre dos oraciones representadas por grafos UNL. Este problema se plantea en el contexto de la traducción automática donde diferentes traductores pueden generar oraciones ligeramente diferentes partiendo del mismo original. La medida de distancia que se propone tiene como objetivo proporcionar una evaluación objetiva sobre la calidad del proceso de generación del texto. El autor realiza una exploración del estado del arte sobre esta materia, reuniendo en un único trabajo los modelos propuestos de distancia semántica entre conceptos, los modelos de comparación de grafos y las pocas propuestas realizadas para calcular distancias entre grafos conceptuales. También evalúa los pocos recursos disponibles para poder experimentar el modelo y plantea una metodología para generar los conjuntos de datos que permitirían aplicar la propuesta con el rigor científico necesario y desarrollar la experimentación. Utilizando las piezas anteriores se propone un modelo novedoso de comparación entre grafos conceptuales que permite utilizar diferentes algoritmos de distancia entre conceptos y establecer umbrales de tolerancia para permitir una comparación flexible entre las oraciones. Este modelo se programa utilizando C++, se alimenta con los recursos a los que se ha hecho referencia anteriormente, y se experimenta con un conjunto de oraciones creado por el autor ante la falta de otros recursos disponibles. Los resultados del modelo muestran que la metodología y la implementación pueden conducir a la obtención de una medida de distancia entre grafos UNL con aplicación en sistemas de traducción automática, sin embargo, la carencia de recursos y de datos etiquetados con los que validar el algoritmo requieren un esfuerzo previo importante antes de poder ofrecer resultados concluyentes.---ABSTRACT---The work presented here develops a model to calculate the semantic distance between two sentences represented by their UNL graphs. This problem arises in the context of machine translation where different translators can generate slightly different sentences from the same original. The distance measure that is proposed aims to provide an objective evaluation on the quality of the process involved in the generation of text. The author carries out an exploration of the state of the art on this subject, bringing together in a single work the proposed models of semantic distance between concepts, models for comparison of graphs and the few proposals made to calculate distances between conceptual graphs. It also assesses the few resources available to experience the model and presents a methodology to generate the datasets that would be needed to develop the proposal with the scientific rigor required and to carry out the experimentation. Using the previous parts a new model is proposed to compute differences between conceptual graphs; this model allows the use of different algorithms of distance between concepts and is parametrized in order to be able to perform a flexible comparison between the resulting sentences. This model is implemented in C++ programming language, it is powered with the resources referenced above and is experienced with a set of sentences created by the author due to the lack of other available resources. The results of the model show that the methodology and the implementation can lead to the achievement of a measure of distance between UNL graphs with application in machine translation systems, however, lack of resources and of labeled data to validate the algorithm requires an important effort to be done first in order to be able to provide conclusive results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis que se presenta tiene como propósito la construcción automática de ontologías a partir de textos, enmarcándose en el área denominada Ontology Learning. Esta disciplina tiene como objetivo automatizar la elaboración de modelos de dominio a partir de fuentes información estructurada o no estructurada, y tuvo su origen con el comienzo del milenio, a raíz del crecimiento exponencial del volumen de información accesible en Internet. Debido a que la mayoría de información se presenta en la web en forma de texto, el aprendizaje automático de ontologías se ha centrado en el análisis de este tipo de fuente, nutriéndose a lo largo de los años de técnicas muy diversas provenientes de áreas como la Recuperación de Información, Extracción de Información, Sumarización y, en general, de áreas relacionadas con el procesamiento del lenguaje natural. La principal contribución de esta tesis consiste en que, a diferencia de la mayoría de las técnicas actuales, el método que se propone no analiza la estructura sintáctica superficial del lenguaje, sino que estudia su nivel semántico profundo. Su objetivo, por tanto, es tratar de deducir el modelo del dominio a partir de la forma con la que se articulan los significados de las oraciones en lenguaje natural. Debido a que el nivel semántico profundo es independiente de la lengua, el método permitirá operar en escenarios multilingües, en los que es necesario combinar información proveniente de textos en diferentes idiomas. Para acceder a este nivel del lenguaje, el método utiliza el modelo de las interlinguas. Estos formalismos, provenientes del área de la traducción automática, permiten representar el significado de las oraciones de forma independiente de la lengua. Se utilizará en concreto UNL (Universal Networking Language), considerado como la única interlingua de propósito general que está normalizada. La aproximación utilizada en esta tesis supone la continuación de trabajos previos realizados tanto por su autor como por el equipo de investigación del que forma parte, en los que se estudió cómo utilizar el modelo de las interlinguas en las áreas de extracción y recuperación de información multilingüe. Básicamente, el procedimiento definido en el método trata de identificar, en la representación UNL de los textos, ciertas regularidades que permiten deducir las piezas de la ontología del dominio. Debido a que UNL es un formalismo basado en redes semánticas, estas regularidades se presentan en forma de grafos, generalizándose en estructuras denominadas patrones lingüísticos. Por otra parte, UNL aún conserva ciertos mecanismos de cohesión del discurso procedentes de los lenguajes naturales, como el fenómeno de la anáfora. Con el fin de aumentar la efectividad en la comprensión de las expresiones, el método provee, como otra contribución relevante, la definición de un algoritmo para la resolución de la anáfora pronominal circunscrita al modelo de la interlingua, limitada al caso de pronombres personales de tercera persona cuando su antecedente es un nombre propio. El método propuesto se sustenta en la definición de un marco formal, que ha debido elaborarse adaptando ciertas definiciones provenientes de la teoría de grafos e incorporando otras nuevas, con el objetivo de ubicar las nociones de expresión UNL, patrón lingüístico y las operaciones de encaje de patrones, que son la base de los procesos del método. Tanto el marco formal como todos los procesos que define el método se han implementado con el fin de realizar la experimentación, aplicándose sobre un artículo de la colección EOLSS “Encyclopedia of Life Support Systems” de la UNESCO. ABSTRACT The purpose of this thesis is the automatic construction of ontologies from texts. This thesis is set within the area of Ontology Learning. This discipline aims to automatize domain models from structured or unstructured information sources, and had its origin with the beginning of the millennium, as a result of the exponential growth in the volume of information accessible on the Internet. Since most information is presented on the web in the form of text, the automatic ontology learning is focused on the analysis of this type of source, nourished over the years by very different techniques from areas such as Information Retrieval, Information Extraction, Summarization and, in general, by areas related to natural language processing. The main contribution of this thesis consists of, in contrast with the majority of current techniques, the fact that the method proposed does not analyze the syntactic surface structure of the language, but explores his deep semantic level. Its objective, therefore, is trying to infer the domain model from the way the meanings of the sentences are articulated in natural language. Since the deep semantic level does not depend on the language, the method will allow to operate in multilingual scenarios, where it is necessary to combine information from texts in different languages. To access to this level of the language, the method uses the interlingua model. These formalisms, coming from the area of machine translation, allow to represent the meaning of the sentences independently of the language. In this particular case, UNL (Universal Networking Language) will be used, which considered to be the only interlingua of general purpose that is standardized. The approach used in this thesis corresponds to the continuation of previous works carried out both by the author of this thesis and by the research group of which he is part, in which it is studied how to use the interlingua model in the areas of multilingual information extraction and retrieval. Basically, the procedure defined in the method tries to identify certain regularities at the UNL representation of texts that allow the deduction of the parts of the ontology of the domain. Since UNL is a formalism based on semantic networks, these regularities are presented in the form of graphs, generalizing in structures called linguistic patterns. On the other hand, UNL still preserves certain mechanisms of discourse cohesion from natural languages, such as the phenomenon of the anaphora. In order to increase the effectiveness in the understanding of expressions, the method provides, as another significant contribution, the definition of an algorithm for the resolution of pronominal anaphora limited to the model of the interlingua, in the case of third person personal pronouns when its antecedent is a proper noun. The proposed method is based on the definition of a formal framework, adapting some definitions from Graph Theory and incorporating new ones, in order to locate the notions of UNL expression and linguistic pattern, as well as the operations of pattern matching, which are the basis of the method processes. Both the formal framework and all the processes that define the method have been implemented in order to carry out the experimentation, applying on an article of the "Encyclopedia of Life Support Systems" of the UNESCO-EOLSS collection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com esse trabalho, visamos discutir a tentativa de estabelecer um equilíbrio entre o ser humano e natureza na área rural de Judá, pouco antes do reinado de Josias (640-609 a.C.). Nesse caso, pode-se perguntar: seria o mandamento de Deuteronômio 5,12-15 um discurso ecológico? A partir dos estudos de Frank Crüsemann e Haroldo Reimer se admite que partes das leis veterotestamentárias eram destinadas ao assim chamado grupo povo da terra de Judá, visando à manutenção de seu poder. O grupo teria assumido a liderança em Judá mediante um golpe político e, articulando-se, desde então, numa política de aliança para se conservar no poder, mesmo não o assumindo diretamente. Nesse contexto de política de alianças deve-se procurar a implementação do mandamento de Deuteronômio 5,12-15. Ele teria sido escrito por anciãos, um grupo junto ao qual o povo da terra teria se aliado para que ordenassem sentenças jurídicas para a acomodação social. Nesse caso, inicialmente o portão da cidade, espaço oficial para discussões, reclamações e propostas de intermediações, deve ter sido o lugar de elaboração de sentenças jurídicas sobre a utilização de técnicas na agricultura. Sendo elas posteriormente levadas ao tribunal do templo para passar pelas mãos dos sacerdotes, outro braço da coalizão. O uso dos animais de porte, cujo peso prejudicava as pequenas propriedades de terra de Judá, deve ter sido um motivo de incessantes conflitos entre pequenos e grandes proprietários de terra. Ressaltamos assim que apenas os homens mais abastados de Judá tinham acesso a esses animais. Esta solução, segundo se entende, liga o rodízio de culturas ao descanso do campo pertencente ao povo da terra de Judá. Liga-se o termo sábado com a vida da elite rural judaíta do período do reinado de Josias. Uma saída encontrada pelas elites de Judá, a qual nos leva a ponderar uma situação similar que ocorre na América Latina, diante da globalização. Se o texto Deuteronômio 5,12-15 é uma ponderação das elites hegemônicas de Judá que buscam o equilíbrio entre ser o humano e a natureza (ecologia), o discurso ecológico contemporâneo poderá ter neste texto um importante interlocutor. Esse discurso pode ocultar interesses econômicos, completamente diferentes, pois se trata de uma estratégia dominadora e não libertadora, objetivando-se, sobretudo, a reprodução social. O Brasil e os demais países da América Latina vêm sofrendo, há algum tempo, com essa distância entre a elite e o resto da sociedade. Nossas elites utilizam-se, há tempos, do discurso ecológico para se manterem no poder dessas sociedades. Por exemplo, vemos nos noticiários uma quantidade de programas e manchetes ligadas à destruição da natureza. Isso é interessante porque, após terem eles mesmo destruído a natureza, passam agora a defendê-la; controlando as reservas naturais, garantindo sua produtividade e seu status quo no sistema econômico atual.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com esse trabalho, visamos discutir a tentativa de estabelecer um equilíbrio entre o ser humano e natureza na área rural de Judá, pouco antes do reinado de Josias (640-609 a.C.). Nesse caso, pode-se perguntar: seria o mandamento de Deuteronômio 5,12-15 um discurso ecológico? A partir dos estudos de Frank Crüsemann e Haroldo Reimer se admite que partes das leis veterotestamentárias eram destinadas ao assim chamado grupo povo da terra de Judá, visando à manutenção de seu poder. O grupo teria assumido a liderança em Judá mediante um golpe político e, articulando-se, desde então, numa política de aliança para se conservar no poder, mesmo não o assumindo diretamente. Nesse contexto de política de alianças deve-se procurar a implementação do mandamento de Deuteronômio 5,12-15. Ele teria sido escrito por anciãos, um grupo junto ao qual o povo da terra teria se aliado para que ordenassem sentenças jurídicas para a acomodação social. Nesse caso, inicialmente o portão da cidade, espaço oficial para discussões, reclamações e propostas de intermediações, deve ter sido o lugar de elaboração de sentenças jurídicas sobre a utilização de técnicas na agricultura. Sendo elas posteriormente levadas ao tribunal do templo para passar pelas mãos dos sacerdotes, outro braço da coalizão. O uso dos animais de porte, cujo peso prejudicava as pequenas propriedades de terra de Judá, deve ter sido um motivo de incessantes conflitos entre pequenos e grandes proprietários de terra. Ressaltamos assim que apenas os homens mais abastados de Judá tinham acesso a esses animais. Esta solução, segundo se entende, liga o rodízio de culturas ao descanso do campo pertencente ao povo da terra de Judá. Liga-se o termo sábado com a vida da elite rural judaíta do período do reinado de Josias. Uma saída encontrada pelas elites de Judá, a qual nos leva a ponderar uma situação similar que ocorre na América Latina, diante da globalização. Se o texto Deuteronômio 5,12-15 é uma ponderação das elites hegemônicas de Judá que buscam o equilíbrio entre ser o humano e a natureza (ecologia), o discurso ecológico contemporâneo poderá ter neste texto um importante interlocutor. Esse discurso pode ocultar interesses econômicos, completamente diferentes, pois se trata de uma estratégia dominadora e não libertadora, objetivando-se, sobretudo, a reprodução social. O Brasil e os demais países da América Latina vêm sofrendo, há algum tempo, com essa distância entre a elite e o resto da sociedade. Nossas elites utilizam-se, há tempos, do discurso ecológico para se manterem no poder dessas sociedades. Por exemplo, vemos nos noticiários uma quantidade de programas e manchetes ligadas à destruição da natureza. Isso é interessante porque, após terem eles mesmo destruído a natureza, passam agora a defendê-la; controlando as reservas naturais, garantindo sua produtividade e seu status quo no sistema econômico atual.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In three experiments, electric brain waves of 19 subjects were recorded under several different experimental conditions for two purposes. One was to test how well we could recognize which sentence, from a set of 24 or 48 sentences, was being processed in the cortex. The other was to study the invariance of brain waves between subjects. As in our earlier work, the analysis consisted of averaging over trials to create prototypes and test samples, to both of which Fourier transforms were applied, followed by filtering and an inverse transformation to the time domain. A least-squares criterion of fit between prototypes and test samples was used for classification. In all three experiments, averaging over subjects improved the recognition rates. The most significant finding was the following. When brain waves were averaged separately for two nonoverlapping groups of subjects, one for prototypes and the other for test samples, we were able to recognize correctly 90% of the brain waves generated by 48 different sentences about European geography.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo é movido pela curiosidade quanto a como se resolvem, nas traduções do italiano para o português, questões de colocação pronominal. Encontramos, normal e frequentemente, na língua italiana, principalmente na língua falada, pronomes cujos equivalentes em português existem em gramáticas normativas da língua portuguesa, mas que, na prática, não são utilizados pelos falantes e escritores brasileiros. Encontramos, também, na língua italiana, um significativo número de verbos pronominais (como esserci, volerci, averne etc.) e um considerável número de verbos pronominais múltiplos (como andarsene, farcela, fregarsene etc.) que, juntamente com esses pronomes, constituem, para os professores brasileiros de italiano língua estrangeira (LE), elementos difíceis de trabalhar na sala de aula. Além disso, tais elementos também podem dificultar o trabalho dos tradutores, que devem fazer determinadas escolhas ao traduzi-los para o português. Como são traduzidos os pronomes combinados do italiano nas versões brasileiras? Será que os portugueses, que possuem, por exemplo, tais pronomes utilizam-nos em todos os casos em que os encontramos nos textos de partida? E as partículas pronominais são simplesmente eliminadas no texto de chegada ou são substituídas? Tais aspectos, se observados e organizados, podem levar a uma melhor compreensão das duas línguas em contato e dar subsídios a estudantes, professores e tradutores. Pensando nessa dificuldade, esta pesquisa buscou e listou alguns autores e obras disponíveis para consulta e analisou um corpus com cento e sessenta e três ocorrências de pronomes no italiano, mais sete acréscimos de pronomes no português brasileiro (PB) e/ou português europeu (PE), partindo do romance Uno, nessuno e centomila de Luigi Pirandello e suas respectivas traduções em PB e PE. Nosso objetivo consiste em encontrar respostas úteis à diminuição do estranhamento, por parte de um italiano, que escuta, de um brasileiro, frases sem pronomes (ainda que o italiano as entenda) e/ou a sensação de inadequação e, até mesmo, de desconforto, por parte de um brasileiro, ao produzir frases com todos os pronomes. No corpus analisado, temos uma amostra das escolhas e respectivas traduções propostas pelos tradutores para casos de pronomes reflexivos, de pronomes pessoais do caso reto, de pronomes pessoais do caso oblíquo, de pronomes combinados e de partículas pronominais ne, ci e vi, com manutenções, omissões, trocas por outros pronomes (possessivos, retos, oblíquos, demonstrativos) e, até mesmo, uma espécie de compensação numérica com a inclusão de palavra inexistente no texto de partida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Verifica-se, na atualidade, grande multiplicação dos conflitos envolvendo a Previdência Social e seus segurados. Embora sejam vários os motivos que levam ao ajuizamento de ações previdenciárias, identifica-se em grande parte dos casos uma linha condutora que unifica os diversos litigantes (segurados e dependentes) em torno de uma questão comum. Olhando-se de longe, o que se vê é uma série de ações individuais, cada uma com suas peculiaridades, que buscam as mesmas reparações e ajustes. Há, nesses casos, o ajuizamento em massa de ações com conteúdo semelhante, o que irá gerar sentenças, recursos e execuções múltiplos e, em vários casos, apresentando soluções divergentes. Desse modo, ainda que se tratem de direitos que podem ser tutelados individualmente, há que se buscar a tutela por um prisma coletivo, de modo a se trazer efetividade e segurança na área previdenciária. E uma dessas formas consiste no uso da ação civil pública em questões previdenciárias. Mecanismo relativamente recente em nosso ordenamento, introduzido em 1985, a ação civil pública encontra-se hoje plenamente integrada àquilo que se chama de microssistema de tutela coletiva, admitindo tanto a defesa de direitos difusos, quanto de coletivos stricto sensu e mesmo de direitos individuais homogêneos. O esforço que merece atenção, portanto, consiste na caracterização do Direito Previdenciário numa dessas três categorias de direitos coletivos lato sensu, vez que a tutela no plano coletivo molda-se de acordo com o tipo de direito que se está a tutelar. Ademais, é necessário também que se afaste a interpretação restritiva já superada pela jurisprudência mais atual que exclui os Direitos Previdenciários da esfera de objetos da ação civil pública.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Belief Revision addresses the problem of how to change epistemic states, usually represented in the literature by sets of logical sentences. Solid theoretical results were consolidated with the AGM paradigm, which deals with theories (logically closed sets of sentences). After that, the theory was extended to belief bases, that is, arbitrary sets of sentences. Besides all this theoretical framework, AI researchers face serious difficulties when trying to implement belief revision systems. One of the major complications is the closure required by AGM theory, which cannot be easily computed. Even belief bases, which do not require closure, seem to be improper for practical purposes, since their changes are usually very rigid (syntax dependent). Some operations, known as pseudo-contractions, are in the middle ground between belief set change and belief base change. In the present work we have proposed a new pseudo-contraction operation, studied its properties and characterized it. We have also found connections between this operator and some other pseudo-contractions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes the first participation of IR-n system at Spoken Document Retrieval, focusing on the experiments we made before participation and showing the results we obtained. IR-n system is an Information Retrieval system based on passages and the recognition of sentences to define them. So, the main goal of this experiment is to adapt IR-n system to the spoken document structure by means of the utterance splitter and the overlapping passage technique allowing to match utterances and sentences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article analyzes the appropriateness of a text summarization system, COMPENDIUM, for generating abstracts of biomedical papers. Two approaches are suggested: an extractive (COMPENDIUM E), which only selects and extracts the most relevant sentences of the documents, and an abstractive-oriented one (COMPENDIUM E–A), thus facing also the challenge of abstractive summarization. This novel strategy combines extractive information, with some pieces of information of the article that have been previously compressed or fused. Specifically, in this article, we want to study: i) whether COMPENDIUM produces good summaries in the biomedical domain; ii) which summarization approach is more suitable; and iii) the opinion of real users towards automatic summaries. Therefore, two types of evaluation were performed: quantitative and qualitative, for evaluating both the information contained in the summaries, as well as the user satisfaction. Results show that extractive and abstractive-oriented summaries perform similarly as far as the information they contain, so both approaches are able to keep the relevant information of the source documents, but the latter is more appropriate from a human perspective, when a user satisfaction assessment is carried out. This also confirms the suitability of our suggested approach for generating summaries following an abstractive-oriented paradigm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the chemical textile domain experts have to analyse chemical components and substances that might be harmful for their usage in clothing and textiles. Part of this analysis is performed searching opinions and reports people have expressed concerning these products in the Social Web. However, this type of information on the Internet is not as frequent for this domain as for others, so its detection and classification is difficult and time-consuming. Consequently, problems associated to the use of chemical substances in textiles may not be detected early enough, and could lead to health problems, such as allergies or burns. In this paper, we propose a framework able to detect, retrieve, and classify subjective sentences related to the chemical textile domain, that could be integrated into a wider health surveillance system. We also describe the creation of several datasets with opinions from this domain, the experiments performed using machine learning techniques and different lexical resources such as WordNet, and the evaluation focusing on the sentiment classification, and complaint detection (i.e., negativity). Despite the challenges involved in this domain, our approach obtains promising results with an F-score of 65% for polarity classification and 82% for complaint detection.