988 resultados para formalisation de la sémantique
Resumo:
Esta dissertação é o resultado de dois anos de estudo e de pesquisa dedicados à formação, à estrutura e ao funcionamento da língua portuguesa. A inconformidade com o tratamento um tanto superficial que os compêndios gramaticais prescritivos, sobretudo os escolares, têm dado à classificação das conjunções coordenativas adversativas e das subordinativas adverbiais concessivas e, por conseguinte, das orações em que elas se inserem, foi a motivação e é o que justifica a escolha do tema. Essa maneira de abordar a questão tem misturado descrições sintáticas com semânticas, sem, muitas vezes, levar em consideração a aplicabilidade e a pertinência de uma ou de outra oração no discurso. Dessa forma, esta dissertação se propõe a descrever os comportamentos morfossintáticos e semântico- -pragmáticos dos períodos formados com as conjunções mas e embora à luz da semântica enunciativa, e a averiguar até que ponto a vagueza de abordagem desse tema tem refletido na formação daqueles que têm a língua portuguesa como língua materna no Brasil. Para tanto, o trabalho apresenta a seguinte estrutura: num primeiro momento, serão considerados a metodologia usada para a feitura do trabalho e os pressupostos teóricos que melhor fundamentam-no. A teoria está dividida em três momentos, a saber, o enfoque dado pela tradição gramatical, o enfoque dado pela linguística à noção de coordenação e de subordinação, e o enfoque dado pela semântica enunciativa às conjunções mas e embora. Num segundo momento, serão explanadas as análises feitas dos corpora presentes no texto: um para corroborar as ideias presentes em um dos capítulos teóricos (corpus de textos de opinião); e outro para averiguar se a superficialidade da abordagem do tema ao longo do tempo tem afetado na formação de leitores e escritores proficientes em língua portuguesa (corpus de transcrição). A análise do segundo corpus o corpus de transcrição, em que pessoas de diferentes níveis de estudo foram testadas no que tange ao conhecimento acerca da transformação de períodos compostos por coordenação adversativa em subordinação adverbial concessiva e vice-versa; além de se descobrir se não iniciariam uma frase com a conjunção adversativa mas tem capítulo à parte e revelará o que não é tão difícil de pressupor: 67,4% das frases transcritas revelam o desconhecimento que as pessoas têm acerca da diferença morfossintática e semântico-pragmática de períodos formados pelas conjunções adversativa e concessiva, mas e embora, respectivamente
Resumo:
L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.
Resumo:
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.
Resumo:
Cette recherche porte sur l’interface entre la sémantique lexicale et la syntaxe, et elle s’inscrit dans le cadre du projet de base lexicale DiCo (acronyme pour Dictionnaire de combinatoire) à l’Observatoire de Linguistique Sens-Texte [OLST] de l’Université de Montréal. Le projet découle d'une volonté d'inscrire de façon concise et complète, à même le dictionnaire, le comportement syntaxique typique à chaque unité lexicale. Dans cette optique, nous encodons la cooccurrence des lexies nominales du DiCo avec leurs actants à l'intérieur d'un tableau de régime lexical (aussi connu sous le nom de schéma valenciel, structure argumentale, cadre de sous-catégorisation, structure prédicats-arguments, etc.), en notant entre autres les dépendances syntaxiques de surface impliquées. Dans ce mémoire, nous présentons les propriétés syntaxiques d'une dépendance nominale du français, celle que nous avons nommée attributive adnominale, de façon à exposer une méthodologie d'identification et de caractérisation des dépendances syntaxiques de surface. Nous donnons également la liste des dépendances nominales régies identifiées au cours de ce travail. Par la suite, nous exposons la création d'une base de données de régimes généralisés du français nommée CARNAVAL. Finalement, nous discutons des applications possibles de notre travail, particulièrement en ce qui a trait à la création d'une typologie des régimes lexicaux du français.
Resumo:
Dans la sémantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte événementiel ou situationnel dans lequel ils s’inscrivent. FrameNet, une ressource lexicale pour l’anglais, définit environ 1000 cadres conceptuels, couvrant l’essentiel des contextes possibles. Dans un cadre conceptuel, un prédicat appelle des arguments pour remplir les différents rôles sémantiques associés au cadre (par exemple : Victime, Manière, Receveur, Locuteur). Nous cherchons à annoter automatiquement ces rôles sémantiques, étant donné le cadre sémantique et le prédicat. Pour cela, nous entrainons un algorithme d’apprentissage machine sur des arguments dont le rôle est connu, pour généraliser aux arguments dont le rôle est inconnu. On utilisera notamment des propriétés lexicales de proximité sémantique des mots les plus représentatifs des arguments, en particulier en utilisant des représentations vectorielles des mots du lexique.
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
Cette recherche analyse les pratiques de correction de textes de l'enseignement du 1, 2 et 3 ème niveau. Nous avons parti de discutions avec les professeurs de Langue Portugaise des troisièmes annèes d‟une école appartenant au enseignement publique, située à la ville d‟Assu RN. L'étude a les postulats théoriques de Cruz (2007), Dellagnelo (1998), Oliveira (2005), Pécora (1999), Ruiz (2001), Serafini (1989), et d‟autres. La méthodologie est de nature qualitative et d‟interpretation, dont le matériel a été constitué à partir des rapports des enseignants professionnels, ainsi que les 92 textes recueillies entre juillet et août 2008. Les dés montrent que la correction se configure comme un travail pratique, qui vise à aider les étudiants à améliorer leur écriture. Les professeurs font la correction d‟une forme mélangée, c'est-à-dire dans le texte apparaissent les corrections orthographiques, lexicales, etc., mais la prédominance de la correction est par rapport aux idées, pour le contenu du texte. Dans ce sens, les professeurs se rendent compte du valeur et de la hiérarchisation des idées discutées par les élèves, les reconnaître comme l'organisation de la sémantique et la séquence du texte. Tous les autres aspects (structurelles, grammaticaux) sont importants, cependant, en général, dans la pratique de correction des études, l‟exposition les idées occupent une place importante. Les marques de correction apparaissent sous la forme de petits billets, qui apprécie également toutes les étapes de l'écriture de texte
Resumo:
Pós-graduação em Estudos Literários - FCLAR
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
La réflexion et la pratique linguistique en Suisse dépassent, de loin et de manière significative, le saussurisme et «l’école genevoise de linguistique»: la présente étude montre, à partir d’un examen détaillé de l’émergence et de l’évolution de la linguistique romane en Suisse, dans ses rapports étroits avec la philologie et la linguistique générale, comment les linguistes suisses ont apporté une contribution fondamentale et durable à la linguistique historico-comparative, à la sémantique et l’onomasiologie, à la dialectologie, à la lexicologie et lexicographie, voire à une sociolinguistique avant la lettre. C’est l’histoire de la linguistique en Suisse pendant les deux derniers siècles qui est retracée ici à travers une analyse minutieuse des programmes universitaires, des enseignements et des publications des linguistes romanistes ayant déployé leur activité dans une des sept universités suisses. L’étude comporte 4 chapitres: «Saussure et les autres»; «Un système universitaire en mutation»; «Deux déesses jalouses? Philologie et linguistique. Le découpage du savoir au XIXe siècle: Enjeux institutionnels et épistémologiques»; «Les chaires de philologie romane en Suisse: émergence, généalogie et constellation». Une importante bibliographie et un index des noms et des concepts clôturent l’ouvrage.
Resumo:
Berceau du football en Afrique, l’Afrique du Sud a largement contribué à son internationalisation. L’article décrypte la formalisation et la structuration du football sud-africain autour de réseaux politiques et industriels de l’empire victorien. À la fin du XIXe siècle, cinq ans avant même la création officielle de la FIFA, les équipes africaines sont les toutes premières à traverser les mers pour jouer en Europe et en Amérique du Sud. Ces tournées constituent les prémices du football planétaire. As the birthplace of African football, South Africa has greatly helped to give it an international dimension. This paper interprets the way in which South African football was formalised and structured around the political and industrial networks of the Victorian Empire. At the end of the 19th century, five years even before the FIFA was officially created, African teams were the first to go overseas to play in Europe and South America. These tours were the first steps towards the sport’s global dimension.
Resumo:
The uses of the French imperfect have undergone a vast extension throughout the history of the French language. It has become prototypical in contexts such as description where old French used simple past. The prototypical uses have resulted in a large number of stylistic uses: hypothesis, free indirect speech, and the so-called forain, hypocoristique, ludique and narratif. The wide range of uses raises the question of the semantic unity of that form in synchrony as well as in diachrony. Here are gathered for the first time discussions of emergent uses of the imperfect, that are tackled through a variety of approaches (Damourette and Pichon’s, Wilmet’s or Guillaume’s systems, logic semantics or relevance theory). This volume will be of interest for theoreticians interested in linguistic meaning and applied linguists concerned with its organization. Le tiroir de l'imparfait a subi une extension considérable de ses usages à travers l'histoire du français. Il est devenu prototypique dans des contextes comme la description où l'ancienne langue utilisait le passé simple. Ces emplois prototypiques ont donné lieu à un large ensemble d'usages stylistiques. : hypothèse, discours indirect libre, imparfait de politesse, forain, hypocoristique, ludique et narratif. La diversité des usages pose la question de l'unité sémantique de la forme, non seulement en synchronie mais aussi dans les cadres de son évolution diachronique et de son acquisition. Ce problème est appréhendé à travers les analyses de Damourette et Pichon et de Wilmet, par le guillaumisme, la sémantique logique et la pragmatique de la pertinence. Ces cadres permettent d'identifier les paramètres en jeu dans chaque emploi, et les modes de leur application à une problématique sémantique particulièrement délicate. Le présent ouvrage saura donc intéresser autant les théoriciens du sens linguistique que les praticiens concernés par son organisation.