12 resultados para Search and retrieval

em Université de Montréal, Canada


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les filtres de recherche bibliographique optimisés visent à faciliter le repérage de l’information dans les bases de données bibliographiques qui sont presque toujours la source la plus abondante d’évidences scientifiques. Ils contribuent à soutenir la prise de décisions basée sur les évidences. La majorité des filtres disponibles dans la littérature sont des filtres méthodologiques. Mais pour donner tout leur potentiel, ils doivent être combinés à des filtres permettant de repérer les études couvrant un sujet particulier. Dans le champ de la sécurité des patients, il a été démontré qu’un repérage déficient de l’information peut avoir des conséquences tragiques. Des filtres de recherche optimisés couvrant le champ pourraient s’avérer très utiles. La présente étude a pour but de proposer des filtres de recherche bibliographique optimisés pour le champ de la sécurité des patients, d’évaluer leur validité, et de proposer un guide pour l’élaboration de filtres de recherche. Nous proposons des filtres optimisés permettant de repérer des articles portant sur la sécurité des patients dans les organisations de santé dans les bases de données Medline, Embase et CINAHL. Ces filtres réalisent de très bonnes performances et sont spécialement construits pour les articles dont le contenu est lié de façon explicite au champ de la sécurité des patients par leurs auteurs. La mesure dans laquelle on peut généraliser leur utilisation à d’autres contextes est liée à la définition des frontières du champ de la sécurité des patients.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’approche d’apprentissage par problèmes (APP) a vu le jour, dans sa forme contemporaine, à la Faculté de médecine de l’Université MacMaster en Ontario (Canada) à la fin des années 1960. Très rapidement cette nouvelle approche pédagogique active, centrée sur l’étudiant et basée sur les problèmes biomédicaux, va être adoptée par de nombreuses facultés de médecine de par le monde et gagner d’autres disciplines. Cependant, malgré ce succès apparent, l’APP est aussi une approche controversée, notamment en éducation médicale, où elle a été accusée de favoriser un apprentissage superficiel. Par ailleurs, les étudiants formés par cette approche réussiraient moins bien que les autres aux tests évaluant l’acquisition des concepts scientifiques de base, et il n’a jamais été prouvé que les médecins formés par l’APP seraient meilleurs que les autres. Pour mieux comprendre ces résultats, la présente recherche a voulu explorer l’apprentissage de ces concepts scientifiques, en tant que processus de construction, chez des étudiants formés par l’APP, à la Faculté de médecine de l’Université de Montréal, en nous appuyant sur le cadre théorique socioconstructivisme de Vygotski. Pour cet auteur, la formation des concepts est un processus complexe de construction de sens, en plusieurs étapes, qui ne peut se concevoir que dans le cadre d’une résolution de problèmes. Nous avons réalisé une étude de cas, multicas, intrasite, les cas étant deux groupes de neuf étudiants en médecine avec leur tuteur, que nous avons suivi pendant une session complète de la mi-novembre à la mi-décembre 2007. Deux grands objectifs étaient poursuivis: premièrement, fournir des analyses détaillées et des matériaux réflectifs et théoriques susceptibles de rendre compte du phénomène de construction des concepts scientifiques de base par des étudiants en médecine dans le contexte de l’APP. Deuxièmement, explorer, les approches de travail personnel des étudiants, lors de la phase de travail individuel, afin de répondre à la question de recherche suivante : Comment la dynamique pédagogique de l’APP en médecine permet-elle de rendre compte de l’apprentissage des concepts scientifiques de base? Il s’agissait d’une étude qualitative et les données ont été recueillies par différents moyens : observation non participante et enregistrement vidéo des tutoriaux d’APP, interview semi-structuré des étudiants, discussion avec les tuteurs et consultation de leurs manuels, puis traitées par diverses opérations: transcription des enregistrements, regroupement, classification. L’analyse a porté sur des collections de verbatim issus des transcriptions, sur le suivi de la construction des concepts à travers le temps et les sessions, sur le role du tuteur pour aider au développement de ces concepts Les analyses suggèrent que l’approche d’APP est, en général, bien accueillie, et les débats sont soutenus, avec en moyenne entre trois et quatre échanges par minute. Par rapport au premier objectif, nous avons effectivement fourni des explications détaillées sur la dynamique de construction des concepts qui s'étend lors des trois phases de l'APP, à savoir la phase aller, la phase de recherche individuelle et la phase retour. Pour chaque cas étudié, nous avons mis en évidence les représentations conceptuelles initiales à la phase aller, co-constructions des étudiants, sous la guidance du tuteur et nous avons suivi la transformation de ces concepts spontanés naïfs, lors des discussions de la phase retour. Le choix du cadre théorique socio constructiviste de Vygotski nous a permis de réfléchir sur le rôle de médiation joué par les composantes du système interactif de l'APP, que nous avons considéré comme une zone proximale de développement (ZPD) au sens élargi, qui sont le problème, le tuteur, l'étudiant et ses pairs, les ressources, notamment l'artefact graphique carte conceptuelle utilisée de façon intensive lors des tutoriaux aller et retour, pour arriver à la construction des concepts scientifiques. Notre recherche a montré qu'en revenant de leurs recherches, les étudiants avaient trois genres de représentations conceptuelles: des concepts corrects, des concepts incomplets et des concepts erronés. Il faut donc que les concepts scientifiques théoriques soient à leur tour confrontés au problème concret, dans l'interaction sociale pour une validation des attributs qui les caractérisent. Dans cette interaction, le tuteur joue un rôle clé complexe de facilitateur, de médiateur, essentiellement par le langage. L'analyse thématique de ses interventions a permis d'en distinguer cinq types: la gestion du groupe, l'argumentation, les questions de différents types, le modelling et les conclusions. Nous avons montré le lien entre les questions du tuteur et le type de réponses des étudiants, pour recommander un meilleur équilibre entre les différents types de questions. Les étudiants, également par les échanges verbaux, mais aussi par la construction collective des cartes conceptuelles initiales et définitives, participent à une co-construction de ces concepts. L'analyse de leurs interactions nous a permis de relever différentes fonctions du langage, pour souligner l'intérêt des interactions argumentatives, marqueurs d'un travail collaboratif en profondeur pour la co-construction des concepts Nous avons aussi montré l'intérêt des cartes conceptuelles non seulement pour visualiser les concepts, mais aussi en tant qu'artefact, outil de médiation psychique à double fonction communicative et sémiotique. Concernant le second objectif, l’exploration du travail personnel des étudiants, on constate que les étudiants de première année font un travail plus approfondi de recherche, et utilisent plus souvent des stratégies de lecture plus efficaces que leurs collègues de deuxième année. Ceux-ci se contentent, en général, des ouvrages de référence, font de simples lectures et s’appuient beaucoup sur les résumés faits par leurs prédécesseurs. Le recours aux ouvrages de référence essentiellement comme source d'information apporte une certaine pauvreté au débat à la phase retour avec peu d'échanges de type argumentatif, témoins d'un travail profond. Ainsi donc, par tout ce soutien qu'elle permet d'apporter aux étudiants pour la construction de leurs connaissances, pour le type d'apprentissage qu'elle offre, l’APP reste une approche unique, digne d’intérêt. Cependant, elle nécessite d'être améliorée par des interventions au niveau du tuteur et des étudiants.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le réseau de distribution aérien, ou plus simplement le réseau de poteaux de bois et ses câbles, est encore aujourd’hui omniprésent dans la majorité des villes du Québec. Pour plusieurs, le réseau de poteaux d’utilité publique semble appartenir à une autre époque. Pourtant, les poteaux et câbles ne sont pas près de disparaître, au contraire, ils ne cessent de se transformer. Depuis peu, de plus en plus d’équipements s’ajoutent sur le réseau: boîtiers techniques, nombre de câbles, appareillages au sommet des poteaux, antennes de communication, etc. Bien que les équipements du réseau de distribution aérien soient des éléments produits industriellement, ceux-ci intègrent rarement les services du design industriel au moment de leur conception initiale. Cette recherche étudie le système de distribution aérien sous l’angle de la « pensée design ». L’intention de cette étude est d’analyser les impacts de la présence du réseau aérien en milieux urbains et a pour objectif d’orienter les pratiques de conception de ce type d’équipements. Pour ce faire, dans une optique transdisciplinaire, diverses approches ont été sollicitées dont: l’approche systémique, l’approche paysage et les approches des partenaires des réseaux. Au moyen d’une recherche documentaire et d’observations faites sur le terrain, la recherche vise à dresser un portrait général du réseau de distribution aérien et les défis qui y sont associés. La recherche expose, dans un état des lieux, les résultats issus des questions analytiques de recherche suivantes: de quoi est composé le réseau de distribution aérien, quels sont les intervenants sur le réseau, quelles sont leurs interactions, quels sont les points de vue des différentes catégories d’acteurs en relation avec le réseau, quels sont les impacts reliés à la présence du réseau en milieux urbains et quelle a été son évolution au fil des années. Dans la perspective de l’approche design, chercher à comprendre une problématique de façon plus large permet de s’assurer que l’on répond au bon problème, que l’on considère tous les facteurs en cause visant ainsi à réduire les répercussions négatives sur les contextes de vie actuels et futurs. Les principaux constats de cette recherche démontrent que la composition du réseau de distribution, avant même de considérer les nouveaux usages et l’ajout de nouveaux équipements, présente des lacunes importantes. La gestion entre les divers partenaires du réseau de distribution pose aussi problème. L’ajout de nouveaux équipements sur le réseau, combiné aux multiples équipements apparaissant sur les voies publiques laisse entrevoir l’atteinte d’un niveau de saturation des milieux urbains. Les façons de faire hermétiques et «cristallisées» des partenaires du réseau ne collent pas avec les initiatives et aspirations générales en matière d’aménagement. En étudiant la problématique du réseau de distribution par le biais de la pensée design, l’approche design cherche à déceler, de façon proactive, les opportunités de design qui permettront de mieux gérer l’apparition et l’intégration des nouveaux équipements sur les poteaux. Cette démarche permet d’envisager des solutions qui visent à limiter les répercussions collatérales une fois en contexte et qui, du même coup, adressent des problématiques connexes. Finalement, à la lumière de l’état des lieux, cette recherche propose des critères de conception de futurs réseaux de distribution, élaborés dans l’esprit de l’approche design.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette étude tente de saisir l’ambiguïté du propos pessimiste dans trois romans de Catulle Mendès (1841-1909). D’un côté, la construction du héros suggère une critique psychopathologique du pessimisme conforme au moralisme de la doxa fin-de-siècle qui dénie à cette pensée toute valeur spéculative. De l’autre, la représentation d’une société dissimulatrice contre laquelle le héros est en lutte confère à celui-ci un pouvoir de dévoilement. Cette tension se trouve condensée dans le concept de monstre qui fait l’objet d’une double lecture, à la fois pathologique et herméneutique. La conscience du héros étant conforme par sa stérilité à la conscience décadente telle qu’elle est définie par Jankélévitch, le système de pensée qu’elle féconde peut être assimilé à un monstre. Or, le sens premier du monstre pessimiste est le caractère inhumain de la vérité, autant comme quête que comme révélation. Seul un monstre peut porter la vérité car celle-ci est à sa mesure, intolérable. Elle renvoie l’homme à la toute-puissance de l’instinct dont découlent ses idéaux. Partant d’une conception pessimiste, le propos de Mendès débouche ainsi sur une morale idéaliste qui prône contre l’universelle tare le mensonge universel.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Bien que l’on ait longtemps considéré que les substrats cérébraux de la mémoire sémantique (MS) demeuraient intacts au cours du vieillissement normal (VN), en raison d’une préservation de la performance des personnes âgées à des épreuves sémantiques, plusieurs études récentes suggèrent que des modifications cérébrales sous-tendant le traitement sémantique opèrent au cours du vieillissement. Celles-ci toucheraient principalement les régions responsables des aspects exécutifs du traitement sémantique, impliqués dans les processus de recherche, de sélection et de manipulation stratégique de l’information sémantique. Cependant, les mécanismes spécifiques régissant la réorganisation cérébrale du traitement sémantique au cours du VN demeurent méconnus, notamment en raison de divergences méthodologiques entre les études. De plus, des données de la littérature suggèrent que des modifications cérébrales associées au vieillissement pourraient également avoir lieu en relation avec les aspects perceptifs visuels du traitement des mots. Puisque le processus de lecture des mots représente un processus interactif et dynamique entre les fonctions perceptuelles de bas niveau et les fonctions de plus haut niveau tel que la MS, il pourrait exister des modifications liées à l’âge au plan des interactions cérébrales entre les aspects perceptifs et sémantiques du traitement des mots. Dans son ensemble, l’objectif de la présente thèse était de caractériser les modifications cérébrales ainsi que le décours temporel du signal cérébral qui sont associés au traitement sémantique ainsi qu’au traitement perceptif des mots en lien avec le VN, ainsi que les relations et les modulations entre les processus sémantiques et perceptifs au cours du VN, en utilisant la magnétoencéphalographie (MEG) comme technique d’investigation. Dans un premier temps (chapitre 2), les patrons d’activation cérébrale d’un groupe de participants jeunes et d’un groupe de participants âgés sains ont été comparés alors qu’ils effectuaient une tâche de jugement sémantique sur des mots en MEG, en se concentrant sur le signal autour de la N400, une composante associée au traitement sémantique. Les résultats démontrent que des modifications cérébrales liées à l’âge touchent principalement les structures impliquées dans les aspects exécutifs du traitement sémantique. Une activation plus importante du cortex préfrontal inférieur (IPC) a été observée chez les participants jeunes que chez les participants âgés, alors que ces derniers activaient davantage les régions temporo-pariétales que les jeunes adultes. Par ailleurs, le lobe temporal antérieur (ATL) gauche, considéré comme une région centrale et amodale du traitement sémantique, était également davantage activé par les participants âgés que par les jeunes adultes. Dans un deuxième temps (chapitre 3), les patrons d’activation cérébrale d’un groupe de participants jeunes et d’un groupe de participants âgés sains ont été comparés en se concentrant sur le signal associé au traitement perceptif visuel, soit dans les 200 premières millisecondes du traitement des mots. Les résultats montrent que des modifications cérébrales liées à l’âge touchent le gyrus fusiforme mais aussi le réseau sémantique, avec une plus grande activation pour le groupe de participants âgés, malgré une absence de différence d’activation dans le cortex visuel extrastrié entre les deux groupes. Les implications théoriques des résultats de ces deux études sont ensuite discutées, et les limites et perspectives futures sont finalement adressées (chapitre 4).