9 resultados para ICARUS search and rescue case
em Université de Montréal, Canada
Resumo:
Human telomeres play a major role in stabilizing chromosome ends and preventing fusions. Chromosomes bearing a broken end are rescued by the acquisition of a new telomeric cap without any subtelomeric sequences being present at the breakpoint, a process referred to as chromosome healing. Conversely, a loss of telomeric function or integrity can lead to the presence of interstitial telomeres at the junction site in translocations or ring chromosomes. In order to determine the frequency at which interstitial telomeres or chromosome healing events are observed in target chromosome abnormalities, we conducted a retrospective FISH study using pan-telomeric and chromosome-specific subtelomeric probes on archival material from 40 cases of terminal deletions, translocations or ring chromosomes. Of the 19 terminal deletions investigated, 17 were negative for the subtelomeric probe specific to the deleted arm despite being positive for the pan-telomeric probe. These 17 cases were thus considered as been rescued through chromosome healing, suggesting that this process is frequent in terminal deletions. In addition, as two of these cases were inherited from a parent bearing the same deletion, chromosomes healed by this process are thus stable through mitosis and meiosis. Regarding the 13 cases of translocations and eight ring chromosomes, four and two cases respectively demonstrated pan-telomeric sequences at the interstitial junction point. Furthermore, two cases of translocations and one ring chromosome had both interstitial pan-telomeres and subtelomeres, whereas two other cases of ring chromosomes and one case of translocation only showed interstitial subtelomeres. Therefore, interstitial (sub)telomeric sequences in translocations and ring chromosomes are more common than previously thought, as we found a frequency of 43% in this study. Moreover, our results illustrate the necessity of performing FISH with both subtelomeric and pan-telomeric probes when investigating these rearrangements, as the breakpoints can be either in the distal part of the pan-telomeres, or in between the two types of sequences.
Resumo:
Dans cette thèse, nous construisons un modèle épidémiologique de la dissémina- tion de normes juridiques. L’objectif est d’expliquer la transmission de normes juridiques américaines régissant les tests de dépistages pour drogues au travail vers le Canada ainsi que la propagation subséquente de ces normes à travers la jurisprudence canadienne. La propagation des normes régissant les tests de dépistages pour drogues au travail sert donc à la fois de point de départ pour une réflexion théorique sur la transmission de normes juridiques et pour une étude de cas empirique. Nous partons de la prémisse que les explications du changement juridique, telles celle de la transplantation et celle de l’harmonisation, sont essentiellement métaphoriques. Ces métaphores explicatives fonctionnent en invitant des comparaisons entre les domaines connus et inconnus. Quand ce processus de comparaison est systématisé, la métaphore devient un modèle. Dans la thèse, nous appliquons cette procédure de systématisation afin de transformer la métaphore de la propagation virale en modèle épidémiologique. Après une revue de la littérature sur les épidémies sociales, nous décrivons les éléments pertinents de la théorie épidémiologique pour, ensuite, les transposer au domaine juridique. Le modèle est alors opérationnalisé en l’appliquant à une base de données composée de la jurisprudence pertinente (n=187). Les résultats soutiennent les hypothèses du modèle. 90 % des décisions qui citent les sources américaines sont infectées selon les critères du modèle, alors que seulement 64 % des décisions qui ne citent pas de sources américaines sont infectées. Cela soutient l’hypothèse d’une épidémie dite de « réservoir commun ». Nous avons également démontré une corrélation positive entre la référence à ces décisions et l’état d’infection! : 87 % des décisions qui citent des décisions qui réfèrent aux sources américaines sont infectées, alors que le taux d’infection parmi la population restante est de seulement 53 %. Les résultats semblables ont été obtenus pour les décisions de troisième génération. Cela soutient l’hypothèse selon laquelle il y a eu propagation à travers la jurisprudence suite aux contacts initiaux avec le réservoir commun. Des corrélations positives ont aussi été démontrées entre l’état d’infection et l’appartenance à l’une ou l’autre de sous-populations particulières qui seraient, par hypothèse, des points d’infection. En conclusion de la thèse, nous avançons que c’est seulement après avoir construit un modèle et d’avoir constaté ses limites que nous pouvons vraiment comprendre le rôle des métaphores et des modèles dans l’explication de phénomènes juridiques.
Resumo:
L’approche d’apprentissage par problèmes (APP) a vu le jour, dans sa forme contemporaine, à la Faculté de médecine de l’Université MacMaster en Ontario (Canada) à la fin des années 1960. Très rapidement cette nouvelle approche pédagogique active, centrée sur l’étudiant et basée sur les problèmes biomédicaux, va être adoptée par de nombreuses facultés de médecine de par le monde et gagner d’autres disciplines. Cependant, malgré ce succès apparent, l’APP est aussi une approche controversée, notamment en éducation médicale, où elle a été accusée de favoriser un apprentissage superficiel. Par ailleurs, les étudiants formés par cette approche réussiraient moins bien que les autres aux tests évaluant l’acquisition des concepts scientifiques de base, et il n’a jamais été prouvé que les médecins formés par l’APP seraient meilleurs que les autres. Pour mieux comprendre ces résultats, la présente recherche a voulu explorer l’apprentissage de ces concepts scientifiques, en tant que processus de construction, chez des étudiants formés par l’APP, à la Faculté de médecine de l’Université de Montréal, en nous appuyant sur le cadre théorique socioconstructivisme de Vygotski. Pour cet auteur, la formation des concepts est un processus complexe de construction de sens, en plusieurs étapes, qui ne peut se concevoir que dans le cadre d’une résolution de problèmes. Nous avons réalisé une étude de cas, multicas, intrasite, les cas étant deux groupes de neuf étudiants en médecine avec leur tuteur, que nous avons suivi pendant une session complète de la mi-novembre à la mi-décembre 2007. Deux grands objectifs étaient poursuivis: premièrement, fournir des analyses détaillées et des matériaux réflectifs et théoriques susceptibles de rendre compte du phénomène de construction des concepts scientifiques de base par des étudiants en médecine dans le contexte de l’APP. Deuxièmement, explorer, les approches de travail personnel des étudiants, lors de la phase de travail individuel, afin de répondre à la question de recherche suivante : Comment la dynamique pédagogique de l’APP en médecine permet-elle de rendre compte de l’apprentissage des concepts scientifiques de base? Il s’agissait d’une étude qualitative et les données ont été recueillies par différents moyens : observation non participante et enregistrement vidéo des tutoriaux d’APP, interview semi-structuré des étudiants, discussion avec les tuteurs et consultation de leurs manuels, puis traitées par diverses opérations: transcription des enregistrements, regroupement, classification. L’analyse a porté sur des collections de verbatim issus des transcriptions, sur le suivi de la construction des concepts à travers le temps et les sessions, sur le role du tuteur pour aider au développement de ces concepts Les analyses suggèrent que l’approche d’APP est, en général, bien accueillie, et les débats sont soutenus, avec en moyenne entre trois et quatre échanges par minute. Par rapport au premier objectif, nous avons effectivement fourni des explications détaillées sur la dynamique de construction des concepts qui s'étend lors des trois phases de l'APP, à savoir la phase aller, la phase de recherche individuelle et la phase retour. Pour chaque cas étudié, nous avons mis en évidence les représentations conceptuelles initiales à la phase aller, co-constructions des étudiants, sous la guidance du tuteur et nous avons suivi la transformation de ces concepts spontanés naïfs, lors des discussions de la phase retour. Le choix du cadre théorique socio constructiviste de Vygotski nous a permis de réfléchir sur le rôle de médiation joué par les composantes du système interactif de l'APP, que nous avons considéré comme une zone proximale de développement (ZPD) au sens élargi, qui sont le problème, le tuteur, l'étudiant et ses pairs, les ressources, notamment l'artefact graphique carte conceptuelle utilisée de façon intensive lors des tutoriaux aller et retour, pour arriver à la construction des concepts scientifiques. Notre recherche a montré qu'en revenant de leurs recherches, les étudiants avaient trois genres de représentations conceptuelles: des concepts corrects, des concepts incomplets et des concepts erronés. Il faut donc que les concepts scientifiques théoriques soient à leur tour confrontés au problème concret, dans l'interaction sociale pour une validation des attributs qui les caractérisent. Dans cette interaction, le tuteur joue un rôle clé complexe de facilitateur, de médiateur, essentiellement par le langage. L'analyse thématique de ses interventions a permis d'en distinguer cinq types: la gestion du groupe, l'argumentation, les questions de différents types, le modelling et les conclusions. Nous avons montré le lien entre les questions du tuteur et le type de réponses des étudiants, pour recommander un meilleur équilibre entre les différents types de questions. Les étudiants, également par les échanges verbaux, mais aussi par la construction collective des cartes conceptuelles initiales et définitives, participent à une co-construction de ces concepts. L'analyse de leurs interactions nous a permis de relever différentes fonctions du langage, pour souligner l'intérêt des interactions argumentatives, marqueurs d'un travail collaboratif en profondeur pour la co-construction des concepts Nous avons aussi montré l'intérêt des cartes conceptuelles non seulement pour visualiser les concepts, mais aussi en tant qu'artefact, outil de médiation psychique à double fonction communicative et sémiotique. Concernant le second objectif, l’exploration du travail personnel des étudiants, on constate que les étudiants de première année font un travail plus approfondi de recherche, et utilisent plus souvent des stratégies de lecture plus efficaces que leurs collègues de deuxième année. Ceux-ci se contentent, en général, des ouvrages de référence, font de simples lectures et s’appuient beaucoup sur les résumés faits par leurs prédécesseurs. Le recours aux ouvrages de référence essentiellement comme source d'information apporte une certaine pauvreté au débat à la phase retour avec peu d'échanges de type argumentatif, témoins d'un travail profond. Ainsi donc, par tout ce soutien qu'elle permet d'apporter aux étudiants pour la construction de leurs connaissances, pour le type d'apprentissage qu'elle offre, l’APP reste une approche unique, digne d’intérêt. Cependant, elle nécessite d'être améliorée par des interventions au niveau du tuteur et des étudiants.
Resumo:
Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.
Resumo:
La faune et la flore de l’île de La Réunion atteignent un niveau d’endémisme très élevé avec le tiers de sa surface encore recouverte par des forêts naturelles. Ces conditions exceptionnelles ont favorisé, en 2007, la création du Parc National de La Réunion qui couvre 40 % du territoire. Parmi les différentes atteintes à l’environnement dans les aires du Parc national, le braconnage est devenu, au cours des deux dernières décennies, un phénomène très préoccupant pour les différents acteurs locaux et régionaux qui s’occupent de la gestion de ce problème. Plusieurs espèces braconnées sont actuellement menacées et les dégâts occasionnés par les braconniers sont visibles dans le paysage réunionnais. Ce projet de recherche vise à répondre à la question de recherche suivante : De quelle façon se manifeste le braconnage (les motivations, la fréquence, les techniques, les lieux) dans le Parc national de La Réunion et comment les différents acteurs réagissent-ils face à la pratique du braconnage? La méthodologie de cette recherche repose sur une démarche combinant l’approche exploratoire et l’étude de cas. Les données qualitatives et quantitatives que nous avons utilisées pour cette étude ont été collectées par une recherche bibliographique, une collection de données statistiques, et par des entrevues (exploratoires, semi-dirigées, individuelles non-structurées) réalisées sur le terrain. Les résultats obtenus nous ont permis de constater que le braconnage à La Réunion est un phénomène ancré dans la culture locale et une conséquence directe du contexte économique actuel. Notre recherche a relevé deux catégories de braconniers : les braconniers occasionnels (touristes et braconniers du dimanche) et les braconniers professionnels. Le braconnage de type occasionnel est très largement répandu dans la population, car il s’inscrit dans une continuité des traditions. Le braconnage de type professionnel où le braconnier prélève de façon systématique dans la nature à des fins monétaires, est pratiqué par peu de gens, mais il occasionne de lourdes pertes contrairement au braconnage de type occasionnel. Les différentes méthodes mises en place par les divers acteurs impliqués dans la gestion du braconnage ont été répertoriées et examinées. Tandis que le poinçonnage des plants de vanille et le marquage des tangues sont efficaces, la délation des braconniers et les visites éducatives restent des pistes à explorer, et les conférences rééducatives des braconniers ainsi que la vente de permis de chasse au tangue ont démontré une faible efficacité. Des recommandations pour améliorer la dynamique entre les acteurs impliqués dans la gestion du braconnage ont été données par plusieurs de ces acteurs interrogés au cours de cette recherche.
Resumo:
Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.
Resumo:
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.