369 resultados para Notation musicale. carrée sur trois et quatre lignes rouges
Resumo:
Introduction : Cette étude vise à évaluer la stabilité de la chirurgie LeFort I multisegmentaire à moyen (fin du traitement orthodontique) et à long termes dans les trois plans de l'espace (transversal, antéro-postérieur et vertical). Matériel et méthodes : L'échantillon étudié est composé de 31 patients traités en clinique privée, ayant eu une chirurgie LeFort I multisegmentaire en deux, trois ou quatre morceaux, et ayant terminé leur traitement orthodontique. Parmi eux, 17 patients ayant terminé leur traitement orthodontique depuis plus de deux ans (moyenne de trois ans post-traitement) ont permis d'évaluer la stabilité de la procédure chirurgicale à long terme. La collecte des données a été réalisée sur des modèles et des radiographies céphalométriques latérales pris à des temps précis tout au long du traitement orthodontique, ainsi que pendant la période de contention. Concernant l'analyse statistique, des T-tests et des corrélations de Pearson ont été utilisés. Le test de Bland-Altman et le coefficient de corrélation intra-classe ont permis d'analyser les fiabilités intra-examinateur et inter-examinateurs. Résultats : Une récidive transverse significative, mais très faible cliniquement, est constatée aux niveaux prémolaires et molaires entre la chirurgie et la fin du traitement orthodontique. Elle est corrélée avec l’expansion totale réalisée. Cette récidive transverse est non significative suite au traitement orthodontique. Aucune corrélation statistiquement significative n'est mise en évidence entre le nombre de segments et la récidive transverse postchirurgicale. Une variation de certaines mesures antéro-postérieures et verticales statistiquement significative, mais faible cliniquement, est notée entre la chirurgie et la fin du traitement orthodontique (avancement et impaction postérieure). Pour les mesures antéro-postérieures et verticales, aucun changement n'est statistiquement significatif suite au traitement orthodontique. Conclusion : Pour l'échantillon étudié, la stabilité de l'ostéotomie de type LeFort I multisegmentaire est très bonne, dans les trois plans de l'espace étudiés.
Resumo:
Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.
Resumo:
La maladie de Crohn (MC) et la colite ulcéreuse (CU) sont des maladies inflammatoires de l’intestin (MII) caractérisées par une inflammation chronique du tube digestif. Ces maladies à traits complexes sont le résultat d’un dérèglement du système immunitaire. Les études d’association pangénomique ont identifié au total 99 loci de susceptibilité aux MII. La région 1q32 du chromosome 1 a été identifiée comme locus de susceptibilité à la MC, la CU et la sclérose en plaque. La région autour du marqueur génétique (rs11584383) contient quatre gènes : Chromosome 1 open reading frame 106 (C1orf106), Kinesin family member 21B (KIF21B), Calcium channel, voltage-dependant, L type, alpha 1S subunit (CACNA1S) et Chromosome 1 open reading frame 81 (C1orf81). L’objectif de l’étude est de mettre ces quatres gènes dans un contexte biologique et de déterminer leur rôle potentiel dans les MII. Par réaction de polymérisation en chaîne quantitatif (qPCR), nous avons déterminé le profil d’expression de ces gènes dans des tissus murins et des lignées cellulaires humaines. KIF21B et C1orf106 sont exprimés dans les tissus gastrointestinal et immunitaire. Par la suite, nous avons testé l’implication de KIF21B et C1orf106 dans les voies biologiques connues pour leur rôle dans les MII comme l’activité NF-kB et le stress du réticulum endoplasmique (RE). Nos résultats montrent que la surexpression de KIF21B dans les cellules HEK293T diminue l’activité de NF-kB et la surexpression de C1orf106 augmente le stress du RE et l’activité de la voie Wnt. Globalement, ces résultats suggèrent que KIF21B et C1orf106, dans la région 1q32, sont des gènes candidats prometteurs puisqu’ils interviennent dans des voies biologiques connues des maladies inflammatoire de l’intestin.
Resumo:
L’effet du développement résidentiel des bassins versants sur l’habitat et la distribution des macrophytes dans le littoral de six lacs des Laurentides a été évalué à l’aide de carottes de sédiments et de quadrats. Le développement augmente la proportion de milieux déboisés ce qui réduit l’apport en débris de bois et augmente l’érosion et les apports de nutriments dans les sédiments du littoral. Les sédiments sont plus fins, plus denses et contiennent moins de matière organique. Ces changements favorisent les macrophytes en augmentant leur couverture dans les lacs développés. La présence d’espèces submergées de macrophytes est également favorisée au détriment des espèces à feuilles flottantes, plus caractéristiques des lacs moins développés. Même si la biomasse des macrophytes est limitée dans certains lacs, celle-ci augmente dans les lacs développés et montre des signes d’un effet tampon sur les apports de nutriments. Des quantités équivalentes à des valeurs entre 35 et 230% des apports annuels de phosphore et entre 79 et 659% des apports d’azote par les résidents ont été accumulées dans les tissus des macrophytes des lacs dont le bassin versant est très déboisé. Les sédiments s’enrichissent à la sénescence des macrophytes et contiennent alors plus de nutriments que la colonne d’eau et ce, pour tous les lacs. Une présence accrue d’espèces submergées et plus de nutriments dans les tissus des macrophytes des lacs développés, jumelés à l’absence de prolifération de phytoplancton malgré un plus grand apport de nutriments, laisse penser que les lacs des Laurentides sont en état d’eutrophisation précoce.
Resumo:
Les troubles reliés à la dépression, l’épuisement professionnel et l’anxiété sont de plus en plus répandus dans notre société moderne. La consommation croissante d’antidépresseurs dans les différents pays du monde est responsable de la récente détection de résidus à l’état de traces dans les rejets urbains municipaux. Ainsi, ces substances dites « émergentes » qui possèdent une activité pharmacologique destinée à la régulation de certains neurotransmetteurs dans le cerveau suscitent maintenant de nombreuses inquiétudes de la part de la communauté scientifique. L’objectif principal de ce projet de doctorat a été de mieux comprendre le devenir de plusieurs classes d’antidépresseurs présents dans diverses matrices environnementales (i.e. eaux de surfaces, eaux usées, boues de traitement, tissus biologiques) en développant de nouvelles méthodes analytiques fiables capables de les détecter, quantifier et confirmer par chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (LC-QqQMS, LC-QqToFMS). Une première étude complétée à la station d’épuration de la ville de Montréal a permis de confirmer la présence de six antidépresseurs et quatre métabolites N-desmethyl dans les affluents (2 - 330 ng L-1). Pour ce traitement primaire (physico-chimique), de faibles taux d’enlèvement (≤ 15%) ont été obtenus. Des concentrations d’antidépresseurs atteignant près de 100 ng L-1 ont également été détectées dans le fleuve St-Laurent à 0.5 km du point de rejet de la station d’épuration. Une seconde étude menée à la même station a permis l’extraction sélective d’antidépresseurs dans trois tissus (i.e. foie, cerveau et filet) de truites mouchetées juvéniles exposées à différentes concentrations d’effluent dilué traité et non-traité à l’ozone. Un certain potentiel de bioaccumulation dans les tissus (0.08-10 ng g-1) a été observé pour les spécimens exposés à l’effluent non-traité (20% v/v) avec distribution majoritaire dans le foie et le cerveau. Une intéressante corrélation a été établie entre les concentrations de trois antidépresseurs dans le cerveau et l’activité d’un biomarqueur d’exposition (i.e. pompe N/K ATPase impliquée dans la régulation de la sérotonine) mesurée à partir de synaptosomes de truites exposées aux effluents. Une investigation de l’efficacité de plusieurs stations d’épuration canadiennes opérant différents types de traitements a permis de constater que les traitements secondaires (biologiques) étaient plus performants que ceux primaires (physico-chimiques) pour enlever les antidépresseurs (taux moyen d’enlèvement : 30%). Les teneurs les plus élevées dans les boues traitées (biosolides) ont été obtenues avec le citalopram (1033 ng g-1), la venlafaxine (833 ng g-1) et l’amitriptyline (78 ng g-1). Des coefficients de sorption expérimentaux (Kd) calculés pour chacun des antidépresseurs ont permis d’estimer une grande sorption des composés sertraline, desméthylsertraline, paroxetine et fluoxetine sur les solides (log Kd > 4). Finalement, un excellent taux d’enlèvement moyen de 88% a été obtenu après ozonation (5 mg L-1) d’un effluent primaire. Toutefois, la caractérisation de nouveaux sous-produits N-oxyde (venlafaxine, desmethylvenlafaxine) par spectrométrie de masse à haute résolution (LC-QqToFMS) dans l’effluent traité à l’ozone a mis en lumière la possibilité de formation de multiples composés polaires de toxicité inconnue.
Resumo:
Tant dans la littérature criminologique que dans la pratique, il semble y avoir un intérêt grandissant pour les pratiques de justice réparatrice, dont la médiation, comme mesures de rechange à la justice traditionnelle pour faire face à la criminalité, notamment dans les cas de crimes graves. À ce jour, au Québec et au Canada, il n’y a pas de programmes de justice réparatrice offerts aux jeunes contrevenants ayant commis un délit grave, où le jeune pourrait entreprendre un processus de médiation avec la victime. La présente étude porte donc sur les jeunes contrevenants ayant commis un crime grave et sur l’intérêt d’entreprendre une démarche de médiation dans ces cas. Plus précisément, les objectifs de notre étude étaient de déterminer s’il y avait des conditions ou des contre-indications à la médiation dans les cas de crimes graves commis par des jeunes contrevenants. Nous avions aussi comme objectif d’identifier les bienfaits et les limites de la médiation dans les cas de crimes graves tels que perçus par les interviewés rencontrés. Enfin, puisque des médiateurs et des délégués à la jeunesse ont été rencontrés pour l’étude, nous cherchions à déterminer si des différences pouvaient être observées entre ces deux groupes. Nous avons rencontré huit médiateurs et quatre délégués à la jeunesse dans le but de connaître leur point de vue sur le recours à la médiation dans les cas de crimes graves, principalement pour une clientèle de jeunes contrevenants. L’analyse de ces entrevues nous a permis de relever certaines conditions et contre-indications liées à la médiation dans ces cas. Or, malgré la présence de contre-indications, une préparation accrue des victimes et des jeunes contrevenants permettrait tout de même le recours à la médiation dans presque toutes les situations. Dans l’application de la médiation, il s’avère toutefois important d’adapter la démarche aux besoins des parties.
Resumo:
Codirection: Dr. Gonzalo Lizarralde
Resumo:
Ce mémoire porte sur les intuitions utilisées en philosophie morale contemporaine. Les intuitions sont interrogées sur trois aspects : leur nature, leur fiabilité et leur rôle. Concernant la nature des intuitions, celles-ci sont présentées comme des jugements spontanés ayant une valeur épistémique « à première vue ». Concernant la fiabilité des intuitions, trois grands types de raisons de douter de leur fiabilité sont considérés, à savoir les résultats de certaines études scientifiques montrant de diverses manières leur instabilité, les études réalisées par le mouvement de philosophie expérimentale afin d'illustrer le phénomène du désaccord intuitif, et enfin, le problème de l'origine douteuse des intuitions. Aucune de ces raisons n'est jugée efficace afin de discréditer l'usage des intuitions en philosophie. Concernant le rôle des intuitions, une distinction est proposée entre deux grands types d'usage philosophique contemporain. D'une part, ce qu'on peut appeler la méthodologie standard en philosophie morale contemporaine consiste en une combinaison d’expériences de pensée et de la méthode de l’équilibre réfléchi. Différentes manières d'aborder la méthode de l'équilibre réfléchi sont présentées, et le modèle de l'équilibre réfléchi large développé par Norman Daniels est jugé le plus efficace. D'autre part, les intuitions sont parfois utilisées en philosophie morale contemporaine dans le cadre de la théorie de l'intuitionnisme éthique. La théorie est défendue contre diverses objections, et elle est montrée compatible avec la méthode de l’équilibre réfléchi.
Resumo:
De nos jours, l’idée selon laquelle bon nombre d’individus atteints de psychose peuvent se rétablir sensiblement au fil du temps est de plus en plus répandue. Alors que le milieu médical associe le rétablissement à la rémission symptomatique, les usagers de services en santé mentale le voient plutôt comme un processus où l’absence de symptômes n’est pas une condition sine qua non. Ne s’opposant à ni l’un ni l’autre de ces points de vue, le traitement actuel des psychoses vise le retour à un fonctionnement social approprié. Chez les jeunes atteints d’un premier épisode psychotique, une diminution marquée des symptômes après un traitement pharmacologique se traduit rarement en une amélioration significative du fonctionnement, ce qui justifie la mise en place d’interventions psychosociales. On connait aujourd’hui quelques variables associées au fonctionnement social chez cette population, mais celui-ci a peu été étudié de façon spécifique. De même, on connait mal la manière dont ces jeunes vivent leur rétablissement en tant que processus. Cette thèse porte donc sur le rétablissement et le fonctionnement social de jeunes en début de psychose. La première partie consiste en une introduction aux concepts de rétablissement et de réadaptation, et en une revue de la littérature des interventions psychosociales pouvant favoriser leurs rétablissement et fonctionnement. Plus spécifiquement, nous illustrons comment ces interventions peuvent s’appliquer aux adolescents, clientèle sur laquelle peu de littérature existe actuellement. La deuxième partie présente les résultats d’une étude sur la valeur prédictive de variables sur trois domaines du fonctionnement social de 88 jeunes adultes en début de psychose. Des équations de régression multiple ont révélé qu’un niveau plus élevé de dépression était associé à une vie sociale moins active, qu’un moins bon apprentissage verbal à court terme était associé à un plus bas fonctionnement vocationnel, que le fait d’être de sexe masculin était négativement associé aux habiletés de vie autonome, et qu’un niveau plus élevé de symptômes négatifs prédisait de moins bonnes performances dans les trois sphères du fonctionnement. Finalement, la troisième partie s’intéresse au processus de rétablissement en début de psychose par l’analyse de récits narratifs selon un modèle en cinq stades. Nous avons découvert que l’ensemble de notre échantillon de 47 participants se situaient dans les deux premiers stades de rétablissement lors du premier temps de mesure, et que le fait de se trouver au deuxième stade était associé à de meilleurs scores d’engagement social et de fonctionnement occupationnel, à un meilleur développement narratif, à moins de symptômes négatifs et positifs, et à plus d’années de scolarité. Par ailleurs, l’examen des stades à deux autres temps de mesure a révélé des profils relativement stables sur une période de neuf mois. En somme, les résultats démontrent la nécessité d’évaluer le fonctionnement social de façon plus spécifique et l’importance d’offrir des interventions psychosociales en début de psychose visant notamment le développement des relations et l’intégration scolaire/professionnelle, ou visant à améliorer le faible développement narratif. Cette thèse est, de plus, un premier pas dans l’étude du processus de rétablissement des jeunes atteints de psychose.
Resumo:
Cette thèse s’applique à rendre compte de la manière dont des tensions s’incarnent et s’expriment dans les activités quotidiennes d’une organisation humanitaire, Médecins sans frontières. Pour ce faire, nous faisons appel à une approche dite « constitutive » de la communication, approche qui vise à montrer que les tensions organisationnelles que vivent les intervenants humanitaires dans leur travail peuvent s’analyser à partir des figures qui animent leurs conversations et leurs activités de tous les jours. Par tension, nous entendons l’expérience d’une incompatibilité, antinomie ou opposition vécue ou perçue entre deux ou plusieurs logiques d’action, tandis que la notion de figure renvoie à ce qui anime ces mêmes logiques d’action, soit toute préoccupation, valeur ou intérêt au nom desquels un acteur s’exprime ou agit. Dans cette thèse, nous avons ainsi identifié puis analysé, grâce à une approche d’inspiration ethnographique, cinq figures, trois tensions et trois « scènes communicationnelles » qui, selon nous, illustrent d’une manière fidèle les activités humanitaires de MSF. La présente thèse se veut donc une démonstration empirique, via les pratiques communicationnelles des acteurs, de ces figures et tensions à gérer au quotidien, comblant du coup certaines lacunes dans la littérature portant sur les tensions organisationnelles et l’aide humanitaire. Ces lacunes s’articulent principalement autour d’un manque d’intérêt pour, d’une part, la réalité des pratiques des acteurs en tant que telles, et, d’autre part, l’application d’une vision de la communication proprement constitutive de l’organisation, c’est-à-dire une vision qui reflèterait et exprimerait ce qui anime ses principaux acteurs au quotidien. Comme nous le montrons, ce qui semble animer ou préoccuper MSF (et ses acteurs), ce sont, d’une part, certains principes ou valeurs tels l’indépendance de pratique, la neutralité ou encore l’expérience et le scrupule. Ces idéaux, que les volontaires de MSF cultivent dans leurs conversations et leurs activités, sont donc constamment pris en considération lors de la mise sur pied et la réalisation des missions de cette célèbre organisation. D’autre part, une autre source d’animation se retrouve aussi au niveau des lieux et environnements complexes dans lesquels les soins médicaux sont prodigués aux populations en danger. Au final, et grâce à l’approche communicationnelle mise à profit dans cette thèse, il nous a été possible de dresser un portrait réaliste de ces mêmes pratiques - les « sources » de ce qui les anime -, reflétant à la fois le mode d’être et d’agir de MSF, dans toutes ses intensités et toutes ses tensions.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Contexte: Alors que de nouvelles organisations de services de première ligne, les groupes de médecine de famille (GMF) ont été implantés au Québec au début des années 2000 afin d’améliorer l’accessibilité et l’intégration des soins, nous avons que peu de recul sur la façon dont les acteurs impliqués dans le changement ont exercé leur leadership pour influencer l’implantation des GMF. Objectifs: La présente étude a pour but de mettre en évidence les rôles et actions des acteurs clés impliqués dans l’implantation des GMF et ceci pour l’ensemble du processus de transformation (de l’idée de création jusqu’à l’implantation opérationnelle des nouvelles activités), tant en les reliant aux capacités des acteurs ainsi qu’aux facteurs (organisationnels, règlementaires et culturels) aidant ou entravant le leadership dans le contexte de changement. Méthodologie: Il s’agit d’une étude de cas multiples, reposant sur trois cas (GMF) qui disposent de caractéristiques organisationnelles différentes (taille, statut, situation géographique). Des entrevues semi-dirigées ont été réalisées avec les professionnels de chaque GMF (médecins, infirmières et gestionnaires). En outre, de la documentation sur le fonctionnement et l’organisation des GMF a été consultée afin de diversifier les sources de données. Résultats: On remarque une évolution du leadership tout au long du processus de changement. Le rôle du médecin responsable a été crucial lorsqu’il s’agit de communiquer le besoin de changer de pratique et la nouvelle vision de la pratique, ou encore afin de définir le rôle et les responsabilités de chacun des membres des GMF au moment de la création de ceux-ci. Un leadership plus collectif et partagé s’est manifesté au moment de l’opérationnalisation de l’implantation, par des interactions d’influence de l’ensemble des acteurs internes mais aussi externes aux GMF (CSSS, ASSS, DRMG). Conclusion: Le cadre conceptuel proposé a permis d’identifier l’évolution du leadership tout au long du processus de changement organisationnel. Il a également permis de relier les rôles et actions des acteurs aux capacités et aux facteurs aidant ce leadership.
Resumo:
L’impact de la religion sur la violence demeure à ce jour ambivalent dans la littérature. D’un côté, les religions et leurs préceptes de paix sont identifiés comme des facteurs de dissuasion dans la commission d’actes violents. D’un autre côté, l’identité religieuse est historiquement décriée comme une source majeure de guerres. Cette étude propose de comparer dans 163 pays du monde l’influence sur le taux d’homicide de quatre aspects religieux : la religion principale, l’hétérogénéité religieuse, la liberté religieuse et la religiosité. Les taux d’homicide sont fournis par l’Organisation mondiale de la santé alors que les variables religieuses proviennent de sources variées. Les analyses de régressions linéaires tiennent également compte de quelques facteurs socio-économiques. Certains sont considérés dans la littérature comme des facteurs majeurs influant sur l’homicide et d’autres sont plutôt soupçonnés d’interaction sur la relation ici étudiée. Les résultats indiquent qu’il y a modérément plus d’homicides dans les pays qui présentent une forte hétérogénéité religieuse ou une faible religiosité dans la population. Par ailleurs, les pays musulmans, notamment chiites, présentent les taux d’homicide les plus bas, surpassant les pays bouddhistes et hindouistes, alors que les pays chrétiens, notamment catholiques, présentent des taux d’homicide très élevés. Ce constat s’oppose à la théorie libérale chrétienne qui démonise les États religieux musulmans. Néanmoins, l’interprétation des conclusions de cette étude invite à la prudence étant donné son aspect délicat et exploratoire.
Resumo:
On s’accorde aujourd’hui sur la nécessité de la dimension textuelle dans l’enseignement de la langue écrite. L’objectif de notre recherche est de mettre à l’essai une démarche pédagogique visant à enseigner la compréhension/expression écrite en prenant appui sur la typologie textuelle et en adoptant une approche stratégique. Compte tenu que les Coréens apprennent le français comme deuxième langue étrangère après l’apprentissage de l’anglais, nous menons notre recherche dans un contexte d’apprentissage multilingue (le coréen, le français et l’anglais). Nous effectuons notre recherche à Montréal. Nous sélectionnons vingt- et-un apprenants coréens âgés de 14 à 15 ans en passant des entrevues sur les caractéristiques de leurs expériences scolaires et leurs apprentissages des langues. Ils possèdent tous un bagage éducatif solide en anglais mais leurs niveaux de français sont variés (i.e. sept sujets débutants, sept intermédiaires et sept avancés). Notre recherche se base sur trois expérimentations. Dans la première, nous nous intéressons notamment au rôle de la typologie textuelle auprès des débutants, dont les caractéristiques sont représentatives des apprenants coréens qui sont grammaticalement et lexicalement faibles en français. Nous mobilisons les connaissances textuelles par le biais des textes en anglais puis nous mesurons si les participants peuvent les utiliser dans les textes en français. Nous vérifions cette utilisation en comparant les résultats de la perception du fonctionnement de l’écrit en français avant et après la mobilisation des connaissances textuelles. Les donnés empiriques révèlent que les apprenants coréens qui n’ont pas encore maîtrisé les compétences de base réussissent à percevoir le fonctionnement de l’écrit en français grâce à leurs connaissances textuelles préalablement mobilisées en anglais.Dans notre deuxième expérimentation, nous examinons l’effet de l’enseignement de la typologie textuelle sur la lecture stratégique dans l’apprentissage multilingue. Nous offrons le cours de lecture stratégique avec un texte en français et examinons l’effet de cette pratique. En comparant les résultats de la compréhension avant et après le cours, nous vérifions que le cours de lecture stratégique est efficace non seulement sur la perception du fonctionnement de l’écrit, mais également sur l’apprentissage de la grammaire et du vocabulaire. Nous vérifions également l’influence translinguistique du français vers l’anglais. Dans la troisième expérimentation, nous examinons l’effet de l’enseignement de la typologie textuelle sur le processus de production écrite en français. Nous recueillons les productions des participants avant et après le cours de l’écriture. Nous les analysons avec les mêmes grilles de codage concernant la forme typologique et le sens culturel. Nous observons que les scripteurs qui ont l’occasion de mobiliser explicitement leurs connaissances textuelles peuvent obtenir des performances plus élevées concernant la forme typologique ainsi que le sens culturel après le processus de production. Nous en concluons que la didactique effectuée à partir de la typologie textuelle a toute sa pertinence dans l’apprentissage multilingue et que l’approche stratégique peut stimuler la mise en place de la typologie textuelle pour appréhender la langue écrite au niveau textuel tant en lecture qu’en écriture.
Resumo:
Notre laboratoire a récemment découvert un mode d’expression des gènes mitochondriaux inédit chez le protozoaire biflagellé Diplonema papillatum. Outre son ADNmt formé de centaines de chromosomes circulaires, ses gènes sont fragmentés. Le gène cox1 qui code pour la sous unité I de la cytochrome oxydase est formé de neuf modules portés par autant de chromosomes. L’ARNm de cox1 est obtenu par épissage en trans et il est également édité par insertion de six uridines entre deux modules. Notre projet de recherche a porté sur une étude globale des processus post-transcriptionnels du génome mitochondrial de diplonémides. Nous avons caractérisé la fragmentation de cox1 chez trois autres espèces appartenant aux deux genres du groupe de diplonémides à savoir : Diplonema ambulator, Diplonema sp. 2 et Rhynchopus euleeides. Le gène cox1 est fragmenté en neuf modules chez tous ces diplonémides mais les modules sont portés par des chromosomes de taille et de séquences différentes d’une espèce à l’autre. L’étude des différentes espèces a aussi montrée que l’édition par insertion de six uridines entre deux modules de l’ARNm de cox1 est commune aux diplonémides. Ainsi, la fragmentation des gènes et l’édition des ARN sont des caractères communs aux diplonémides. Une analyse des transcrits mitochondriaux de D. papillatum a permis de découvrir quatre autres gènes mitochondriaux édités, dont un code pour un ARN ribosomique. Donc, l'édition ne se limite pas aux ARNm. De plus, nous avons montré qu’il n’y a pas de motifs d’introns de groupe I, de groupe II, de type ARNt ou d’introns impliqués dans le splicéosome et pouvant être à l’origine de l’épissage des modules de cox1. Aucune complémentarité significative de séquence n’existe entre les régions flanquantes de deux modules voisins, ni de résidus conservés au sein d’une espèce ou à travers les espèces. Nous avons donc conclu que l’épissage en trans de cox1 chez les diplonémides fait intervenir un nouveau mécanisme impliquant des facteurs trans plutôt que cis. L’épissage et l’édition de cox1 sont dirigés probablement par des ARN guides, mais il est également possible que les facteurs trans soient des molécules protéiques ou d’ADN. Nous avons élucidé les processus de maturation des transcrits mitochondriaux de D. papillatum. Tous les transcrits subissent trois étapes coordonnées et précises, notamment la maturation des deux extrémités, l’épissage, la polyadénylation du module 3’ et dans certains cas l’édition. La maturation des extrémités 5’ et 3’ se fait parallèlement à l’épissage et donne lieu à trois types d’intermédiaires. Ainsi, un transcrit primaire avec une extrémité libre peut se lier à son voisin. Cet épissage se fait apparemment sans prioriser un certain ordre temporel alors que dans le cas des transcrits édités, l’édition précède l`épissage. Ces études donnant une vue globale de la maturation des transcrits mitochondriaux ouvrent la voie à des analyses fonctionnelles sur l’épissage et l’édition chez D. papillatum. Elles sont le fondement pour finalement élucider les mécanismes moléculaires de ces deux processus post-transcriptionnels de régulation dans ce système intriguant.