1000 resultados para méthode numérique
Resumo:
Les biomarqueurs plasmatiques constituent des outils essentiels, mais rares, utilisés pour diagnostiquer les maladies, comme les maladies cardiovasculaires (MCV), et stratifier le niveau de risque associé. L’identification de nouveaux biomarqueurs plasmatiques susceptibles d’améliorer le dépistage et le suivi des MCV représente ainsi un enjeu majeur en termes d’économie et de santé publique. Le projet vise à identifier de nouveaux biomarqueurs plasmatiques prédictifs ou diagnostiques des MCV, à déterminer le profil protéomique plasmatique de patients atteints de MCV et à développer des méthodes innovantes d’analyse d’échantillon plasmatique. L’étude a été effectuée sur une large banque de plasma provenant de 1006 individus de souche Canadienne-Française recrutés à différents stades de la MCV et qui ont été suivis sur une période de 5 ans. Des séries de déplétions ont été réalisées afin de dépléter les 14 protéines majoritaires (colonne IgY14TM) de l’échantillon avant son analyse par trois approches effectuées en parallèle: 1) Une chromatographie liquide (LC) en 2 dimensions qui fractionne les protéines selon le point isoélectrique puis selon le degré d’hydrophobicité, via le système PF2D, suivie par une chromatographie liquide couplée avec une spectrométrie de masse en tandem (LC-MS/MS). 2) Une séparation classique sur gel 1D-SDS-PAGE suivie d’une LC-MS/MS; 3) Par une déplétion plus poussée du plasma avec l’utilisation en tandem avec la colonne IgY14TM d’une colonne SupermixTM permettant de dépléter également les protéines de moyenne abondance, suivie d’une séparation sur gel 1D-SDS-PAGE et d’une analyse LC-MS/MS de la portion déplétée (3a) et de la portion liée à la SupermixTM (3b). Les résultats montrent que le système PF2D permet d’identifier plusieurs profils protéiques spécifiques au groupe MCV. Sur un total de 1156 fractions (équivalent à 1172 pics protéiques pour le groupe contrôle et 926 pics pour le groupe MCV) recueillies, 15 fractions (23 pics protéiques) présentaient des différences quantitativement significatives (p<0,05) entre les 2 groupes. De plus, 6 fractions (9 pics) sont uniquement présentes dans un groupe, représentant d’autres signatures protéomiques et biomarqueurs potentiellement intéressants. Les méthodes 2, 3a et 3b ont permis l’identification de 108, 125 et 91 protéines respectivement avec des chevauchements partiels (31% entre la méthode 2 et 3a, 61% entre 2 et 3b et 19% entre 3a et 3b). Les méthodes 2 et 3 ont permis l’identification de 12 protéines qui présentaient des différences quantitatives significatives entre les 2 groupes. L’utilisation de plusieurs approches protéomiques complémentaires nous ont d’ores et déjà permis d’identifier des candidats biomarqueurs des angines instables avec récidive d’infarctus du myocarde (IM).
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention.
Resumo:
Afin de mieux comprendre l’évolution des fonctions du récepteur EphA4 pendant le développement du système nerveux central (SNC), nous avons étudié sa localisation cellulaire et subcellulaire dans l’hippocampe du rat, d’abord chez l’adulte, puis pendant le développement postnatal, ainsi que ses rôles potentiels dans la genèse, la migration ou la maturation des cellules granulaires dans l’hippocampe adulte. Pour ce faire, nous avons utilisé la méthode d’immunocytochimie en microscopie photonique, électronique et confocale. En microscopie photonique, une forte immunoréactivité (peroxydase/DAB) pour EphA4 est observée aux jours 1 et 7 suivant la naissance (P1 et P7) dans les couches de corps cellulaires, avec un marquage notamment associé à la surface des corps cellulaires des cellules granulaires et pyramidales, ainsi que dans les couches de neuropile du gyrus dentelé et des secteurs CA3 et CA1. L’intensité du marquage diminue progressivement dans les couches de corps cellulaires, entre P7 et P14, pour devenir faible à P21 et chez l’adulte, tandis qu’elle persiste dans les couches de neuropile, sauf celles qui reçoivent des afférences du cortex entorhinal. En microscopie électronique, après marquage à la peroxydase/DAB, EphA4 décore toute la surface des cellules pyramidales et granulaires, du corps cellulaire jusqu’aux extrémités distales, entre P1 et P14, pour devenir confiné aux extrémités synaptiques, c’est-à-dire les terminaisons axonales et les épines dendritiques, à P21 et chez l’adulte. À la membrane plasmique des astrocytes, EphA4 est redistribué comme dans les neurones, marquant le corps cellulaire et ses prolongements proximaux à distaux, à P1 et P7, pour devenir restreint aux prolongements périsynaptiques distaux, à partir de P14. D’autre part, des axones en cours de myélinisation présentent souvent une forte immunoréactivité punctiforme à leur membrane plasmique, à P14 et P21. En outre, dans les neurones et les astrocytes, le réticulum endoplasmique, l’appareil de Golgi et les vésicules de transport, organelles impliquées dans la synthèse, la modification posttraductionnelle et le transport des protéines glycosylées, sont aussi marqués, et plus intensément chez les jeunes animaux. Enfin, EphA4 est aussi localisé dans le corps cellulaire et les dendrites des cellules granulaires générées chez l’adulte, au stade de maturation où elles expriment la doublecortine (DCX). De plus, des souris adultes knockouts pour EphA4 présentent des cellules granulaires DCX-positives ectopiques, c’est-à-dire positionnées en dehors de la zone sous-granulaire, ce qui suggère un rôle d’EphA4 dans la régulation de leur migration. Ces travaux révèlent ainsi une redistribution d’EphA4 dans les cellules neuronales et gliales en maturation, suivant les sites cellulaires où un remodelage morphologique s’effectue : les corps cellulaires lorsqu’ils s’organisent en couches, les prolongements dendritiques et axonaux pendant leur croissance, guidage et maturation, puis les épines dendritiques, les terminaisons axonales et les prolongements astrocytaires distaux associés aux synapses excitatrices, jusque chez l’adulte, où la formation de nouvelles synapses et le renforcement des connexions synaptiques existantes sont exercés. Ces localisations pourraient ainsi correspondre à différents rôles d’EphA4, par lesquels il contribuerait à la régulation des capacités plastiques du SNC, selon le stade développemental, la région, l’état de santé, ou l’expérience comportementale de l’animal.
Resumo:
Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.
Resumo:
L’objectif principal du présent mémoire est d’observer le processus de traduction d’un texte de nature juridique mis en oeuvre par deux groupes d’étudiants, cinq étudiants inscrits au baccalauréat en traduction et quatre inscrits au baccalauréat en droit. Tout d’abord, nous analyserons les différences qui existent entre les deux groupes dans leur utilisation des ouvrages de référence. Nous observerons entre autres la diversité générale des ouvrages consultés et la connaissance antérieure des ouvrages papier, la répartition par type d’ouvrages (dictionnaire bilingue, monolingue ou autres), la répartition par support d’ouvrages (électronique ou papier), l’utilisation des correcteurs, l’intensité des recherches effectuées et, finalement, le premier ouvrage consulté selon le type et le support. Ces données seront recueillies grâce à la méthode de verbalisation à voix haute et à l’enregistrement de l’écran d’ordinateur, au moyen du logiciel WebEx. Ensuite, nous évaluerons la qualité des traductions en faisant une distinction entre deux types d’erreurs, soit les erreurs de traduction et les erreurs de langue. Nous tenterons par la suite d’établir des liens entre l’utilisation des ouvrages de référence et la qualité des traductions. Nous observerons que les deux groupes utilisent les ouvrages de référence différemment et que les traducteurs ont semblé mieux outillés que les juristes pour remettre une traduction de qualité.
Resumo:
La présente étude porte sur l’expérience vécue par les parents pendant une expertise en matière de garde d’enfant et de droits d’accès. Elle vise une meilleure compréhension de l’expérience des parents qui rencontrent un expert pour l’évaluation de leurs capacités parentales au nom du meilleur intérêt de leur enfant. Elle souhaite provoquer une réflexion des intervenants des milieux social et juridique sur les pratiques d’expertise, sur leur éthique et sur leur renouvellement. Il s’agit d’une étude qualitative de nature exploratoire. Les données proviennent d’entrevues semi-dirigées réalisées auprès de vingt parents, dix mères et dix pères. Ces parents ont été évalués par les experts du Service d’expertise psychosociale du Centre jeunesse de Montréal. L’analyse des données recueillies a été réalisée à partir de l’approche phénoménologique et de la méthode d’analyse de contenu. Les résultats permettent d’observer qu’en participant à une expertise psychosociale, les parents sont confrontés à un haut niveau de risque dans une relation de pouvoir avec l’expert où ils aspirent à être reconnus compétents en conformité avec la norme sociale régissant le meilleur intérêt de l’enfant. Le tiers des parents rencontrés ont été satisfaits de leur expérience, ce qui les a validés dans leur perception de la réalité ou restaurés dans leur dignité. Les deux tiers des parents rencontrés ont été insatisfaits de leur expérience, ce qui a confirmé leurs craintes quant aux comportements inadéquats de l’autre parent et alimenté une perte de confiance envers le système de justice. Ils ont eu l’impression d’avoir été invalidés et ont développé de l’amertume contre l’expert qui n’a pas répondu à leurs attentes et n’a pas su capter correctement, selon eux, leur dynamique familiale. Cette étude permet de comprendre l’importance primordiale pour le parent de la conservation ou de la restauration de sa dignité parentale. Par ailleurs, elle soulève la question du savoir-être et du savoir-faire des experts. La teneur critique des propos des parents face à certains experts oblige à une réflexion sérieuse sur les attitudes et les pratiques des experts en matière de garde d’enfant et de droits d’accès.
Resumo:
Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.
Resumo:
Dans la première partie, nous présentons les résultats de l'étude du supraconducteur sans inversion de symétrie LaRhSi3 par spectroscopie muonique. En champ nul, nous n'avons pas détecté de champ interne. Ceci indique que la fonction d'onde de l'état supraconducteur n'est pas dominée par l'état triplet. Les mesures en champ transverse de 35G présentent une transition en accord avec la transition de phase attendue sous le champ critique Hc1. Nous avons répété ces mesures pour un champ entre Hc1 et Hc2, 150G. Le spectre obtenu pour ces mesures conserve l'asymétrie et relaxe rapidement à basse température tel que prédit pour un supraconducteur dans la phase d'Abrikosov. Néanmoins, les relaxations produites par ce balayage en température présentent une transition à près de 2 fois la température critique attendue. Dans la deuxième partie de ce mémoire, nous donnons l'interprétation des résultats de la diffraction neutronique inélastique par l'étude des champs électriques cristallins. Ces mesures ont été effectuées sur des aimants frustrés SrHo2O4 et SrDy2O4 sous la forme de poudre. L'étude des niveaux produits par les champs cristallins par la méthode des opérateurs de Stevens indique une perte du moment cinétique dans les deux matériaux. Pour le SrDy2O4, l'état fondamental serait constitué de quatre états dégénérés quasi accidentellement qui portent un moment magnétique total non-nul. Toute fois, nos mesures de susceptibilité magnétique ne montrent aucun ordre au-dessus de 50mK. Pour le SrHo2O4, le fondamental est formé d'une paire accidentelle. Nous obtenons un moment magnétique de 6.94(8)$\mu_B$ ce qui s'accorde avec les données expérimentales.
Resumo:
Introduction: Le principal objectif de cette étude est de mesurer l’effet du GDF-5 sur l’homéostasie du cartilage. Le GDF-5 est un gène de susceptibilité de l’OA faisant partie de la famille des BMPs et qui favorise la synthèse du cartilage. Le but de notre étude a été de déterminer l’effet du GDF-5 sur le métabolisme catabolique ainsi que sur l’équilibre global des chondrocytes, principalement au niveau de l’Aggrécan. Méthode : Des chondrocytes arthrosiques canins et humains OA ont été exposés au GDF-5. L’expression des ARNm et des protéines a été analysée afin d’évaluer la production de l’Aggrécan et le ratio Col-II/Col-I au niveau des facteurs anaboliques et du phénotype. Pour le catabolisme, l’expression et l’activité des aggrécanases ADAMTS-4 et ADAMTS-5 ont été mesurées. Les épitopes NITEGE et CTX-II ont aussi été quantifiés dans le liquide synovial canin après des injections intraarticulaires de GDF-5. Résultats : Le GDF-5 provoque une augmentation de l’activité cellulaire des chondrocytes canins et humains. Pour les ARNm et l’expression protéique, le GDF-5 augmente l’expression de l’Aggrécan alors que les facteurs cataboliques le diminuent. Le phénotype reste inchangé en présence du produit, sauf à haute dose où on augmente le ColI. L’activité des aggrécanases diminue puisque l’épitope NITEGE diminue alors que le CTX-II augmente dans l’articulation. Conclusion : En somme, les facteurs anaboliques du cartilage sont favorisés, alors que les facteurs cataboliques sont diminués par le GDF-5. Cette action double permet d’illustrer l’effet du GDF-5, le classant comme un potentiel médicament modifiant la maladie de l’OA qui mérite d’être étudiée.
Resumo:
Objectif: Ce mémoire avait pour objectif d’examiner le contenu cognitif du discours d’agresseurs sexuels d’enfants dans un échantillon d’hommes francophones afin de déterminer s’il est possible de reproduire les catégories de théories implicites telles que proposées par Ward et Keenan (1999). Le but était également d’investiguer la possibilité de retrouver de nouvelles théories implicites. Méthode: 20 entrevues semi-structurées ont été réalisées auprès d’un échantillon d’agresseurs sexuels d’enfants judiciarisés (Centre hospitalier Robert-Giffard, Établissement Montée St-François). À partir de ces entrevues, 2 juges indépendants ont sélectionné le contenu cognitif du discours des agresseurs sexuels. Ce contenu a ensuite été classé thématiquement. Chacun des thèmes émergents a fait l’objet d’une analyse indépendante afin de déterminer si les catégories permettaient une classification optimale des distorsions cognitives. Les juges ont donc repris 3 entrevues et ont recodifié les données afin de comparer la codification. Les données ont été analysées à l’aide de NVivo, un logiciel d’analyse de données qualitatives. Les résultats ont été discutés et comparés aux résultats de Ward et Keenan (1999). Résultats: Les analyses ont permis de trouver 6 théories implicites. Les théories Le droit d’agir à sa guise, Le monde est incontrôlable et L’agression ne cause pas de tort aux enfants étaient identiques à leur version originale. La théorie Le monde est dangereux variait de sa version originale car aucun lien causal n’a été trouvé entre la perception des adultes et des enfants. Deux visions uniques et indépendantes l’une de l’autre ont plutôt été observées. Aussi, les résultats ont montré que les agresseurs partageaient une image dichotomique de la femme. D’ailleurs, ce résultat est consistant avec la théorie implicite Les femmes sont dangereuses de Polaschek et Ward (2004). La théorie Les enfants sont des êtres sexuels variait de sa version originale quant à sa conceptualisation. Les enfants sont des partenaires de vie est une nouvelle théorie implicite n’ayant pas été discutée par Ward et Keenan. Ce résultat est consistant avec les recherches de Wilson (1999) sur la congruence émotionnelle envers les enfants des agresseurs sexuels.
Resumo:
Ce mémoire de maîtrise porte sur la contribution que pourrait apporter l’Enseignement à distance par radio (EADR) dans la réduction du taux d’échec aux examens du baccalauréat 1ère partie en Haïti. De manière spécifique, nous souhaitions élaborer un programme d’ « Enseignement à distance par radio » (EADR) afin d’aider l’ensemble des candidats bacheliers des classes de Rhéto à préparer les examens du bac 1ère partie. En Haïti, l’Enseignement à distance (EAD) est pratiquement absent. De nombreux pays ayant eu des situations similaires à Haïti ont mis en place des programmes de « Formations ouvertes et à distance » (FOAD) en complémentarité avec le mode d’enseignement classique ou en mode présentiel. La complexité de la situation exige d’envisager diverses pistes pour sortir le système éducatif haïtien de cette léthargie. Si l’on ne peut considérer l’EAD comme l’unique perspective, il est par contre pertinent et souhaitable de l’envisager comme une alternative non négligeable (Lubérisse, 2003). En nous appuyant sur les principales conditions d’efficacité des FOAD définies par Karsenti (2003), les principes théoriques de type R & D (Van der Maren, 2003?), le cadre théorique de la méthodologie de l’évaluation des besoins de Chagnon et Paquette (Institut universitaire des Centres Jeunesses de Montréal, 2005) et de Roegiers, Wouters & Gerard (1992), nous avons élaboré les grandes lignes générales de ce programme d’EADR et les avons soumises à douze (12) acteurs clés du système éducatif haïtien (4 élèves, 3 parents, 2 enseignants et 3 spécialistes de la radio ou de l’EADR). Cette ébauche de programme comportait principalement les objectifs du programme d’EADR, la méthode pédagogique, le contenu et les conditions de mise en œuvre. Des données recueillies par le biais d’entrevues individuelles il ressort que l’implantation d’un programme d’EADR peut être bénéfique au système éducatif haïtien, particulièrement sur les résultats d’examens officiels du baccalauréat 1ère partie. Les douze participants à notre recherche, croient que l’objectif poursuivi par le programme d’EADR est tout à fait réalisable et important pour le public cible. Tout en notant l’aspect positif du programme d’EADR proposé, les participants réclament certaines modifications quant à la méthode pédagogique, au contenu et aux conditions de mise en œuvre. Ainsi, les recommandations faites par les douze acteurs clés du système éducatif, jointes à notre recension nous ont permis d’élaborer un nouveau programme d’EADR revu et corrigé qui pourra servir de base à une évaluation plus large.