68 resultados para validation externe
Resumo:
Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)
Resumo:
Les interventions proactives ou comportementales en classe sont reconnues empiriquement pour leur efficacité à améliorer le comportement ou le rendement scolaire des enfants ayant un TDAH (DuPaul & Eckert, 1997; Hoza, Kaiser, & Hurt, 2008; Pelham & Fabiano, 2008; Zentall, 2005). Or, l’écart entre les interventions probantes et celles retrouvées dans le milieu général de l’éducation souligne l’importance de répliquer les résultats d’études obtenus dans un environnement contrôlé dans un format de livraison réaliste. L’objectif principal de cette thèse est d’élaborer et d’évaluer un programme de consultation individuelle (PCI) fondé sur une démarche de résolution de problème et d’évaluation fonctionnelle, pour soutenir les enseignants du primaire dans la planification et la mise en œuvre cohérente des interventions privilégiées pour aider les enfants ayant un TDAH. D’abord, une recension des principales modalités d’intervention auprès des enfants ayant un TDAH est effectuée afin d’identifier les interventions à inclure lors du développement du programme. Par la suite, des solutions favorisant le transfert des interventions probantes à la classe ordinaire sont détaillées par la proposition du PCI ayant lieu entre un intervenant psychosocial et l’enseignant. Enfin, l’évaluation du PCI auprès de trente-sept paires enfant-enseignant est présentée. Tous les enfants ont un diagnostic de TDAH et prennent une médication (M). Les parents de certains enfants ont participé à un programme d’entraînement aux habiletés parentales (PEHP). L’échantillon final est: M (n = 4), M et PEHP (n = 11), M et PCI (n = 11), M, PEHP et PCI (n = 11). Les résultats confirment l’efficacité du PCI au-delà de M et M + PEHP pour éviter une aggravation des comportements inappropriés et améliorer le rendement scolaire des enfants ayant un TDAH. Par ailleurs, une augmentation de l’utilisation des stratégies efficaces par l’enseignant est observable lorsqu’il a à la fois participé au PCI et reçu une formation continue sur le TDAH en cours d’emploi. Les implications cliniques de l’intervention pour l’enfant ayant un TDAH et son enseignant de classe ordinaire sont discutées.
Resumo:
L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès Sciences (M.Sc.) en sciences infirmières
Resumo:
La présente étude offre un panorama sur les interactions et les liens qui existent entre la volatilité des taux de change et les échanges internationaux. L’objectif de ce travail est donc de présenter théoriquement cette relation, puis d’examiner empiriquement l’existence de cette relation de causalité entre le commerce international et la variabilité des taux de change. La littérature portant sur la question se considère dans l'ensemble comme contradictoire et supporte plusieurs controverses qui ne nous permettent pas de conclure clairement quant à la relation en question. Nous essayerons de pousser ces recherches un peu plus loin en réexaminant cette évidence pour le canada et en offrant une investigation empirique sur l’existence éventuelle d'un impact significatif de la volatilité sur les flux désagrégées des exportations sectoriels du canada vers son partenaire, les États-Unis. Nous y examinons la réponse empirique de 5 secteurs d’exportations canadiennes aux variations du taux de change réel effectif entre le canada et les États- Unis. Toutefois, nos résultats obtenus ne nous permettent pas de conclure quant à la significativité relative d’un impact de volatilité de taux de change sur les exportations sectoriels désagrégées destinées aux États-Unis. Dans l’ensemble, même si on admet que les signe des coefficients estimés de la variable de risque dans chaque secteur est négatif, nous arrivons à la conclusion que la volatilité ne semble pas avoir un impact statistiquement significatif sur le volume réelle des exportations du Canada vers les États-Unis.
Resumo:
Le diabète est un syndrome métabolique caractérisé par une hyperglycémie chronique due à un défaut de sécrétion de l’insuline, de l’action de l’insuline (sensibilité), ou une combinaison des deux. Plus d'un million de canadiens vivent actuellement avec le diabète. La prévalence de cette maladie est au moins trois fois plus élevée chez les autochtones que dans la population canadienne en général. Notre équipe vise à étudier les effets potentiellement antidiabétiques de certaines plantes médicinales utilisées par les Cris d'Eeyou Istchee (Baie James, Québec) où l’adhérence aux traitements médicamenteux est faible, en partie à cause de la déconnection culturelle de ces derniers. Grâce à une approche ethnobotanique, notre équipe a identifié 17 plantes médicinales utilisées par cette population pour traiter des symptômes du diabète. Parmi ces plantes, l’extrait éthanolique de Rhododendron groenlandicum (Thé du Labrador) a montré un fort potentiel antidiabétique chez plusieurs lignées cellulaires, notamment les adipocytes (3T3-L1). Cette plante induit la différenciation adipocytaire probablement par l’activation du peroxisome proliferator-activated receptor gamma (PPAR γ). Cette stimulation améliore la résistance à l’insuline et constitue un mécanisme privilégié pour une classe de médicaments antidiabétiques, les thiazolidinediones. Le but de la présente étude est de valider l’efficacité et l’innocuité de R. groenlandicum in vivo, dans un modèle animal de résistance à l’insuline, d’élucider les mécanismes par lesquels cet extrait exerce ses effets antidiabétiques et d’identifier les principes actifs responsables de son activité. L'isolation et l'identification des constituants actifs ont été réalisées à l’aide d'une approche de fractionnement guidé par bioessai; en l'occurrence, l'adipogénèse. Cette approche, réalisée dans la lignée adipocytaire 3T3-L1, a pour but de mesurer leur teneur en triglycérides. Des études in vivo ont été réalisées sur le modèle de souris DIO (diet induced obesity). L'extrait éthanolique du R. groenlandicum a été incorporé à la nourriture grasse (35% d’apport calorique lipidique) à trois doses différentes (125, 250 et 500 mg / kg) sur une période de 8 semaines. Des tissus cibles de l’insuline (foie, muscle squelettique et tissus adipeux) ont été récoltés afin de faire des analyses d’immunobuvardage de type western. La quercétine, la catéchine et l’épicatéchine ont été identifiées comme étant les composés actifs responsables de l'effet antidiabétique du R. groenlandicum. Seules la catéchine et l’épicatéchine activent l’adipogénèse uniquement à forte concentration (125-150 M), tandis que la quercétine l’inhibe. L’étude in vivo a montré que le traitement avec R. groenlandicum chez les souris DIO réduit le gain de poids de 6%, diminue l'hyperglycémie de 13% et l’insulinémie plasmatique de 65% et prévient l’apparition des stéatoses hépatiques (diminution de 42% de triglycéride dans le foie) sans être toxique. Les analyses d’immunobuvardage ont montré que R. groenlandicum stimule la voie de l’insuline via la phosphorylation de l’Akt et a augmenté le contenu protéique en Glut 4 dans les muscles des souris traitées. Par contre, dans le foie, le R. groenlandicum passerait par deux voies différentes, soit la voie insulino-dépendante par l’activation de l’AKT, soit la voie insulino-indépendante par la stimulation de l’AMPK. L’amélioration observée des stéatoses hépatiques chez les souris DIO traitées, a été confirmée par une baisse du facteur de transcription, SREBP-1, impliqué dans la lipogénèse de novo, ainsi qu’une diminution de l’inflammation hépatique (diminution de l’activité d’IKK α/β). En conclusion, l’ensemble de ces résultats soutiennent le potentiel thérapeutique de Rhododendron groenlandicum et de ses composants actifs dans le traitement et la prévention du diabète de type 2. Nous avons validé l'innocuité et l'efficacité de cette plante issue de la médecine traditionnelle Cri, qui pourrait être un traitement alternatif du diabète de type 2 dans une population ayant une faible adhérence au traitement pharmacologique existant.
Resumo:
Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.
Resumo:
L’un des buts de l’apprentissage des mathématiques est le développement du raisonnement et celui-ci participe à la compréhension des mathématiques. Très liée au raisonnement, la notion de preuve est aussi fondamentale à l’apprentissage des mathématiques, car elle permet d’établir la validité d’arguments mathématiques et de conférer un sens à différents concepts à travers l’explication de l’organisation logique du travail effectué. Toutefois, malgré l’importance accordée au développement de différents types de raisonnements, plusieurs élèves éprouvent des difficultés lorsqu’ils sont appelés à concevoir ou à évaluer des preuves. Dans le cadre de cette recherche, nous avons étudié l’impact de l’utilisation d’un forum électronique sur le développement d’habiletés de validation algébrique ainsi que sur le développement d’habiletés en lien avec l’évaluation de preuves en algèbre chez des élèves de 13 et 14 ans du Nouveau-Brunswick et du Québec. Les résultats laissent supposer que l’utilisation du forum électronique encourage le passage des preuves pragmatiques aux preuves intellectuelles, en plus de favoriser une utilisation adéquate des règles du débat mathématique.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
L’autophagie est un processus cellulaire catabolique qui a été conservé durant l’évolution de la levure à l’homme. Cet important mécanisme consiste en une dégradation des composants cytoplasmiques dans une structure lytique, le lysosome. Il existe trois types de l’autophagie : la microautophagie, l’autophagie médiée par les chaperones et la macroautophagie nommée « autophagie ». Il a été démontré que lors de l’autophagie, le matériel cytoplasmique (protéines cytosoliques et organites) est séquestré dans l’autophagosome qui finit par fusionner avec le lysosome, formant ainsi l’autophagolysosome. Le matériel séquestré et la membrane interne de l’autophagosome seront dégradés par les hydrolases lysosomales. Plusieurs études se sont focalisées sur la détermination de la machinerie moléculaire et les mécanismes de l’autophagie. Il a été démontré l’implication de 31 molécules Atg essentielles dans le processus de l’autophagie. L’identification de ces protéines a permis de déceler le rôle de l’autophagie non seulement dans le maintien de l’homéostasie cellulaire mais aussi dans la défense contre les agents pathogènes. En effet, l’autophagie joue un rôle important dans l’immunité innée conduisant à contrôler l’évasion des pathogènes dont les bactéries et les virus. Également, l’autophagie est impliquée dans l’immunité adaptative en favorisant la présentation des antigènes viraux par le CMH de classe II aux cellules T CD4+. De plus, une étude récente suggère que l’autophagie contribue à la présentation antigénique par le CMH de classe I aux cellules T CD8+ durant une infection virale par le virus HSV-1 (Herpes simplex type 1). Toutefois, certains virus y compris HSV-1 ont pu développer des mécanismes pour contourner et inhiber en partie le rôle protecteur de l’autophagie. Récemment, une étude dans notre laboratoire a mis en évidence, lors d’une infection virale par HSV-1 des cellules macrophages BMA, la présence d’une nouvelle structure autophagique dans une phase tardive de l’infection. Cette nouvelle structure est différente des autophagosomes classiques à double membrane et est caractérisée morphologiquement par quatre membranes dérivées de l’enveloppe nucléaire interne et externe. Peu de choses ont été rapportées sur cette nouvelle voie autophagique qui peut être un mécanisme de défense cellulaire quand l’autophagie classique dans le cytosol est inhibée par HSV-1. Il devient donc intéressant de caractériser les molécules impliquées dans la formation de ces autophagosomes issus du noyau par spectrométrie de masse. Pour ce faire, il était impératif d’établir un outil d’isolation des noyaux à partir de macrophages infectés par HSV-1 dans lesquels les autophagosomes issus des noyaux seront formés. La validation de cette méthode d’isolation a été effectuée en déterminant la pureté et l’intégrité des noyaux isolés à partir des cellules non infectées (contrôle) et infectées par HSV-1. La pureté des préparations de noyaux isolés a été caractérisée par l’absence de contaminants cellulaires et un enrichissement en noyaux. Également, il a fallu déterminer la cinétique de formation des autophagosomes issus des noyaux pour les deux lignées cellulaires de macrophages utilisées dans ce projet. Dans une perspective future, l’analyse protéomique à partir des échantillons purs des noyaux isolés (non infectés et infectés) mènera à identifier les protéines impliquées dans la formation des autophagosomes dérivés des noyaux, ce qui permettra ultérieurement d’effectuer des études sur les mécanismes moléculaires et les fonctions de cette nouvelle voie autophagique.
Resumo:
Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les comportements stéréotypés et les intérêts restreints sont des comportements à valeur diagnostique dans l’autisme. Pourtant, il y a des lacunes en clinique, dans la façon de détecter ces comportements, considérant l’absence d’instruments standardisés les suscitant et en recherche, dans la façon de documenter ces comportements pour arriver à les définir de façon opérationnelle. Cette thèse a pour objectif de mieux documenter, par une situation d’observation, les comportements stéréotypés et les intérêts restreints en bas âge dans l’autisme, et de permettre l’utilisation de cette situation en clinique. Deux étapes préliminaires ont permis de documenter les comportements stéréotypés et les intérêts restreints en bas âge dans l’autisme. La première, l’élaboration d’un questionnaire sur les comportements stéréotypés et les intérêts restreints et les objets qui les déclenchent complété par des experts dans le domaine. Ce questionnaire a permis de construire la grille de cotation et la situation de stimulation. La seconde la construction d’une grille de cotation qui apporte une définition opérationnelle des comportements stéréotypés et des intérêts restreints en bas âge dans l’autisme et vise à les colliger. L’étape principale de la présente recherche consiste en l’élaboration d’une situation de stimulation suscitant des comportements stéréotypés et des intérêts restreints par l’exposition à des objets qui les déclenchent. Cette situation a permis de documenter, par observation, les comportements stéréotypés et les intérêts restreints en bas âge dans l’autisme. La validation de la situation de stimulation a été appliquée auprès de deux groupes d’enfants âgés de 24 à 72 mois appariés en âge chronologique, 21 enfants portant un diagnostic d’autisme et 24 enfants au développement typique Les résultats montrent que la situation de stimulation est un instrument suffisamment sensible pour détecter des comportements stéréotypés et des intérêts restreints en bas âge dans l’autisme et d’identifier des objets d’intérêt. En effet, lors de l’exposition à la situation de stimulation, les enfants autistes se distinguent des enfants typiques sur la base du nombre et de la durée des comportements stéréotypés et des intérêts restreints qu’ils présentent. Les enfants autistes montrent une fréquence significativement plus élevé pour les CSIR suivants: maniérismes des mains et des doigts, crispation des doigts, sautillement, doigts dans la bouche, objets dans la bouche, exploration visuelle: regard rapproché, met les objets en mouvement non circulaire. Les enfants autistes se distinguent également des enfants typiques sur la base de l’exploration des objets, en fréquence et en durée, significativement, pour les objets: Bateau: marteau et balles et lettres et chiffres. Cette étude est la première qui passe par un protocole d’observation systématique, pour documenter les comportements stéréotypés et les intérêts restreints, ainsi que les objets qui les déclenchent, des objets d’intérêt, en bas âge dans l’autisme. Cette situation pourrait ultimement faire partie du processus d’évaluation diagnostique ou de dépistage de l’autisme permettant d’identifier en bas âge des enfants autistes ou à risque d’autisme.
Resumo:
Le CD36 est un récepteur de type éboueur de classe B exprimé à la surface de nombreux types cellulaires dont les macrophages, les cellules endothéliales de la microvasculature et les plaquettes. Ce récepteur multiligand est impliqué dans plusieurs processus pathologiques notamment l’athérosclérose, l’angiogénèse et la malaria via la liaison spécifique de ligands comme les lipoprotéines oxydées de basse densité, la thrombospondine-1 et la protéine PfEMP-1, respectivement. Les peptides de la relâche de l’hormone de croissance (GHRP) ont été identifiés comme les premiers ligands synthétiques du CD36. Afin de développer de nouveaux ligands synthétiques du CD36, l’établissement d’une méthode de criblage est essentiel pour découvrir des composés avec une liaison de haute affinité pour ce récepteur. Pour y parvenir, nous avons surexprimé le domaine extracellulaire du CD36 humain dans les cellules d’insectes Sf9. La protéine soluble purifiée par chromatographie d’affinité fut immobilisée à la surface d’une plaque de résonance de plasmons de surface (SPR) pour les études de liaison. La méthodologie développée a permis de caractériser les ligands du CD36 en déterminant leurs constantes de dissociation (KD), et d’établir une relation structure-activité des ligands de la famille des azapeptides, des composés dérivés du GHRP-6. Afin de valider la méthode par spectroscopie SPR, une corrélation a été établie entre les valeurs de KD obtenues en SPR et les valeurs d’CI50 de courbes d’inhibition de la phosphorylation des MAP kinases JNK1/2 induite par un phospholipide oxydé, le POVPC, en présence de concentrations croissantes de ligands du CD36 dans les macrophages RAW 264.7.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.