954 resultados para Évaluation des technologies
Resumo:
L'enseignement, l'apprentissage et l'évaluation du raisonnement clinique en sciences infirmières est un défi pour les éducateurs de cette profession et leurs étudiants. Depuis plusieurs décennies, les chercheurs et les éducateurs dans le domaine des sciences de la santé ont travaillé pour élaborer des instruments d'évaluation dans le but de pouvoir mesurer le raisonnement clinique (Charlin, Bordage & Van der Vleuten, 2003). Plusieurs études semblent appuyer le test de concordance de script (TCS) en termes de validité, fiabilité, faisabilité et applicabilité pour plusieurs disciplines et différents contextes (Carrière & al, 2009). Deschênes et ses collaborateurs (2006; Deschênes, Charlin, Gagnon & Goudreau, 2011) ont mis au point et validé un TCS spécifiquement pour le raisonnement clinique en sciences infirmières (RCI). Comme l'évaluation a un impact important sur les stratégies d'apprentissage des étudiants (Sibert et al, 2001; Durak, Caliskan & Bor, 2007), les outils d'évaluation valides et fiables qui permettraient l'identification des problèmes spécifiques dans le développement du raisonnement clinique en sciences infirmières seraient très utiles pour guider les décisions concernant l'éducation (Gierl, 2007). Nous avons donc mené une étude pour explorer le potentiel diagnostique des questions d'un TCS. La question de recherche est la suivante: «Dans quelle mesure chaque question d’un TCS visant à évaluer le RCI peut-elle être reliée à des catégories et des stratégies de pensée spécifiques?" Avec une sous-question: «Comment peut-on décrire le potentiel diagnostique d’un TCS pour évaluer le RCI?". Nous avons fait une deuxième analyse de contenu des données qui ont été obtenues dans une étude précédente dans laquelle cinq vignettes (15 questions) du TCS de Deschênes (2006) ont été utilisées. Les résultats ont montré les catégories et stratégies de pensées utilisées pour répondre à certaines questions du TCS selon les groupes de participants. Aussi, nos résultats ont permis de découvrir des disparités importantes entre les groupes, notamment que le RCI des expertes est si différent des étudiantes, qu’il ne peut servir de référence. Enfin, cette étude démontre que le TCS a un potentiel diagnostique niveau par niveau (1ère, 2e, 3e année et expertes) et non d’un niveau à un autre.
Resumo:
"Le droit de la protection des données à caractère personnel ne semble pas à première vue concerner directement les relations extérieures de l’Union européenne. Cependant, dans notre « société globale de l’information », caractérisée par les défis qu'impliquent les nouvelles technologies et la mondialisation, les questions relatives à la circulation des informations et notamment à la circulation des données personnelles sont devenues cruciales. Il suffit pour s’en convaincre de se reporter aux succès des entreprises Google ou Facebook, dont l’essentiel des revenus repose sur la collecte et le traitement de ces dernières données précisément. Aussi et puisque « désormais (…), nulle culture nationale, nulle économie ne sont plus à l’abri de leurs frontières naturelles » 2 ; il apparaît que l’Union européenne (UE) ne peut plus définir de façon autonome un standard de protection des données personnelles de ses ressortissants, sans que ce celui-ci ne soit continuellement remis en cause."
Resumo:
Les normes minimales relatives à la durée du travail tracent une frontière entre le temps de travail pendant lequel le salarié exécute sa prestation de travail sous l'autorité de l'employeur moyennant rémunération et le temps de repos pendant lequel il a la libre disposition de son temps sans être soumis au pouvoir de contrôle de l'employeur. Il existe cependant un troisième temps où le salarié, sans être considéré au travail, ne dispose pas de la liberté de vaquer à ses occupations personnelles et reste subordonné à une éventuelle demande de l'employeur. Après avoir présenté le cadre général de cette obligation de disponibilité du salarié en vertu du Code civil du Québec, des lois du travail et de la Charte des droits et libertés de la personne, le présent article en explore les effets particuliers dans le contexte actuel marqué par l'émergence de formes d'emploi atypiques et de nouvelles technologies. A l'aide d'illustrations tirées de la jurisprudence, il veut montrer que cette obligation de disponibilité permet aux entreprises de disposer à moindre coût d'un bassin de main-d'oeuvre flexible dont le volume peut varier en fonction des besoins momentanés de la production et du service et que cette situation a des effets très importants sur les droits, notamment les libertés et droits fondamentaux, des salariés en cause.
Resumo:
Malgré l’incertitude quant à leur sécurité à l’égard des personnes et de l’environnement, les cultures génétiquement modifiées (GM) ont été largement diffusées à travers le monde. En outre, dans de nombreux pays la coexistence des cultures GM avec les systèmes conventionnels de production et les systèmes de production biologique est habituelle. Dans l’Union européenne (UE), cependant, l’utilisation de cette technologie a soulevé d’importantes questions. Ces réserves sont reflétées dans le développement d’un cadre réglementaire particulièrement restrictif articulé autour d’une procédure unique d’approbation de ces cultures. De la même manière, le débat sur la coexistence des cultures GM avec la production agricole conventionnelle et la production biologique a été particulièrement animé dans l’UE. La première section de ce travail est consacrée à examiner comment, du fait de la complexité des nouvelles technologies, il est nécessaire, du point de vue régulateur, de faire face à des situations dans lesquelles les scientifiques ne peuvent encore fournir aucune réponse précise. Dans ce contexte, le principe de précaution est invoqué afin de limiter les dangers potentiels, mais ceci est sans préjudice des questions qui restent encore ouvertes sur la portée et la nature de ce principe. En tant que manifestations précises de ce principe de précaution, deux aspects sont abordés dans les secondes et troisièmes parties de ce travail. Nous analysons, d’abord, la procédure d’autorisation des produits GM dans l’UE, procédure spécifique basée sur le principe de précaution dans laquelle soit les institutions communautaires soit les autorités des États membres jouent un rôle important. Par rapport à ce cadre très réglementé de l’UE, la troisième partie examine le degré d’intervention des États membres. Ceci se manifeste principalement dans la possibilité d’adopter certaines clauses de sauvegarde pour limiter l’expansion des cultures GM ainsi que dans la réglementation de la coexistence des cultures GM avec les cultures conventionnelles et la possibilité d’exclure de la culture des OGM certaines zones. Finalement, quelques conclusions sont données dans la quatrième partie.
Resumo:
La notion de dignité humaine déroute et attire les juristes. La décision récente de la Cour suprême du Canada dans l'affaire R. c. Kapp d'abolir le critère de l'atteinte à la dignité dans le cadre de l'analyse du droit à l'égalité a rappelé les périls qui guettent une analyse s'appuyant sur la dignité humaine. La richesse de ses significations est difficile à traduire dans une analyse qui ne soit pas purement subjective. La dignité humaine constitue pourtant la fondation sur laquelle sont érigés les droits et libertés de la personne ainsi qu'un guide indispensable dans leur interprétation. Prenant appui sur une typologie émergente de la dignité humaine, cet article vise l'élaboration d'un modèle d'analyse qui intégrerait les trois exigences de la dignité humaine : la reconnaissance, le respect et la sollicitude. Ces exigences reflètent les significations universelle et individuelle de même que les dimensions morale et corporelle de la dignité humaine. La considération simultanée des différentes exigences et significations de la dignité humaine rejoint l'approche préconisée par Emmanuel Kant et empêche d'avoir à choisir entre reconnaissance et redistribution. Une vision large et intégrée de la dignité humaine traduit la diversité des applications juridiques de la dignité humaine comme principe et comme droit et leur nécessaire imbrication. La combinaison des exigences de respect et de sollicitude requiert une attention aux réelles conditions sociales et économiques des êtres humains et une évaluation non condescendante des politiques sur les personnes vulnérables. L'attention à la réalité telle que vécue par la personne qui invoque une atteinte à sa dignité est nécessaire pour contrer à la fois la myopie d'une analyse formaliste ainsi que les écueils d'un concours de vulnérabilités auquel certains peuvent être tentés de se livrer.
Resumo:
Suite à une importante vague d’opposition contre l’exploration et l’exploitation du gaz de schiste au Québec, un quasi-moratoire sur les nouvelles technologies d’extraction a été promulgué par le gouvernement de la province. Cet article exposera comment l’application des concepts de responsabilité sociale des entreprises (RSE) aurait pu jouer en faveur de l’industrie dans le développement de cette activité peu règlementée au Québec. Dans un premier temps, un portrait de l’évolution du concept de RSE sera dressé. L’accent sera alors mis sur les concepts de consultation, de transparence et de collaboration avec les communautés affectées par une activité d’extraction. Par la suite, un portrait détaillé des événements ayant menés à l’adoption d’un quasi-moratoire dans la province sera dressé afin de comprendre comment l’industrie aurait pu agir autrement afin d’arriver à ses fins avec l’aval de la population et du gouvernement.
Resumo:
L’utilisation d’Internet prend beaucoup d’ampleur depuis quelques années et le commerce électronique connaît une hausse considérable. Nous pouvons présentement acheter facilement via Internet sans quitter notre domicile et avons accès à d’innombrables sources d’information. Cependant, la navigation sur Internet permet également la création de bases de données détaillées décrivant les habitudes de chaque utilisateur, informations ensuite utilisées par des tiers afin de cerner le profil de leur clientèle cible, ce qui inquiète plusieurs intervenants. Les informations concernant un individu peuvent être récoltées par l’interception de données transactionnelles, par l’espionnage en ligne, ainsi que par l’enregistrement d’adresses IP. Afin de résoudre les problèmes de vie privée et de s’assurer que les commerçants respectent la législation applicable en la matière, ainsi que les exigences mises de l’avant par la Commission européenne, plusieurs entreprises comme Zero-knowledge Systems Inc. et Anonymizer.com offrent des logiciels permettant la protection de la vie privée en ligne (privacy-enhancing technologies ou PETs). Ces programmes utilisent le cryptage d’information, une méthode rendant les données illisibles pour tous à l’exception du destinataire. L’objectif de la technologie utilisée a été de créer des systèmes mathématiques rigoureux pouvant empêcher la découverte de l’identité de l’auteur même par le plus déterminé des pirates, diminuant ainsi les risques de vol d’information ou la divulgation accidentelle de données confidentielles. Malgré le fait que ces logiciels de protection de la vie privée permettent un plus grand respect des Directives européennes en la matière, une analyse plus approfondie du sujet témoigne du fait que ces technologies pourraient être contraires aux lois concernant le cryptage en droit canadien, américain et français.
Resumo:
Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.
Resumo:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
Resumo:
Bien que la douleur soit une expérience subjective universelle, la façon de la percevoir et de l’interpréter est modulée par une multitude de facteurs. Plusieurs interventions cognitives se sont montrées efficaces pour réduire la douleur dans des conditions cliniques et expérimentales. Cette thèse s’intéressera particulièrement aux mécanismes psychophysiologiques impliqués dans les stratégies de modulation volontaire de la douleur. Ces stratégies sont intéressantes puisqu’elles encouragent une prise en charge par l’individu, lui permettant de jouer un rôle actif dans la régulation de sa douleur. La première étude s’intéresse à l’efficacité du biofeedback comme moyen de modulation volontaire de la douleur. Il s’agissait de déterminer si le fait de présenter une rétroaction de l’amplitude du réflex RIII (évoqué par une stimulation électrique du nerf sural) au cours d’un entraînement de plusieurs essais permettrait au participant d’adopter des stratégies de modulation de la douleur et d’activer volontairement des mécanismes de contrôle descendant de la douleur. De façon à évaluer spécifiquement les changements induits par le biofeedback, la modulation du réflexe RIII et de la douleur était comparée dans trois groupes (biofeedback valide, faux biofeedback et groupe contrôle sans rétroaction). Dans les trois groupes, il était suggéré aux participants d’utiliser des stratégies cognitives de modulation de la douleur (attention, modulation de la respiration, réévaluation cognitive et imagerie mentale) afin d’augmenter ou de diminuer leur réflexe RIII comparativement à leur niveau de base. Les résultats de notre étude indiquent que les participants des 3 groupes ont réussi à moduler leur réflexe RIII (p<0,001) ainsi que leurs évaluations de douleur (p<0,001) (intensité et désagrément). Les résultats de notre étude montrent que l’entraînement au biofeedback n’était pas nécessaire pour obtenir une modulation du réflexe RIII et de la douleur, ce qui suggère que l’utilisation de stratégies cognitives pourrait être suffisante pour déclencher des mécanismes de contrôle de la douleur. La deuxième étude découle de la première et s’intéressait à l’influence de la fréquence et de la phase respiratoire sur la nociception spinale, l’activité cérébrale et la perception de douleur. Le contrôle volontaire de la respiration est un moyen commun de régulation des émotions et est fréquemment utilisé en combinaison avec d’autres techniques (ex. : relaxation, méditation) dans le but de réguler la douleur. Les participants étaient invités à synchroniser leur respiration à des indices sonores indiquant le moment de l’inspiration et de l’expiration. Trois patrons de respiration étaient proposés (respiration à 0,1Hz avec une inspiration de 4 secondes, respiration à 0,1Hz avec une inspiration de 2 secondes et respiration à 0,2Hz avec une inspiration de 2 secondes. La moitié des stimulations étaient données durant l’inspiration et l’autre moitié durant l’expiration. Afin d’évaluer l’effet de ces manipulations, l’amplitude du RIII, l’évaluation subjective d’intensité de la douleur et de l’anxiété suscitée par le choc en plus des potentiels évoqués étaient mesurés. Les résultats de cette étude démontrent que les évaluations d’intensité de la douleur n’étaient pas affectées par le patron respiratoire (p=0,3), mais étaient statistiquement plus basses durant l’inspiration comparativement à l’expiration (p=0,02). Un effet de phase (p=0,03) était également observé sur les potentiels évoqués durant la condition de respiration à 0,1hHz avec une inspiration de 2 secondes comparativement au patron de respiration de 0,2Hz. Paradoxalement, l’amplitude du réflexe RIII était augmenté durant l’inspiration (p=0,02) comparativement à l’expiration. Ces résultats montrent que la manipulation de la fréquence et de la phase respiratoires (par une synchronisation imposée) a un effet marginal sur les évaluations de douleur et sur l’activité cérébrale et spinale évoquée par une stimulation électrique (douleur aigüe). Cela suggère que d’autres mécanismes contribuent aux effets analgésiques observés dans la relaxation et la méditation. Plus largement, nos résultats font état de la nécessité d’études plus approfondies avec une méthodologie plus rigoureuse afin de contrôler les effets non spécifiques aux traitements évalués. Une meilleure connaissance des mécanismes sous-tendant chaque stratégie permettrait de mieux cibler les clientèles susceptibles d’y répondre et de mieux considérer le ratio coût bénéfice de chaque traitement.
Resumo:
Introduction: The objective of this experimental research was to evaluate the slot’s vertical dimension and profile of four different 0.018″ self-ligating brackets and to identify the level of tolerance accepted by manufacturers during the fabrication process. It was then possible to calculate and compare the torque play of those brackets using the measured values and the nominal values. Material and Methods: Twenty-five 0.018″ self-ligating brackets of upper left central incisors from the following manufacturers, Speed® (Strite Industries, Cambridge, Ontario, Canada), InOvationR® (GAC, Bohemia, NY, USA), CarriereLX® (Ortho Organizers, Carlsbad, CA, USA) and SmartClip® (3M Unitek, Monrovia, CA, USA), were evaluated using electron microscopy with 150X images. The height of each bracket was measured at every 100 microns of depth from the lingual wall at five different levels. A Student T test was then used to compare our results with the manufacturer’s stated value of 0.018″. To determine if there was a significant difference between the four manufacturers, analysis of variance (ANOVA) was performed at the significance level of p<0.05. The torque play was then calculated using geometrical formulas. Results: On average, Speed brackets were oversized by 2.7%[MV 0.0185″ (SD:0.002)], InOvationR by 3.7% [MV 0.0187″ (SD:0.002)], CarriereLX by 3.2% [MV 0.0186″ (SD:0.002)] and SmartClipSL by 5.0% [MV 0.0189″ (SD:0.002)]. The height of all brackets was significantly higher than the nominal value of 0.018″ (p<0.001). The slot of SmartClip brackets was significantly larger than those of the other three manufacturers (p<0.001). None of the brackets studied had parallel gingival and occlusal walls; some were convergent and others divergent. These variations can induce a torque play up to 4.5 degrees with a 0.017″x0.025″ wire and 8.0 degrees with a 0.016″x0.022″ wire. Conclusion: All studied brackets were oversized. None of the brackets studied had parallel gingival and occlusal walls and there was no standard between manufacturers for the geometry of their slots. These variations can cause a slight increase of the torque play between the wire and the bracket compared with the nominal value.
Resumo:
Les supercapacités hybrides se taillent de plus en plus une place dans le secteur des énergies renouvelables. L’oxyde de manganèse possède certaines caractéristiques (faible coût, caractère écologique et une capacitance spécifique supérieure) qui font de ce dernier un matériau très attirant pour l’assemblage de tels dispositifs. Ce mémoire, divisé en trois parties, propose l’utilisation des liquides ioniques protiques comme électrolytes pour l’assemblage de supercapacités hybrides à base d’oxyde de manganèse et carbone. D’abord, le comportement pseudocapacitif des électrodes à base de films minces d’oxyde de manganèse dans les liquides ioniques protiques ainsi que leurs propriétés optiques sont étudiés et évalués. Des valeurs de capacitance spécifique allant jusqu’à 397 F/g ont été trouvées dans cette partie. Ensuite, des mélanges composés par un solvant organique (acétonitrile) et le liquide ionique protique sont présentés comme une manière de contourner la faible conductivité de ce dernier qui limite les valeurs de capacitance spécifique à obtenir. Une amélioration de la capacitance spécifique d’environ 30% est reportée dans ce chapitre. Finalement, l’assemblage d’une supercapacité hybride est présenté comme une stratégie efficace qui permet l’élargissement de la faible fenêtre de potentiel de travail obtenue avec les électrodes à base d’oxyde de manganèse. De cette façon, la faisabilité de tel arrangement est montré ici, obtenant de valeurs de capacitance spécifique (16 F/g) ainsi que de puissance (81 W/kg) et d’énergie spécifique (1,9 Wh/kg) acceptables en utilisant des liquides ioniques protiques comme électrolytes de remplissage.
TactoColor : conception et évaluation d’une interface d’exploration spatiale du web pour malvoyants.
Resumo:
Nous nous intéressons, dans le cadre de cette recherche, à l’accès à l’internet des personnes malvoyantes. Plusieurs types d’outils destinés à ce public sont disponibles sur le marché, comme les lecteurs et les agrandisseurs d’écran, en fonction de l’acuité visuelle de la personne. Bien que ces outils soient utiles et régulièrement utilisés, les malvoyants (ainsi que les aveugles) évoquent souvent leur aspect frustrant. Plusieurs raisons sont citées, comme le manque d’organisation spatiale du contenu lu avec les lecteurs d’écran ou le fait de ne solliciter qu’un seul sens. La présente recherche consiste à adapter pour les malvoyants un système en développement le TactoWeb (Petit, 2013) qui permet une exploration audio-tactile du Web. TactoWeb a été conçu pour les handicapés ayant une cécité complète et n’offre donc aucune propriété visuelle. Nous proposons ici une adaptation du système pour les handicapés n’ayant qu’une déficience visuelle partielle. Nous espérons fournir à cette population des outils performants qui leur permettront de naviguer sur l’internet de façon efficace et agréable. En effet, grâce à une exploration non-linéaire (qui devrait améliorer l’orientation spatiale) et une interface multimodale (qui sollicite la vue, l’ouïe et le toucher), nous pensons réduire fortement le sentiment de frustration qu’évoquent les malvoyants. Nous avons posé l’hypothèse qu’une exploration non-linéaire et trimodale d’un site internet avec TactoColor est plus satisfaisante et efficace qu’une exploration non-linéaire bimodale avec TactoWeb (sans retour visuel). TactoColor a été adapté pour les malvoyants en ajoutant des indices visuels traduisant les composantes de la page (liens, menus, boutons) qui devraient rendre l’exploration plus aisée. Pour vérifier notre hypothèse, les deux versions du logiciel ont été évaluées par des malvoyants. Ainsi, les participants ont commencé soit avec TactoWeb, soit avec TactoColor afin de ne pas favoriser une des versions. La qualité de la navigation, son efficacité et son efficience ont été analysées en se basant sur le temps nécessaire à l’accomplissement d’une tâche, ainsi que la facilité ou la difficulté évoquée par le participant. Aussi, à la fin de chaque session, nous avons demandé leur avis aux participants, grâce à un questionnaire d’évaluation, ce qui nous a permis d’avoir leur retour sur notre logiciel après leur brève expérience. Tous ces relevés nous ont permis de déterminer que l’ajout des couleurs entraine une exploration plus rapide des pages web et une meilleure orientation spatiale. Par contre les performances très différentes des participants ne permettent pas de dire si la présence des couleurs facilite la complétion des tâches.
Resumo:
Le caryotype moléculaire permet d’identifier un CNV chez 10-14% des individus atteints de déficience intellectuelle et/ou de malformations congénitales. C’est pourquoi il s’agit maintenant de l’analyse de première intention chez ces patients. Toutefois, le rendement diagnostique n’est pas aussi bien défini en contexte prénatal et l’identification de CNVs de signification clinique incertaine y est particulièrement problématique à cause du risque d’interruption de grossesse. Nous avons donc testé 49 fœtus avec malformations majeures et un caryotype conventionnel normal avec une micropuce CGH pangénomique, et obtenu un diagnostic dans 8,2% des cas. Par ailleurs, des micropuces à très haute résolution combinant le caryotype moléculaire et le génotypage de SNPs ont récemment été introduites sur le marché. En plus d’identifier les CNVs, ces plateformes détectent les LOHs, qui peuvent indiquer la présence d’une mutation homozygote ou de disomie uniparentale. Ces anomalies pouvant être associées à la déficience intellectuelle ou à des malformations, leur détection est particulièrement intéressante pour les patients dont le phénotype reste inexpliqué. Cependant, le rendement diagnostique de ces plateformes n’est pas confirmé, et l’utilité clinique réelle des LOHs n’est toujours pas établie. Nous avons donc testé 21 enfants atteints de déficience intellectuelle pour qui les méthodes standards d’analyse génétique n’avaient pas résulté en un diagnostic, et avons pu faire passer le rendement diagnostique de 14,3% à 28,6% grâce à l’information fournie par les LOHs. Cette étude démontre l’utilité clinique d’une micropuce CGH pangénomique chez des fœtus avec malformations, de même que celle d’une micropuce SNP chez des enfants avec déficience intellectuelle.
Resumo:
Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise professionnelle en physiothérapie