231 resultados para Potentiels évoqués
Resumo:
BRCA1 est un suppresseur de tumeur majeur jouant un rôle dans la transcription, la réparation de l’ADN et le maintien de la stabilité génomique. En effet, des mutations dans le gène BRCA1 augmentent considerablement le risque de cancers du sein et de l’ovaire. BRCA1 a été en majorité caractérisé pour son rôle dans la réparation de l’ADN par la voie de recombinaison homologue (HR) en présence de bris double brins, par example, induits par l’irradiation gamma (IR). Cependant, la fonction de BRCA1 dans d’autres voies de réparation de l’ADN, comme la réparation par excision de nucléotides (NER) ou par excision de base (BER), demeurent toutefois obscures. Il est donc important de comprendre la régulation de BRCA1 en présence d’agents génotoxiques comme le méthyle méthanesulfonate (MMS) ou l’UV, qui promouvoient le BER et le NER respectivement. Nos observations suggèrent que BRCA1 est dégradée par le protéasome après traitement avec le MMS ou les UV, et non avec l’IR. Par ailleurs, cette dégradation semble compromettre le recrutement de Rad51, suggérant que la voie de HR est inhibée. Nos résultats suggèrent que la HR est inhibée afin d’éviter l’activation simultanée de multiples voies de réparation. Nous avons aussi observé que la dégradation BRCA1 est réversible et que la restauration des niveaux de BRCA1 coïncide avec le recrutement de Rad51 aux sites de dommages. Cela suggère que la HR est réactivée tardivement par les bris double brins générés suite à l’effondrement des fourches de réplication. Ayant observé que BRCA1 est hautement régulé par l’ubiquitination et est ciblé par le protéasome pour dégradation, nous avons émis une hypothèse que BRCA1 est régulé par des déubiquitinases. Cela amène à caractériser plus en profondeur par un criblage en déplétant les déubiquitinases individuellement par RNAi et en observant leur effet sur le recrutement de BRCA1 et des protéines reliées à cette voie. Un criblage préliminaire nous a permi d’identifié candidats potentiels tel que BAP1, CXORF53, DUB3, OTUB1 et USP36.
Resumo:
La complexité de la tâche qu’est la lecture du français en interaction avec les caractéristiques de la personne qui a un retard de deux ans en lecture, la population cible de cette recherche, place cette dernière en situation d’échec. Tous les processus impliqués dans l’acte de lire en interaction avec ces caractéristiques induisent des échecs et des retards d’apprentissage de la lecture. L’enseignant, qui souhaite utiliser un manuel scolaire tout en intégrant un élève de 3e année ne sachant toujours pas lire, a deux choix : lui offrir un manuel de 1re année, un manuel de 3e année ou adapter lui-même son matériel. Si l’enseignant lui remet un manuel de 1re année, l’élève vit des réussites, mais les thèmes sont infantilisants. Si l’enseignant remet un manuel de 3e année à ce même élève, les thèmes ne sont pas infantilisants, mais le niveau en lecture place ce dernier systématiquement en situation d’échec. Si l’enseignant adapte lui-même le matériel, l’entreprise est grande en charge de travail pour ce dernier. En réponse à ce dilemme, le Groupe DÉFI Accessibilité (GDA) a conçu des manuels scolaires adaptés. Ils sont, à première vue, identiques à la version originale Signet (3e année), mêmes thèmes, mêmes titres, mêmes numéros de pages, mêmes illustrations et mêmes réponses aux deux premières questions de chaque page, mais les textes sont simplifiés afin de permettre la lecture à l’élève de 3e année qui a deux ans de retard dans cette matière. En accord avec une stratégie de design inclusif, la simplification des manuels par le GDA a été réalisée en fonction des caractéristiques d’un groupe de référence reconnu pour avoir de grandes difficultés d’apprentissage de la lecture, soit des élèves qui ont des incapacités intellectuelles (Langevin, Rocque, Ngongang et Chaghoumi, 2012). L’objet de cette thèse est le calcul de la productivité et de l’efficience de ces manuels scolaires adaptés auprès d’élèves qui ont deux années de retard en lecture, la population cible. La méthodologie utilisée pour cette recherche est l’analyse de la valeur pédagogique, une méthode systématique de développement et d’évaluation de produits, procédés ou services, adaptée de l’ingénierie. Cette recherche a pour objet la troisième et dernière phase de l’analyse de la valeur pédagogique, soit l’évaluation des manuels scolaires adaptés. En analyse de la valeur pédagogique, comme pour cette recherche, la mise à l’essai a deux objectifs : comparer le prototype créé au cahier des charges fonctionnel regroupant toutes les fonctions que devrait remplir le produit pour répondre aux besoins de ses utilisateurs potentiels et calculer la productivité/efficience. Puisqu’il s’agit d’une première mise à l’essai, un troisième objectif est ajouté, soit la proposition de pistes d’amélioration au prototype de manuels scolaires adaptés. La mise à l’essai s’est échelonnée sur six mois. L’échantillon regroupe quatre enseignantes de 3e année, deux en classes spéciales et deux en classes régulières. Ces dernières enseignent à 32 élèves utilisateurs des manuels scolaires adaptés : six sont dyslexiques, quatre ont une connaissance insuffisante de la langue française, un a un trouble envahissant du développement avec incapacités intellectuelles et 21 ont des incapacités intellectuelles légères. Les résultats sont présentés sous la forme de trois articles. Les quatre enseignantes ont confirmé la réponse des manuels scolaires adaptés au cahier des charges fonctionnel. De plus, la phase de conception a été jugée efficiente et la phase d’utilisation productive. Il n’y a pas de modification à faire aux manuels scolaires adaptés. Par contre, le guide d’utilisateur doit être modifié, puisque l’outil n’a pas été utilisé tel qu’il était prévu par l’équipe de conception.
Resumo:
Cette thèse propose une analyse de la question de la survivance – notion ayant retenu l’attention de penseurs issus de différentes disciplines tels que Janine Altounian, Jacques Derrida et Georges Didi-Huberman – dans l’œuvre de Sarah Kofman, plus particulièrement dans son récit autobiographique intitulé Rue Ordener, rue Labat, paru en 1994. Quatre grandes orientations guident ce travail dont l’approche théorique se situe à la croisée de la littérature, de la philosophie, de la psychanalyse, de l’histoire (tant sociale que de l’art) et du juridique. Premièrement, nous nous intéressons à ce qu’implique non seulement le fait d’« échapper à la mort », en observant les moyens mis en œuvre pour y parvenir, mais aussi celui de « continuer à vivre » après l’événement de la Shoah. Deuxièmement, nous étudions les différentes manifestations de « la survivance active de l’enfant en nous » (J.-B. Pontalis) de même que celle de « l’objet perdu » dans le travail de deuil impossible, encore autrement « interminable », qui a pris corps dans l’œuvre de Sarah Kofman. Troisièmement, nous abordons la « survivance » au sens du Nachleben d’Aby Warburg et repérons la trace des autres écrits de la philosophe, elliptiquement condensés dans son récit par la reprise de thèmes, le retour de sujets antérieurement évoqués. Quatrièmement, nous interrogeons la locution pronominale « se survivre » et la portée de ses compléments : « dans son œuvre », « dans son témoignage », « dans les mémoires ». Parmi les points qui sont analysés en profondeur dans les chapitres de cette thèse, notons les motifs du ressentiment, du double tragique, du pardon et de l’oubli, de la « disgrâce », de la honte et de la culpabilité, ainsi que les différentes modalités de la survivance – la capacité d’adaptation et le rôle des mères, la lecture, le rire, les arts visuels – mises en œuvre par Sarah Kofman. Dans cette « œuvre-vie » (Pleshette DeArmitt), ce corpus singulier et unique, il s’est toujours agi de ceci, quoi qu’il lui en coûta : « affirmer sans cesse la survie », selon l’expression de Derrida.
Resumo:
Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.
Resumo:
La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.
Resumo:
Étude de cas / Case study
Resumo:
Les centrosomes dont le rôle principal est d’organiser le cytosquelette de microtubules et le fuseau mitotique servent aussi de sites d’interaction pour plusieurs protéines régulatrices du cycle cellulaire et de la réponse aux dommages à l’ADN. Une de ces protéines est la kinase CHK2 et plusieurs publications montrent une sous-population de CHK2 localisée aux centrosomes dans les cellules en interphase et en mitose. Toutefois, la localisation de CHK2 aux centrosomes demeure controversée, car des doutes subsistent en ce qui concerne la spécificité des anticorps utilisés en immunocytochimie. En utilisant des lignées cellulaires du cancer du côlon, les cellules HCT116 sauvages et HCT116 CHK2-/- ainsi que différentes lignées d’ostéosarcome humain dans lesquelles l’expression de CHK2 a été inhibée par ARN interférence, nous montrons que les anticorps anti-CHK2 qui donnent un signal centrosomal sont non spécifiques et reconnaissent un antigène inconnu sur les centrosomes. Cependant, par des expériences d’immunofluorescence réalisées avec des cellules U2OS qui expriment les protéines de fusion GFP-CHK2 ou FLAG-CHK2, nous révélons une localisation centrosomale de CHK2 dans les cellules en mitose, mais pas en interphase. Ce résultat a été confirmé par vidéomicroscopie dans les cellules vivantes exprimant GFP-CHK2. Pour déterminer le ou les rôles potentiels de CHK2 en mitose nous avons réalisé des expériences pour explorer le rôle de CHK2 dans la progression de la mitose, la nucléation des microtubules aux centrosomes et la progression de la mitose en présence de problèmes d’attachement des chromosomes où de lésions génotoxiques. Nos données suggèrent que CHK2 n’est pas impliquée dans la régulation de la mitose dans les cellules U2OS.
Resumo:
Gabrielle Soucy s'est méritée le 2ème prix du concours d'affiches intitulé « La recherche en environnement et son apport à la société » organisé dans le cadre du colloque. Elle a reçu une bourse d'étude de 250$. Le titre de son affiche : Évaluation des impacts potentiels sur la santé humaine dûs à l'émission de plusieurs substances dans la régions des Grands Lacs (GL) et du bassin du Saint-Laurent.
Resumo:
Depuis quelques années, mais surtout depuis le 11 septembre 2001, les contrôles migratoires sont devenus le locus principal d’affirmation du pouvoir souverain dans les pays occidentaux. La mouvance sécuritaire actuelle semble avoir donné les outils conceptuels nécessaires aux États pour leur permettre d’amalgamer des notions autrefois distinctes, comme la sécurité et l’immigration, et d’en inférer des liens qui paraissent désormais naturels et évidents aux yeux du public. Le Canada s’inscrit aussi dans cette mouvance où l’immigrant et l’étranger sont désormais pensés en relation avec l’illégalité, la criminalité et le sujet de non-droit. En pratique, cela se traduit par la mise en œuvre étatique d’un pouvoir souverain qui se manifeste clairement et ouvertement dans le cadre de contrôles migratoires de plus en plus serrés et contraignants. Ainsi, alimenté par la justification sécuritaire, par l’affect de la peur et par la nécessité de combattre le terrorisme international, le Canada applique ses lois et ses politiques de manière à exercer un contrôle accru sur sa population, plus particulièrement sur les migrants en général, mais encore davantage sur les demandeurs d’asile et les réfugiés soupçonnés de terrorisme. La mise en œuvre de pratiques restrictives à l’endroit des demandeurs d’asile et des réfugiés est facilitée par une conviction très tenace. À la lumière de son comportement, le gouvernement canadien semble convaincu que l’exclusion, l’expulsion, voire le refoulement, à l’extérieur du territoire national des personnes jugées être de potentiels terroristes, permettront de renforcer la sécurité nationale. Cette conviction est elle-même supportée par une autre, à savoir la croyance selon laquelle le pouvoir souverain d’exclure quelqu’un du territoire est absolu et, qu’en situation d’exception, il ne peut être limité d’aucune manière par le droit international. Suivant ceci, la lutte antiterroriste s’exécute presque exclusivement par le rejet des éléments potentiellement dangereux à l’extérieur du pays, au détriment d’autres mesures moins attentatoires des droits et libertés, plus légitimes et plus à même de remplir les objectifs liés à la lutte au terrorisme international. Dans notre étude, par une relecture d’une décision paradigmatique de la Cour suprême du Canada, l’affaire Suresh, nous chercherons à ébranler ces convictions. Notre thèse est à l’effet que la prétention du Canada à vouloir en arriver à un monde plus sécuritaire, en excluant d’une protection internationale contre la torture et en refoulant de potentiels terroristes à l'extérieur de son territoire, constitue une entreprise vouée à l’échec allant potentiellement à l’encontre des objectifs de lutte au terrorisme et qui se réalise présentement dans le déni de ses obligations internationales relatives aux droits de l’Homme et à la lutte contre l’impunité. Généralement, à la lumière d’une analyse de certaines obligations du Canada dans ces domaines, notre étude révélera trois éléments, ceux-ci se trouvant en filigrane de toute notre réflexion. Premièrement, le pouvoir souverain du Canada d’exclure des individus de son territoire n’est pas absolu. Deuxièmement, le droit d’une personne à obtenir protection non plus n’est pas absolu et des mécanismes d’équilibrage existant en droit international permettent de protéger les personnes tout en s’assurant que le Canada ne devienne pas un refuge pour les terroristes potentiels. Troisièmement, le Canada est astreint à d’autres obligations internationales. Celles-ci protègent les personnes exclues d’une protection et forcent le gouvernement à lutter contre l’impunité.
Resumo:
Malgré l’incertitude quant à leur sécurité à l’égard des personnes et de l’environnement, les cultures génétiquement modifiées (GM) ont été largement diffusées à travers le monde. En outre, dans de nombreux pays la coexistence des cultures GM avec les systèmes conventionnels de production et les systèmes de production biologique est habituelle. Dans l’Union européenne (UE), cependant, l’utilisation de cette technologie a soulevé d’importantes questions. Ces réserves sont reflétées dans le développement d’un cadre réglementaire particulièrement restrictif articulé autour d’une procédure unique d’approbation de ces cultures. De la même manière, le débat sur la coexistence des cultures GM avec la production agricole conventionnelle et la production biologique a été particulièrement animé dans l’UE. La première section de ce travail est consacrée à examiner comment, du fait de la complexité des nouvelles technologies, il est nécessaire, du point de vue régulateur, de faire face à des situations dans lesquelles les scientifiques ne peuvent encore fournir aucune réponse précise. Dans ce contexte, le principe de précaution est invoqué afin de limiter les dangers potentiels, mais ceci est sans préjudice des questions qui restent encore ouvertes sur la portée et la nature de ce principe. En tant que manifestations précises de ce principe de précaution, deux aspects sont abordés dans les secondes et troisièmes parties de ce travail. Nous analysons, d’abord, la procédure d’autorisation des produits GM dans l’UE, procédure spécifique basée sur le principe de précaution dans laquelle soit les institutions communautaires soit les autorités des États membres jouent un rôle important. Par rapport à ce cadre très réglementé de l’UE, la troisième partie examine le degré d’intervention des États membres. Ceci se manifeste principalement dans la possibilité d’adopter certaines clauses de sauvegarde pour limiter l’expansion des cultures GM ainsi que dans la réglementation de la coexistence des cultures GM avec les cultures conventionnelles et la possibilité d’exclure de la culture des OGM certaines zones. Finalement, quelques conclusions sont données dans la quatrième partie.
Resumo:
Article
Resumo:
PériCulture est le nom d'un projet de recherche à l'Université de Montréal qui fait partie d'un projet plus vaste basé à l'Université de Sherbrooke. Ce dernier visait à former un réseau de recherche pour la gestion du contenu culturel numérique canadien. L'objectif général de la recherche de PériCulture était d'étudier les méthodes d'indexation de contenus culturels non textuels sur le Web, plus spécifiquement des images. Les résultats de la recherche présentés ici s'appuient sur des travaux précédents en indexation d'images et en indexation automatique (de texte), par l'étude des propriétés du texte associé à des images dans un environnement réseau. Le but était de comprendre la façon dont le texte associé à des images sur des pages Web (appelé péritexte) peut être exploité pour indexer les images correspondantes. Nous avons étudié cette question dans le contexte de pages Web sélectionnées, c'est à dire : des pages de contenu culturel canadien contenant des objets multimédia auxquels était associé du texte (plus que simplement les noms de fichiers et les légendes) et qui étaient bilingues (anglais et français). Nous avons identifié les mots-clés utiles à l'indexation situés à proximité de l'objet décrit. Les termes d'indexation potentiels ont été identifiés dans diverses balises HTML et dans le texte intégral (chacun étant considéré comme une source différente de péritexte). Notre étude a révélé qu'un grand nombre de termes d'indexation utiles sont disponibles dans le péritexte de nombreux sites Web ayant un contenu culturel, et ce péritexte de différentes sources a une utilité variable dans la recherche d’information. Nos résultats suggèrent que ces termes peuvent être exploités de différentes manières dans les systèmes de recherche d’information pour améliorer les résultats de recherche.
Resumo:
Introduction : La scaphocéphalie est la craniosynostose monosuturaire la plus commune (1/2000). Celle-ci est causée par la fusion prématurée de la suture sagittale. Une chirurgie corrective de la voûte crânienne peut être effectuée dans la première année de vie de l’enfant. Il n’existe actuellement aucune donnée précise dans la littérature scientifique étudiant l’occlusion chez les patients scaphocéphales, ainsi que les impacts potentiels de la chirurgie de la voûte crânienne sur celle-ci. Objectifs : L’objectif primaire de cette étude est de décrire et comparer la malocclusion dento-squelettique d’un groupe de patients scaphocéphales à une population pédiatrique normale. L’objectif secondaire est d’évaluer la différence au niveau de l’occlusion entre un sous-groupe de patients scaphocéphales ayant eu une chirurgie corrective de la voûte crânienne et un sous-groupe ne l’ayant pas eu. Méthodologie : Quatre-vingt-onze patients scaphocéphales (2-11 ans; 71 garçons) de la banque de données de la Clinique de Craniofacial du CHU Ste-Justine ont formé le groupe expérimental. Tous les patients ont eu un examen orthodontique complet et ont été suivis. Parmi ceux-ci, quarante-quatre avaient eu une chirurgie corrective de la voûte crânienne et quarante-sept n’en avaient pas eu, mais étaient suivis régulièrement à la clinique. Trente-huit (33 garçons; 17 opérés) de ces patients ont eu des radiographies céphalométriques latérales et parmi ceux-ci, un certain nombre ont reçus des suivis de croissance radiologiques. Résultats : Les valeurs cliniques de la classification dentaire, ainsi que la mesure du surplomb horizontal, ont indiqué une augmentation de la prévalence de malocclusions de classe II chez les enfants scaphocéphales. Par contre, les valeurs céphalométriques indicatrices de malocclusion squelettique de classe II (ex. : N-A perp HP, N-B perp HP, N-Pog perp HP, Wits, N-A-Pog) sont demeurées dans les limites de la normale. Certaines valeurs céphalométriques présentent une différence statistiquement significative entre les patients opérés et non opérés (ANS-PNS t2, p=0.025; /1-FH t2, p=0.028), mais ces variations individuelles ne sont pas reliées à la scaphocéphalie. Conclusion : Les enfants scaphocéphales présentent cliniquement davantage de malocclusions de classe II que les enfants normaux. Par contre, les valeurs radiologiques antéro-postérieures et transverses demeurent dans les limites de la normale. La chirurgie corrective de la voûte crânienne n’affecte également pas l’occlusion chez ces patients.
Resumo:
Les ataxies épisodiques (EA) d’origine génétique sont un groupe de maladies possédant un phénotype et génotype hétérogènes, mais ont en commun la caractéristique d’un dysfonctionnement cérébelleux intermittent. Les EA de type 1 et 2 sont les plus largement reconnues des ataxies épisodiques autosomiques dominantes et sont causées par un dysfonctionnement des canaux ioniques voltage-dépendants dans les neurones. La présente étude se concentrera sur les mutations causant l'EA-1, retrouvées dans le senseur de voltage (VSD) de Kv1.1, un canal très proche de la famille des canaux Shaker. Nous avons caractérisé les propriétés électrophysiologiques de six mutations différentes à la position F244 et partiellement celles des mutations T284 A/M, R297 K/Q/A/H, I320T, L375F, L399I et S412 C/I dans la séquence du Shaker grâce à la technique du ‘’cut open voltage clamp’’ (COVC). Les mutations de la position F244 situées sur le S1 du canal Shaker sont caractérisées par un décalement des courbes QV et GV vers des potentiels dépolarisants et modifient le couplage fonctionnel entre le domaine VSD et le pore. Un courant de fuite est observé durant la phase d'activation des courants transitoires et peut être éliminé par l'application du 4-AP (4-aminopyridine) ou la réinsertion de l'inactivation de type N mais pas par le TEA (tétraéthylamonium). Dans le but de mieux comprendre les mécanismes moléculaires responsables de la stabilisation d’un état intermédiaire, nous avons étudié séparément la neutralisation des trois premières charges positives du S4 (R1Q, R2Q et R3Q). Il en est ressorti l’existence d’une interaction entre R2 et F244. Une seconde interface entre S1 et le pore proche de la surface extracellulaire agissant comme un second point d'ancrage et responsable des courants de fuite a été mis en lumière. Les résultats suggèrent une anomalie du fonctionnement du VSD empêchant la repolarisation normale de la membrane des cellules nerveuses affectées à la suite d'un potentiel d'action.
Resumo:
L'épilepsie constitue le désordre neurologique le plus fréquent après les maladies cérébrovasculaires. Bien que le contrôle des crises se fasse généralement au moyen d'anticonvulsivants, environ 30 % des patients y sont réfractaires. Pour ceux-ci, la chirurgie de l'épilepsie s'avère une option intéressante, surtout si l’imagerie par résonance magnétique (IRM) cérébrale révèle une lésion épileptogène bien délimitée. Malheureusement, près du quart des épilepsies partielles réfractaires sont dites « non lésionnelles ». Chez ces patients avec une IRM négative, la délimitation de la zone épileptogène doit alors reposer sur la mise en commun des données cliniques, électrophysiologiques (EEG de surface ou intracrânien) et fonctionnelles (tomographie à émission monophotonique ou de positrons). La faible résolution spatiale et/ou temporelle de ces outils de localisation se traduit par un taux de succès chirurgical décevant. Dans le cadre de cette thèse, nous avons exploré le potentiel de trois nouvelles techniques pouvant améliorer la localisation du foyer épileptique chez les patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie d’épilepsie : l’IRM à haut champ, la spectroscopie proche infrarouge (SPIR) et la magnétoencéphalographie (MEG). Dans une première étude, nous avons évalué si l’IRM de haut champ à 3 Tesla (T), présentant théoriquement un rapport signal sur bruit plus élevé que l’IRM conventionnelle à 1,5 T, pouvait permettre la détection des lésions épileptogènes subtiles qui auraient été manquées par cette dernière. Malheureusement, l’IRM 3 T n’a permis de détecter qu’un faible nombre de lésions épileptogènes supplémentaires (5,6 %) d’où la nécessité d’explorer d’autres techniques. Dans les seconde et troisième études, nous avons examiné le potentiel de la SPIR pour localiser le foyer épileptique en analysant le comportement hémodynamique au cours de crises temporales et frontales. Ces études ont montré que les crises sont associées à une augmentation significative de l’hémoglobine oxygénée (HbO) et l’hémoglobine totale au niveau de la région épileptique. Bien qu’une activation contralatérale en image miroir puisse être observée sur la majorité des crises, la latéralisation du foyer était possible dans la plupart des cas. Une augmentation surprenante de l’hémoglobine désoxygénée a parfois pu être observée suggérant qu’une hypoxie puisse survenir même lors de courtes crises focales. Dans la quatrième et dernière étude, nous avons évalué l’apport de la MEG dans l’évaluation des patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie. Il s’est avéré que les localisations de sources des pointes épileptiques interictales par la MEG ont eu un impact majeur sur le plan de traitement chez plus des deux tiers des sujets ainsi que sur le devenir postchirurgical au niveau du contrôle des crises.