966 resultados para Domaine Numérique
Resumo:
Travail de recherche sur le thème de l’évaluation des archives à l’ère du numérique réalisé à l’hiver 2010 dans le cadre des cours SCI6112 L’évaluation des archives sous la direction du professeur Yvon Lemay et SCI6314 Gestion avancée des services d'information sous la direction de Carole Brouillette.
Resumo:
Les MAP kinases sont des enzymes essentielles impliquées dans 7 voies de signalisation distinctes qui permettent à la cellule de répondre de manière adéquate aux stimuli extra-cellulaires. Chez les mammifères, les MAP kinases les mieux caractérisées sont Erk1/2, Jnk, p38 et Erk5. Ces enzymes jouent un rôle important dans l’embryogenèse, la prolifération et la différenciation cellulaire ainsi que dans la réponse au stress. Erk4 est un membre atypique de la famille MAP kinase. D’une part, la boucle d’activation de Erk4 possède un motif SEG au lieu du motif TXY, très conservé chez les MAP kinases. D’autre part, Erk4 possède une extension en C-terminal du domaine kinase qui n’est pas présente chez les MAP kinases classiques. Jusqu’à présent aucune fonction n’a été attribuée à Erk4. De plus, la voie de signalisation ainsi que le mode de régulation conduisant à l’activation de Erk4 ne sont pas connus. Le seul substrat de Erk4 identifié jusqu’à maintenant est la MAPKAP kinase MK5. L’impact fonctionnel de cette interaction n’est également pas connu. Afin d’en apprendre davantage sur la MAP kinase atypique Erk4, nous avons étudié le mécanisme d’activation de cette kinase ainsi que sa fonction physiologique par une approche de délétion génique chez la souris. En ce qui concerne l’activation de Erk4, nous avons montré que la boucle d’activation de Erk4 (S186EG) est constitutivement phosphorylée in vivo et que cette phosphorylation n’est pas modulée par les stimuli classiques des MAP kinases dont le sérum et le sorbitol. Cependant, nous avons observé que la phosphorylation de la S186 augmente en présence de MK5 et que cette augmentation est indépendante de l’activité kinase de l’une ou l’autre de ces kinases. De plus, nous avons établi que la phosphorylation de la boucle d’activation de Erk4 est requise pour l’interaction stable entre Erk4 et MK5 ainsi que pour l’activation, et la relocalisation cytoplasmique de MK5. Ainsi, notre étude a permis de révéler que Erk4 est régulée de manière différente des MAP kinases classiques et que la phosphorylation de la boucle d’activation de Erk4 joue un rôle essentiel dans la régulation de l’activité de MK5. Parallèlement, nos résultats mettent en évidence l’existence d’une “Erk4 kinase”, dont le recrutement et/ou l’activation semble être facilité par MK5. Afin identifier la fonction physiologique de Erk4, nous avons généré des souris Erk4-déficientes. L’inactivation génique de Erk4 est viable et les souris ne présentent aucune anomalie apparente. Dans le but d’expliquer l’absence de phénotype, nous avons regardé si l’expression de Erk3, le paralogue de Erk4, pouvait compenser la perte de Erk4. Notre analyse a révélé que l’expression de Erk3 dans les souris Erk4-/- n’augmente pas au cours du développement embryonnaire ou dans les tissus adultes afin de compenser pour la perte de Erk4. Par la suite, nous avons adressé la question de redondance entre Erk4 et Erk3. Dans notre laboratoire, les souris Erk3-déficientes ont également été générées et le phénotype de ces souris a récemment été analysé. Cette étude a révélé que l’inactivation génique de Erk3 entraîne un retard de croissance intra-utérin, un défaut de maturation pulmonaire et la mort néo-natale des souriceaux. Nous avons donc regardé la contribution de Erk4 dans ces phénotypes. L’analyse des souris Erk4-/- a révélé que l’inactivation de Erk4 n’entraîne pas de retard de croissance ou de maturation du poumon. De plus, nous avons montré que l’inactivation additionnelle de Erk4 dans les souris Erk3-/- n’accentue pas le phénotype des souris Erk3-déficientes. Ainsi, notre étude a révélé que contrairement à Erk3, Erk4 n’est pas essentielle au développement murin dans des conditions physiologiques. Parallèlement, nous avons montré que Erk4 et Erk3 possèdent des fonctions non-redondantes in vivo.
Resumo:
Dans cette thèse, nous construisons un modèle épidémiologique de la dissémina- tion de normes juridiques. L’objectif est d’expliquer la transmission de normes juridiques américaines régissant les tests de dépistages pour drogues au travail vers le Canada ainsi que la propagation subséquente de ces normes à travers la jurisprudence canadienne. La propagation des normes régissant les tests de dépistages pour drogues au travail sert donc à la fois de point de départ pour une réflexion théorique sur la transmission de normes juridiques et pour une étude de cas empirique. Nous partons de la prémisse que les explications du changement juridique, telles celle de la transplantation et celle de l’harmonisation, sont essentiellement métaphoriques. Ces métaphores explicatives fonctionnent en invitant des comparaisons entre les domaines connus et inconnus. Quand ce processus de comparaison est systématisé, la métaphore devient un modèle. Dans la thèse, nous appliquons cette procédure de systématisation afin de transformer la métaphore de la propagation virale en modèle épidémiologique. Après une revue de la littérature sur les épidémies sociales, nous décrivons les éléments pertinents de la théorie épidémiologique pour, ensuite, les transposer au domaine juridique. Le modèle est alors opérationnalisé en l’appliquant à une base de données composée de la jurisprudence pertinente (n=187). Les résultats soutiennent les hypothèses du modèle. 90 % des décisions qui citent les sources américaines sont infectées selon les critères du modèle, alors que seulement 64 % des décisions qui ne citent pas de sources américaines sont infectées. Cela soutient l’hypothèse d’une épidémie dite de « réservoir commun ». Nous avons également démontré une corrélation positive entre la référence à ces décisions et l’état d’infection! : 87 % des décisions qui citent des décisions qui réfèrent aux sources américaines sont infectées, alors que le taux d’infection parmi la population restante est de seulement 53 %. Les résultats semblables ont été obtenus pour les décisions de troisième génération. Cela soutient l’hypothèse selon laquelle il y a eu propagation à travers la jurisprudence suite aux contacts initiaux avec le réservoir commun. Des corrélations positives ont aussi été démontrées entre l’état d’infection et l’appartenance à l’une ou l’autre de sous-populations particulières qui seraient, par hypothèse, des points d’infection. En conclusion de la thèse, nous avançons que c’est seulement après avoir construit un modèle et d’avoir constaté ses limites que nous pouvons vraiment comprendre le rôle des métaphores et des modèles dans l’explication de phénomènes juridiques.
Resumo:
Le génie tissulaire est un domaine interdisciplinaire qui applique les principes du génie et des sciences de la vie (notamment la science des cellules souches) dans le but de régénérer et réparer les tissus et organes lésés. En d'autres mots, plutôt que de remplacer les tissus et les organes, on les répare. La recherche en génie tissulaire est considérable et les ambitions sont grandes, notamment celle de mettre fm aux listes d'attente de dons d'organes. Le génie tissulaire a déjà commencé à livrer des produits thérapeutiques pour des applications simples, notamment la peau et le cartilage. Les questions sur la façon de réglementer les produits thérapeutiques qui sont issus du génie tissulaire sont soulevées à chaque nouveau produit. À ce jour, ces questions ont reçu peu d'attention comparativement aux questions éthiques associées aux recherches avec les cellules souches et les risques qu'engendrent les produits biologiques. Il est donc important d'examiner si le cadre normatif qui entoure la mise en marché des produits issus du génie tissulaire est approprié puisque de tels produits sont déjà disponibles sur le marché et plusieurs autres sont en voie de l'être. Notre analyse révèle que le cadre canadien actuel n'est pas approprié et le moment d'une reforme est arrivé. Les États-Unis et l'Union européenne ont chacun des approches particulières qui sont instructives. Nous avons entrepris une revue des textes réglementaires qui encadrent la mise en marché des produits issus du génie tissulaire au Canada, aux États-Unis et dans l'Union européenne et formulons quelques suggestions de réforme.
Resumo:
L'Accord sur le commerce intérieur est un accord de libre-échange pancanadien visant l'abaissement des barrières non tarifiaires au commerce interprovincial. La notion de barrières au commerce interprovincial, en soi, suscite maintes controverses. Aucun consensus n'existe à savoir quelles sont les barrières au commerce, quelles en sont leurs coûts, mais surtout, s'il faut les abaisser. La grande majorité des experts concoivent que beaucoup de ces barrières non tarifaires au commerce se retrouvent dans le secteur des produits agroalimentaires. À ce titre, ce domaine est, depuis plusieurs décennies, traditionnellement protectionniste et constitue donc un marché des plus difficiles à intégrer. Cette réalité prévaut tant au niveau international qu'interprovincial. Au Canada, l'outil privilégié après des années de négociations constitutionnelles infructueuses fut l'Accord sur le commerce intérieur. Cet accord, aux allures de traité international, vise l'intégration graduelle du marché interne canadien. La volonté de devenir un marché intégré et compétitif au niveau mondial se heurte à la détermination des provinces de protéger leur souveraineté législative. Ainsi, l'outil d'ouverture du marché que constitue l'Accord sur le commerce intérieur, qui navigue entre ces positions antagonistes, fut rédigé de manière assez complexe et peu accessible. Le contexte politique et constitutionnel particulier dans lequel se sont inscrites les négociations de cet accord a ainsi teinté le texte de l'accord et sa rédaction. En plus de sa simplification, plusieurs solutions intervenant sous plusieurs facettes de l'Accord sur le commerce intérieur permettraient à ce dernier de se voir plus efficace dans sa mission d'intégration du marché interprovincial canadien, en plus d'augmenter sa notoriété, sa crédibilité et de permettre une meilleure mise en œuvre.
Resumo:
L'une des critiques fondamentales adressées au mécanisme de contrôle et de surveillance de la Cour européenne des droits de l'homme en matière électorale tient au risque qu'il portera atteinte à la souveraineté de l'État. En effet, certains auteurs estiment que l'autonomie constitutionnelle de l'État dans le domaine électoral, jusqu'à tout récemment strictement protégée, s'affaiblit sous l'influence de la protection des droits de l'homme dans le système européen. Le présent mémoire a pour but de déterminer les conditions imposées aux autorités étatiques par la Cour européenne des droits de l'homme en vue d'assurer l'exercice efficace du droit à des élections libres. Ensuite, il analysera les effets de ces conditions sur la souveraineté des États parties à la Convention européenne des droits de l'homme. Notre étude s'intéresse, dans un premier temps, à l'examen du principe de la souveraineté de l'État et de son évolution progressive sous l'influence des droits de l'homme. Dans un deuxième temps, elle présentera le droit à des élections libres et ses manifestations théoriques et jurisprudentielles. L'étude des affaires tranchées par la Cour européenne permettra de remarquer que la déférence qui est accordée à la souveraineté des États s'accompagne d'une certaine limitation de la marge d'appréciation des autorités étatiques en cas de privation de l'exercice efficace du droit à des élections libres. Ensuite, les acquis théoriques et conceptuels seront appliqués à l'étude des restrictions électorales relevant des mesures législatives, administratives et judiciaires des États ainsi que des conditions imposées par la Cour européenne. À cet égard, l'analyse de ces conditions nous permettra de saisir l'étendue de la limitation de la liberté d'action des États en matière électorale. Cette recension analytique nous permettra de conclure que le mécanisme de contrôle de la Cour européenne entraîne de multiples effets limitatifs sur la souveraineté des États.
Resumo:
La schizophrénie est une maladie psychiatrique grave qui affecte approximativement 1 % de la population. Il est clairement établi que la maladie possède une composante génétique très importante, mais jusqu’à présent, les études ont été limitées au niveau de l’identification de facteurs génétiques spécifiquement liés à la maladie. Avec l’avènement des nouvelles avancées technologiques dans le domaine du séquençage de l’ADN, il est maintenant possible d’effectuer des études sur un type de variation génétique jusqu’à présent laissé pour compte : les mutations de novo, c.-à-d. les nouvelles mutations non transmises de manière mendélienne par les parents. Ces mutations peuvent avoir deux origines distinctes : une origine germinale au niveau des gamètes chez les parents ou une origine somatique, donc au niveau embryonnaire directement chez l’individu. L’objectif général de la présente recherche est de mieux caractériser les mutations de novo dans la schizophrénie. Comme le rôle de ces variations est peu connu, il sera également nécessaire de les étudier dans un contexte global au niveau de la population humaine. La première partie du projet consiste en une analyse exhaustive des mutations de novo dans la partie codante (exome) de patients atteints de schizophrénie. Nous avons pu constater que non seulement le taux de mutations était plus élevé qu’attendu, mais nous avons également été en mesure de relever un nombre anormalement élevé de mutations non-sens, ce qui suggère un profil pathogénique. Ainsi, nous avons pu fortement suggérer que les mutations de novo sont des actrices importantes dans le mécanisme génétique de la schizophrénie. La deuxième partie du projet porte directement sur les gènes identifiés lors de la première partie. Nous avons séquencé ces gènes dans une plus grande cohorte de cas et de contrôles afin d’établir le profil des variations rares pour ces gènes. Nous avons ainsi conclu que l’ensemble des gènes identifiés par les études de mutations de novo possède un profil pathogénique, ce qui permet d’établir que la plupart de ces gènes ont un rôle réel dans la maladie et ne sont pas des artéfacts expérimentaux. De plus, nous avons pu établir une association directe avec quelques gènes qui montrent un profil aberrant de variations rares. La troisième partie du projet se concentre sur l’effet de l’âge paternel sur le taux de mutations de novo. En effet, pour la schizophrénie, il est démontré que l’âge du père est un facteur de risque important. Ainsi, nous avons tenté de caractériser l’effet de l’âge du père chez des patients en santé. Nous avons observé une grande corrélation entre l’âge du père et le taux de mutations germinales et nous avons ainsi pu répertorier certaines zones avec un grand nombre de mutations de novo, ce qui suggère l’existence de zone chaude pour les mutations. Nos résultats ont été parmi les premiers impliquant directement les mutations de novo dans le mécanisme génétique de la schizophrénie. Ils permettent de jeter un nouveau regard sur les réseaux biologiques à l’origine de la schizophrénie en mettant sous les projecteurs un type de variations génétiques longtemps laissé pour compte.
Resumo:
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP.
Resumo:
La concertation est un phénomène récent, de plus en plus répandu. Elle s’applique à de nombreux domaines notamment en urbanisme et plus récemment à la protection du patrimoine. Elle semble être un outil approprié pour les autorités municipales afin de faire face aux conflits autour des projets d’aménagement particulièrement ceux liés à la protection du patrimoine. Notre questionnement porte sur l’apport de la concertation dans le domaine de la préservation du patrimoine et sur la pertinence des moyens mis en place pour atteindre un tel objectif. Les tables de concertation, en tant que processus de concertation, sont-elles appropriées pour la gestion des sites patrimoniaux ? À la lumière d’une discussion théorique sur le concept de la concertation en aménagement, nous faisons l’analyse comparative de deux Tables de concertation, celle du Vieux-Montréal et celle du Mont-Royal. Notre analyse porte sur l’évaluation du processus de concertation et sur la construction d’une vision globale pour le devenir des secteurs patrimoniaux concernés. L’objectif est de caractériser le processus de concertation utilisé à Montréal et d’en apprécier l’apport dans le domaine de la protection du patrimoine. L’analyse de nos deux cas d’étude révèle l’existence d’un processus de concertation propre à Montréal, avec ses caractéristiques spécifiques, mais qui reste à parfaire pour son optimisation. Notre recherche se conclut sur la nécessité d’améliorer le processus de concertation, tel qu’étudié, à travers un certain nombre de pistes à explorer.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.
Resumo:
Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.
Resumo:
La régulation de la transcription est un processus complexe qui a évolué pendant des millions d’années permettant ainsi aux cellules de s’adapter aux changements environnementaux. Notre laboratoire étudie le rôle de la rapamycine, un agent immunosuppresseur et anticancéreux, qui mime la carence nutritionelle. Afin de comprendre les mécanismes impliqués dans la réponse a la rapamycine, nous recherchons des mutants de la levure Saccaromyces cerevisiae qui ont un phenotype altérée envers cette drogue. Nous avons identifié le gène RRD1, qui encode une peptidyl prolyl isomérase et dont la mutation rend les levures très résistantes à la rapamycine et il semble que se soit associé à une réponse transcriptionelle alterée. Mon projet de recherche de doctorat est d’identifier le rôle de Rrd1 dans la réponse à la rapamycine. Tout d’abord nous avons trouvé que Rrd1 interagit avec l’ARN polymérase II (RNAPII), plus spécifiquement avec son domaine C-terminal. En réponse à la rapamycine, Rrd1 induit un changement dans la conformation du domaine C-terminal in vivo permettant la régulation de l’association de RNAPII avec certains gènes. Des analyses in vitro ont également montré que cette action est directe et probablement liée à l’activité isomérase de Rrd1 suggérant un rôle pour Rrd1 dans la régulation de la transcription. Nous avons utilisé la technologie de ChIP sur micropuce pour localiser Rrd1 sur la majorité des gènes transcrits par RNAPII et montre que Rrd1 agit en tant que facteur d’élongation de RNAPII. Pour finir, des résultats suggèrent que Rrd1 n’est pas seulement impliqué dans la réponse à la rapamycine mais aussi à differents stress environnementaux, nous permettant ainsi d’établir que Rrd1 est un facteur d’élongation de la transcription requis pour la régulation de la transcription via RNAPII en réponse au stress.
Resumo:
Le développement hématopoïétique est régulé par l’action combinée de facteurs de transcription lignée spécifiques et de la machinerie transcriptionnelle de base, permettant ainsi l’expression de gènes en temps et lieu appropriés. Les travaux présentés dans cette thèse portent sur l’étude structurale et fonctionnelle d’interactions décisives pour la régulation de l’expression de gènes et impliquant des domaines de transactivation (TAD). En effet, les interactions faisant intervenir les TAD d’activateurs permettent de réguler l’activation de la transcription de façon spécifique. La première étude présentée dans cette thèse relate l'identification et la caractérisation d'une nouvelle interaction entre deux facteurs de transcription : le facteur hématopoïétique GATA-1 et la protéine suppresseur de tumeur p53. En combinant des études in vitro par titrage calorimétrique en condition isotherme (ITC) et par spectroscopie RMN et des études in vivo, nous avons identifié et caractérisé cette nouvelle interaction. Il s'avère que le TAD de p53 et le domaine de liaison à l’ADN de GATA-1 sont les domaines minimaux requis pour la formation de ce complexe. L'inhibition de la voie p53 par GATA-1 s’est avérée être la conséquence majeure de cette interaction, permettant ainsi le maintien en vie des précurseurs érythrocytaires via l’inhibition de l’apoptose. Un deuxième type d’interaction a fait l’objet d’études : l’interaction entre divers TAD et la machinerie transcriptionnelle de base, plus spécifiquement avec le Facteur général de Transcription IIH (TFIIH). La structure des complexes constitués par la sous-unité Tfb1/p62 du facteur TFIIH en interaction avec le TAD viral de VP16 d’une part, et avec le TAD humain du facteur érythrocytaire « Erythroid Krüppel-like factor» (EKLF) d’autre part, ont été résolues par spectroscopie RMN. La structure du complexe Tfb1/VP16 a révélée que le mode de liaison de VP16 à Tfb1 est similaire au mode de liaison du TAD de p53 avec le même partenaire. En effet, les TAD de VP16 et de p53 forment tous deux une hélice α de 9 résidus en interaction avec Tfb1. En dépit de partager avec p53 et VP16 le même site de liaison sur Tfb1/p62, la structure RMN du complexe EKLF/Tfb1 démontre que le mode d’interaction de ce TAD se distingue du mode de liaison canonique des activeurs transcriptionnels. Etonnamment, EKLF adopte un mécanisme de liaison semblable au mécanisme de liaison du facteur général de transcription TFIIEα avec p62, leurs conformations demeurent étendues en interaction avec Tfb1/p62. En se basant sur nos données structurales, nous avons identifié un résidu dans le TAD d'EKLF décisif pour la formation du complexe EKLF/p62 : le Trp73. La mutation de cet acide aminé perturbe son interaction avec Tfb1PH/p62PH et réduit significativement l'activité transcriptionnelle d'EKLF dans les érythrocytes.
Resumo:
Résumé: Les progrès réalisés dans le domaine médical ont permis un prolongement de l’espérance de vie, l’amélioration de la qualité de vie des patients; ce qui implique aussi des changements dans des domaines comme l’assurance-vie. Le principe de la tarification en assurance-vie est basé sur la comparaison du risque (probabilité) de décès d’un individu candidat à une police d’assurance à celui d’une population de référence la plus proche possible du candidat. C’est ainsi que l’analyse de la littérature médicale est devenue un outil indispensable dans la sélection des risques. L’assurance-vie est présente en Afrique subsaharienne depuis environ deux cents ans, mais les assureurs ne disposaient pas jusqu'à nos jours d’outils de tarification spécifiques au contexte africain. A notre connaissance notre travail est le premier effort de ce type à s’intéresser à ce sujet. Son objectif est d’élaborer un outil de tarification qui tiendra compte des aspects spécifiques de la mortalité et de la morbidité sur le continent africain. Dans une première partie nous avons conduit une revue de la littérature médicale disponible sur différents problèmes de santé; dans une seconde étape nous avons identifié les facteurs de risque de morbidité et de mortalité afin de proposer une sélection des risques pour une tarification. Les résultats montrent que les études de mortalité, et principalement les cohortes de suivi à long terme sont rares en Afrique subsaharienne; la majorité des études sont de courte durée et en plus elles enrôlent un nombre restreint de patients. Ces insuffisances ne permettent pas une analyse actuarielle approfondie et les résultats sont difficiles à extrapoler directement dans le domaine de la tarification. Cependant, l’identification des facteurs d’aggravation de la mortalité et de la morbidité permettra un ajustement de la tarification de base. Le sujet noir africain présente un profil de mortalité et de morbidité qui est sensiblement différent de celui du sujet caucasien, d’où la nécessité d’adapter les outils de tarification actuellement utilisés dans les compagnies d’assurance qui opèrent en Afrique subsaharienne. L’Afrique au sud du Sahara a besoin aujourd’hui plus que jamais de données épidémiologiques solides qui permettront de guider les politiques sanitaires mais aussi servir au développement d’une sélection des risques adaptés au contexte africain. Ceci passera par la mise en place d’un réseau coordonné de santé publique, un système de surveillance démographique fiable et un suivi continu des mouvements de la population. Pour atteindre un tel objectif, une collaboration avec les pays développés qui sont déjà très avancés dans de tels domaines sera nécessaire.