1000 resultados para Modèle de données
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
La régulation transcriptionnelle des gènes est cruciale pour permettre le bon fonctionnement des cellules. Afin que les cellules puissent accomplir leurs fonctions, les gènes doivent être exprimés adéquatement dans le bon type cellulaire et au stade de développement et de différenciation approprié. Un dérèglement dans l’expression de un ou plusieurs gènes peut entraîner de graves conséquences sur le destin de la cellule. Divers éléments en cis (ex : promoteurs et enhancers) et en trans (machinerie transcriptionnelle et facteurs de transcription) sont impliqués dans la régulation de la transcription. Les gènes du locus humain beta-globine (hub) sont exprimés dans les cellules érythroïdes et sont finenement régulés lors du développement et de la différenciation. Des mutations dans différentes régions du locus causent entre autres les beta-thalassémies. Nous avons utilisé ce modèle bien caractérisé afin d’étudier différents mécanismes de régulation favorisés par les facteurs de transcription qui sont exprimés dans les cellules érythroïdes. Nous nous sommes intéressés à l’importance de l’élément en cis HS2 du Locus control region. Cet élément possède plusieurs sites de liaison pour des facteurs de transcription impliqués dans la régulation des gènes du locus hub. Nos résultats montrent que HS2 possède un rôle dans l’organisation de la chromatine du locus qui peut être dissocié de son rôle d’enhancer. De plus, HS2 n’est pas essentiel pour l’expression à haut niveau du gène beta alors qu’il est important pour l’expression des gènes gamma. Ceci suggère que le recrutement des différents facteurs au site HS2 lors du développement influence différement les gènes du locus. Dans un deuxième temps, nous avons investigué l’importance de HS2 lors de la différenciation des cellules érythroïdes. Il avait été rapporté que l’absence de HS2 influence grandement la potentialisation de la chromatine du gène beta. La potentialisation dans les cellules progénitrices favorise l’activation transcriptionnelle du gène dans les cellules matures. Nous avons caractérisé le recrutement de différents facteurs de transcription au site HS2 et au promoteur beta dans les cellules progénitrices hématopoïétiques (CPH) ainsi que dans les cellules érythroïdes matures. Nos résultats montrent que le facteur EKLF est impliqué dans la potentialisation de la chromatine et favorise le recrutement des facteurs BRG1, p45 et CBP dans les CPH. L’expression de GATA-1 dans les cellules érythroïdes matures permet le recrutement de GATA-1 au locus hub dans ces cellules. Ces données suggèrent que la combinaison de EKLF et GATA-1 est requise pour permettre une activation maximale du gène beta dans les cellules érythroïdes matures. Un autre facteur impliqué dans la régulation du locus hub est Ikaros. Nous avons étudié son recrutement au locus hub et avons observé que Ikaros est impliqué dans la répression des gènes gamma. Nos résultats montrent aussi que GATA-1 est impliqué dans la répression de ces gènes et qu’il interagit avec Ikaros. Ensemble, Ikaros et GATA-1 favorisent la formation d’un complexe de répression aux promoteurs gamma. Cette étude nous a aussi permis d’observer que Ikaros et GATA-1 sont impliqués dans la répression du gène Gata2. De façon intéressante, nous avons caractérisé le mécanisme de répression du gène Hes1 (un gène cible de la voie Notch) lors de la différenciation érythroïde. Similairement à ce qui a été observé pour les gènes gamma, Hes1 est aussi réprimé par Ikaros et GATA-1. Ces résultats suggèrent donc que la combinaison de Ikaros et GATA-1 est associée à la répression de plusieurs de gènes dans les cellules érythroïdes. Globalement cette thèse rapporte de nouveaux mécanismes d’action de différents facteurs de transcription dans les cellules érythroïdes. Particulièrement, nos travaux ont permis de proposer un modèle pour la régulation des gènes du locus hub lors du développement et de la différenciation. De plus, nous rapportons pour la première fois l’importance de la collaboration entre les facteurs Ikaros et GATA-1 dans la régulation transcriptionnelle de gènes dans les cellules érythroïdes. Des mutations associées à certains des facteurs étudiés ont été rapportées dans des cas de beta-thalassémies ainsi que de leucémies. Nos travaux serviront donc à avoir une meilleure compréhension des mécanismes d’action de ces facteurs afin de potentiellement pouvoir les utiliser comme cibles thérapeutiques.
Resumo:
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.
Resumo:
En 1975, Wilson et King ont proposé que l'évolution opère non seulement via des changements affectant la structure des protéines, mais aussi via des mutations qui modifient la régulation génétique. L'étude des éléments régulateurs de l'expression génétique a un rôle important dans la compréhension de l'expression de différentes maladies et de la réponse thérapeutique. Nous avons développé un algorithme bio- informatique qui nous permet rapidement de trouver des sites de régulation génétique à travers tout le génome et pour une grande quantité de gènes. Notre approche consiste à trouver des sites polymorphes (SNPs) qui sont en déséquilibre de liaison avec le débalancement allélique (AI) afin de cartographier la région régulatrice et le site responsable. Notre méthode est avantageuse par rapport à d'autres méthodes, car elle n'a pas besoin des données « phasées». De plus, les données de débalancement allélique ne sont pas affectées par des facteurs externes étant donné qu'ils sont mesurés dans la même cellule. Nous avons démontré que notre approche est fiable et qu'elle peut détecter des sites loin du gène. De plus, il peut être appliqué à des données de génotypage sans avoir besoin de les « phaser » .
Resumo:
La pollution microbienne des eaux récréatives peut engendrer un risque pour la santé des populations exposées. La contamination fécale de ces eaux représente une composante importante de ce risque, notamment par la présence possible d’agents pathogènes et par l’exposition à des micro-organismes résistants aux antimicrobiens. Les sources de pollution fécale sont multiples et incluent entre autres les activités agricoles et les productions animales. Ce projet visait donc à mieux comprendre les facteurs influençant la qualité microbiologique des eaux récréatives du Québec méridional, en ciblant le rôle possible des activités agricoles, ainsi qu`à proposer et évaluer de nouvelles sources de données pouvant contribuer à l’identification de ces facteurs. Dans un premier temps, une évaluation de la présence d’Escherichia coli résistants aux antimicrobiens dans les eaux récréatives à l’étude a été effectuée. À la lumière des résultats de cette première étude, ces eaux représenteraient une source de micro-organismes résistants aux antimicrobiens pour les personnes pratiquant des activités aquatiques, mais l’impact en santé publique d’une telle exposition demeure à déterminer. Les déterminants agroenvironnementaux associés à la présence de micro-organismes résistants aux antimicrobiens ont par la suite été explorés. Les résultats de ce chapitre suggèrent que les activités agricoles, et plus spécifiquement l’épandage de fumier liquide, seraient reliées à la contamination des eaux récréatives par des bactéries résistantes aux antimicrobiens. Le chapitre suivant visait à identifier des déterminants agroenvironnementaux temps-indépendants d’importance associés à la contamination fécale des eaux à l’étude. Différentes variables, regroupées en trois classes (activités agricoles, humaines et caractéristiques géohydrologiques), ont été explorées à travers un modèle de régression logistique multivarié. Il en est ressorti que les eaux récréatives ayant des sites de productions de ruminants à proximité, et en particulier à l’intérieur d’un rayon de 2 km, possédaient un risque plus élevé de contamination fécale. Une association positive a également été notée entre le niveau de contamination fécale et le fait que les plages soient situées à l’intérieur d’une zone urbaine. Cette composante nous permet donc de conclure qu’en regard à la santé publique, les eaux récréatives pourraient être contaminées par des sources de pollution fécale tant animales qu’humaines, et que celles-ci pourraient représenter un risque pour la santé des utilisateurs. Pour terminer, un modèle de régression logistique construit à l’aide de données issues de la télédétection et mettant en association un groupe de déterminants agroenvironnementaux et la contamination fécale des eaux récréatives a été mis au point. Ce chapitre visait à évaluer l’utilité de telles données dans l’identification de ces déterminants, de même qu`à discuter des avantages et contraintes associées à leur emploi dans le contexte de la surveillance de la qualité microbiologique des eaux récréatives. À travers cette étude, des associations positives ont été mises en évidence entre le niveau de contamination fécale des eaux et la superficie des terres agricoles adjacentes, de même qu’avec la présence de surfaces imperméables. Les données issues des images d’observation de la Terre pourraient donc constituer une valeur ajoutée pour les programmes de suivi de la qualité microbiologique de ces eaux en permettant une surveillance des déterminants y étant associés.
Resumo:
Introduction : Les enfants prématurés ont la particularité de naître alors que leur développement est souvent incomplet et nécessite la mise en œuvre de soins intensifs visant à poursuivre leur croissance en dehors de l’environnement utérin. Souvent cependant, le stade développemental de l’enfant ne lui permet pas d’assimiler une alimentation entérale du fait de l’immaturité de son système digestif. Le recours à une voie centrale délivrant les nutriments assurant le développement devient alors une nécessité. Ce type de nutrition, appelée nutrition parentérale (NP, ou total parenteral nutrition TPN), permet l’administration de molécules simples, directement dans le sang du prématuré. Il n’est toutefois pas exempt de risques puisqu’exposée à la lumière, la NP peut s’oxyder et générer des molécules oxydantes telles que des hydroperoxydes lipidiques susceptibles de se fragmenter par la suite en hydroxy-alkénals. Ceci devient problématique au vu de l’immaturité des systèmes de défenses antioxydants du nouveau-né prématuré. L’utilisation prolongée de la NP est d’ailleurs à l’origine de maladie hépatiques dans lesquelles le stress oxydant et la nécro-inflammation sont des composantes majeures. Nous avons émis l’hypothèse que l’infusion chez les enfants prématurés, d’aldéhydes d’origine lipidique est en relation avec le développement du stress oxydant et de l’inflammation hépatique. Objectif : Notre étude a consisté à évaluer la relation entre les quantités d’hydroxy-alkénals dans la NP et les effets hépatiques engendrés sur les marqueurs de stress oxydant et les voies de signalisation responsables d’une induction de processus inflammatoire. Dans ce but, nous avons cherché à mesurer la peroxydation lipidique dans l’émulsion lipidique de la NP et la conséquence de l’infusion en continue d’hydroxy-alkénals sur les marqueurs de stress oxydant, sur la voie de signalisation médiée par le Nuclear Factor κB et sur le déclenchement du processus inflammatoire hépatique. A la suite de ce travail, nous avons également travaillé sur des alternatives à la photoprotection, qui est la seule méthode réellement optimale pour réduire la peroxydation des lipides de la NP, mais cliniquement difficilement praticable. Résultats : Nos résultats ont mis en évidence la génération de 4-hydroxynonenal in vitro dans la NP, ce phénomène est augmenté par une exposition lumineuse. Dans ce cadre, nous avons montré l’inefficacité de l’ajout de multivitamines dans l’émulsion lipidique comme alternative à la photoprotection. Dans la validation biologique qui a suivi sur un modèle animal, nos résultats ont permis de démontrer que l’augmentation des adduits glutathion-hydroxynonenal était imputable à l’augmentation de 4-hydroxynonenal (4-HNE) dans la NP, et non à une peroxydation endogène. Nos données indiquent que la probable augmentation hépatique des niveaux de 4-HNE a conduit à une activation du NFκB responsable de l’activation de la transcription des gènes pro-inflammatoires du Tumour Necrosis Factor-α (TNF-α) et de l’interleukine-1 (IL-1). Nous avons alors évalué la capacité d’une émulsion lipidique enrichie en acides gras polyinsaturés (AGPI) n-3 à baisser les concentrations de 4-HNE dans la NP, mais également à moduler le stress oxydant et les marqueurs pro-inflammatoires. Enfin, nous avons démontré, en collaboration avec l’équipe du Dr Friel, que certains peptides isolés du lait humain (par un processus mimant la digestion) permettent également une modulation du stress oxydant et du processus inflammatoire. Conclusion : Le stress oxydant exogène issu de la NP a conduit par activation de facteurs de transcription intra-hépatiques au déclenchement d’un processus inflammatoire potentiellement responsable du développement de maladies hépatiques reliées à la NP telle que la cholestase. Dans ce sens, les AGPI n-3 et les peptides antioxydants peuvent se poser en tant qu’alternatives crédibles à la photoprotection.
Resumo:
L’objectif principal de la présente thèse était de déterminer les facteurs susceptibles d’influencer l’efficacité des processus de contrôle en ligne des mouvements d’atteinte manuelle. De nos jours, les mouvements d’atteinte manuelle réalisés dans un environnement virtuel (déplacer une souris d’ordinateur pour contrôler un curseur à l’écran, par exemple) sont devenus chose commune. Par comparaison aux mouvements réalisés en contexte naturel (appuyer sur le bouton de mise en marche de l’ordinateur), ceux réalisés en contexte virtuel imposent au système nerveux central des contraintes importantes parce que l’information visuelle et proprioceptive définissant la position de l’effecteur n’est pas parfaitement congruente. Par conséquent, la présente thèse s’articule autour des effets d’un contexte virtuel sur le contrôle des mouvements d’atteinte manuelle. Dans notre premier article, nous avons tenté de déterminer si des facteurs tels que (a) la quantité de pratique, (b) l’orientation du montage virtuel (aligné vs. non-aligné) ou encore (c) l’alternance d’un essai réalisé avec et sans la vision de l’effecteur pouvaient augmenter l’efficacité des processus de contrôle en ligne de mouvement réalisés en contexte virtuel. Ces facteurs n’ont pas influencé l’efficacité des processus de contrôle de mouvements réalisés en contexte virtuel, suggérant qu’il est difficile d’optimiser le contrôle des mouvements d’atteinte manuelle lorsque ceux-ci sont réalisés dans un contexte virtuel. L’un des résultats les plus surprenants de cette étude est que nous n’avons pas rapporté d’effet concernant l’orientation de l’écran sur la performance des participants, ce qui était en contradiction avec la littérature existante sur ce sujet. L’article 2 avait pour but de pousser plus en avant notre compréhension du contrôle du mouvement réalisé en contexte virtuel et naturel. Dans le deuxième article, nous avons mis en évidence les effets néfastes d’un contexte virtuel sur le contrôle en ligne des mouvements d’atteinte manuelle. Plus précisément, nous avons observé que l’utilisation d’un montage non-aligné (écran vertical/mouvement sur un plan horizontal) pour présenter l’information visuelle résultait en une importante diminution de la performance comparativement à un montage virtuel aligné et un montage naturel. Nous avons aussi observé une diminution de la performance lorsque les mouvements étaient réalisés dans un contexte virtuel aligné comparativement à un contexte naturel. La diminution de la performance notée dans les deux conditions virtuelles s’expliquait largement par une réduction de l’efficacité des processus de contrôle en ligne. Nous avons donc suggéré que l’utilisation d’une représentation virtuelle de la main introduisait de l’incertitude relative à sa position dans l’espace. Dans l’article 3, nous avons donc voulu déterminer l’origine de cette incertitude. Dans ce troisième article, deux hypothèses étaient à l’étude. La première suggérait que l’augmentation de l’incertitude rapportée dans le contexte virtuel de la précédente étude était due à une perte d’information visuelle relative à la configuration du bras. La seconde suggérait plutôt que l’incertitude provenait de l’information visuelle et proprioceptive qui n’est pas parfaitement congruente dans un contexte virtuel comparativement à un contexte naturel (le curseur n’est pas directement aligné avec le bout du doigt, par exemple). Les données n’ont pas supporté notre première hypothèse. Plutôt, il semble que l’incertitude soit causée par la dissociation de l’information visuelle et proprioceptive. Nous avons aussi démontré que l’information relative à la position de la main disponible sur la base de départ influence largement les processus de contrôle en ligne, même lorsque la vision de l’effecteur est disponible durant le mouvement. Ce résultat suggère que des boucles de feedback interne utilisent cette information afin de moduler le mouvement en cours d’exécution.
Resumo:
Cette étude est consacrée à l’université publique marocaine. Elle se situe dans le champ de l’enseignement supérieur public. Les chercheurs du secteur universitaire au Maroc qualifient la gestion de l’enseignement supérieur de centralisée, bureaucratisée, rigide et incapable de trouver des réponses efficaces à la société. L’université publique marocaine vit une crise : elle a fait l’objet de nombreux critiques sur la nature des services universitaires. Sur le plan académique, elle est inappropriée pour faire face à la demande sociale en matière de l’enseignement universitaire. Sur le plan interne, elle est inadaptée à cause de dysfonctionnement pédagogie, organisationnel et administratif. L’université publique n’a pas été apte à s’adapter au secteur privé en créant des débouchés viables pour ses diplômés. Devant la gravité de la situation de l’enseignement supérieur public marocain, une Commission Royale Spéciale a été créée, dont le mandat était de trouver une meilleure façon de rationaliser le système universitaire. C’est ainsi qu’en 1999, la Commission a établi une Charte nationale de l’éducation et de la formation. Les premiers éléments de la nouvelle réforme ont été mis en application dès la rentrée universitaire 2003-2004. Cette nouvelle réforme est perçue comme un moyen d’améliorer le fonctionnement des établissements universitaires publics. Son objectif principal est de réformer d’une manière globale le système universitaire public. Dans les recherches qui se sont intéressées à la réforme de l’université publique marocaine, nous avons constaté qu’il y a une absence de documentation en ce qui trait aux réactions des acteurs universitaires et professionnels face aux orientations de cette réforme. Dans le but d’apporter des éclaircissements, nous nous sommes fixé un double objectif : déterminer, à partir de la perception d’acteurs universitaires, les effets des orientations de la nouvelle réforme et de ses modalités; connaître les changements organisationnels et leurs exigences. La stratégie de recherche répondant le mieux à notre double objectif était la recherche exploratoire. La démarche que nous avons privilégiée fut celle d’une première étude avant l’implantation de la nouvelle réforme et d’une autre après trois semestres de son implantation. Les questions qui ont soutenu notre recherche sont les suivantes : les attitudes des acteurs universitaires ont-elles été modifiées par l’introduction de la nouvelle réforme? Si oui, dans quel sens ont-elles été modifiées? Est-ce que la nouvelle réforme a modifié les pratiques pédagogiques et financières dans le sens indiqué par la charte? Quelles formes de contribution des acteurs universitaires peuvent-ils apporter à une implantation efficace de la nouvelle réforme? Parmi les quatorze universités publiques que compte le Maroc, nous avons choisi l’Université Mohammed V de Rabat-Salé. Cet établissement est l'une des universités les plus anciennes au Maroc. Elle est caractérisée par un nombre significatif de départements qui ont un potentiel de recherche et une réputation nationale. Aucune université ne dispose d’autant de facultés et de différentes disciplines : lettres, sciences, économie, droit, médecine et pharmacie, médecine dentaire, ingénierie, technologie et autres. La démarche méthodologique retenue est axée sur des entrevues auprès des acteurs universitaires et professionnels de trois facultés : 1) faculté des Lettres et Sciences humaines, 2) faculté des Sciences juridiques, économiques et sociales, 3) faculté des Sciences. Celles-ci sont considérées comme des facultés pilotes par rapport à la nouvelle réforme. Nous avons entrepris deux séries d’entrevues : la première en 2001 avant l’implantation de la nouvelle réforme de l’université et la deuxième en 2005 après son implantation. Nous avons mené au total quarante-cinq (45) entrevues qui se sont déroulées en deux périodes : la première a eu lieu entre décembre 2000 et janvier 2001 et la deuxième entre décembre 2004 et janvier 2005. Lors de la première série d’entrevues, notre protocole était composé de questions spécifiques portant sur les initiatives inhérentes à la mise en application d’un système modulaire, sur les procédures pour restructurer la formation universitaire publique, sur le développement de projets spéciaux et de matériel didactique en rapport avec le nouveau système pédagogique et sur les propositions et les procédures pour la participation de l’université au marché du travail. Nous avons aussi posé des questions concernant les aspects financiers. Enfin, pour mieux comprendre le contexte, des questions portaient sur les évaluations et les recommandations de la nouvelle réforme de l’université publique. Au cours de la deuxième période d’entrevues, nous avons recueilli des données sur le soutien du département au pilotage des objectifs de la nouvelle réforme universitaire, le soutien des instances professionnelles à l’avancement de la réforme, la coopération des enseignants au plan de l’avancement des pratiques pédagogiques et les conditions nécessaires à une implantation efficace. Les réponses obtenues auprès des acteurs universitaires et professionnels ont été soumises à une analyse de contenu. Nous avons opté pour le modèle politique comme cadre conceptuel de notre recherche. Ce modèle nous a aidés à montrer l’importance des acteurs universitaires et professionnels dans les démarches pour l’application de la nouvelle réforme. Il nous a aidés également à comprendre comment les caractéristiques de la communauté universitaire peuvent faciliter ou bloquer la réussite de la réforme en cours. Cette recherche montre dans quelle mesure les objectifs de la nouvelle réforme fixés par la Commission Royale Spéciale sont en voie de réalisation. En ce sens, notre recherche pourrait être utile au plan national marocain : elle pourrait aider les responsables politiques et les administrateurs universitaires à prendre des décisions appropriées au processus d’implantation de la nouvelle réforme universitaire.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Les systèmes cholinergique et dopaminergique jouent un rôle prépondérant dans les fonctions cognitives. Ce rôle est exercé principalement grâce à leur action modulatrice de l’activité des neurones pyramidaux du cortex préfrontal. L’interaction pharmacologique entre ces systèmes est bien documentée mais les études de leurs interactions neuroanatomiques sont rares, étant donné qu’ils sont impliqués dans une transmission diffuse plutôt que synaptique. Ce travail de thèse visait à développer une expertise pour analyser ce type de transmission diffuse en microscopie confocale. Nous avons étudié les relations de microproximité entre ces différents systèmes dans le cortex préfrontal médian (mPFC) de rats et souris. En particulier, la densité des varicosités axonales en passant a été quantifiée dans les segments des fibres cholinergiques et dopaminergiques à une distance mutuelle de moins de 3 µm ou à moins de 3 µm des somas de cellules pyramidales. Cette microproximité était considérée comme une zone d’interaction probable entre les éléments neuronaux. La quantification était effectuée après triple-marquage par immunofluorescence et acquisition des images de 1 µm par microscopie confocale. Afin d’étudier la plasticité de ces relations de microproximité, cette analyse a été effectuée dans des conditions témoins, après une activation du mPFC et dans un modèle de schizophrénie par déplétion des neurones cholinergiques du noyau accumbens. Les résultats démontrent que 1. Les fibres cholinergiques interagissent avec des fibres dopaminergiques et ce sur les mêmes neurones pyramidaux de la couche V du mPFC. Ce résultat suggère différents apports des systèmes cholinergique et dopaminergique dans l’intégration effectuée par une même cellule pyramidale. 2. La densité des varicosités en passant cholinergiques et dopaminergiques sur des segments de fibre en microproximité réciproque est plus élevée comparé aux segments plus distants les uns des autres. Ce résultat suggère un enrichissement du nombre de varicosités axonales dans les zones d’interaction. 3. La densité des varicosités en passant sur des segments de fibre cholinergique en microproximité de cellules pyramidales, immunoúactives pour c-Fos après une stimulation visuelle et une stimulation électrique des noyaux cholinergiques projetant au mPFC est plus élevée que la densité des varicosités de segments en microproximité de cellules pyramidales non-activées. Ce résultat suggère un enrichissement des varicosités axonales dépendant de l’activité neuronale locale au niveau de la zone d'interaction avec d'autres éléments neuronaux. 4. La densité des varicosités en passant des fibres dopaminergiques a été significativement diminuée dans le mPFC de rats ayant subi une déplétion cholinergique dans le noyau accumbens, comparée aux témoins. Ces résultats supportent des interrelations entre la plasticité structurelle des varicosités dopaminergiques et le fonctionnement cortical. L’ensemble des donneès démontre une plasticité de la densité locale des varicosités axonales en fonction de l’activité neuronale locale. Cet enrichissement activité-dépendant contribue vraisemblablement au maintien d’une interaction neurochimique entre deux éléments neuronaux.
Resumo:
Les trichothécènes de Fusarium appartiennent au groupe des sesquiterpènes qui sont des inhibiteurs la synthèse des protéines des eucaryotes. Les trichothécènes causent d’une part de sérieux problèmes de santé aux humains et aux animaux qui ont consommé des aliments infectés par le champignon et de l’autre part, elles sont des facteurs importants de la virulence chez plantes. Dans cette étude, nous avons isolé et caractérisé seize isolats de Fusarium de la pomme de terre infectée naturellement dans un champs. Les tests de pathogénicité ont été réalisés pour évaluer la virulence des isolats sur la pomme de terre ainsi que leur capacité à produire des trichothécènes. Nous avons choisi F. sambucinum souche T5 comme un modèle pour cette étude parce qu’il était le plus agressif sur la pomme de terre en serre en induisant un flétrissement rapide, un jaunissement suivi de la mort des plantes. Cette souche produit le 4,15-diacétoxyscirpénol (4,15-DAS) lorsqu’elle est cultivée en milieu liquide. Nous avons amplifié et caractérisé cinq gènes de biosynthèse trichothécènes (TRI5, TRI4, TRI3, TRI11, et TRI101) impliqués dans la production du 4,15-DAS. La comparaison des séquences avec les bases de données a montré 98% et 97% d'identité de séquence avec les gènes de la biosynthèse des trichothécènes chez F. sporotrichioides et Gibberella zeae, respectivement. Nous avons confrenté F. sambucinum avec le champignon mycorhizien à arbuscule Glomus irregulare en culture in vitro. Les racines de carotte et F. sambucinum seul, ont été utilisés comme témoins. Nous avons observé que la croissance de F. sambucinum a été significativement réduite avec la présence de G. irregulare par rapport aux témoins. Nous avons remarqué que l'inhibition de la croissance F. sambucinum a été associée avec des changements morphologiques, qui ont été observés lorsque les hyphes de G. irregulare ont atteint le mycélium de F. sambucinum. Ceci suggère que G. irregulare pourrait produire des composés qui inhibent la croissance de F. sambucinum. Nous avons étudié les patrons d’expression des gènes de biosynthèse de trichothécènes de F. sambucinum en présence ou non de G. irregulare, en utilisant le PCR en temps-réel. Nous avons observé que TRI5 et TRI6 étaient sur-exprimés, tandis que TRI4, TRI13 et TRI101 étaient en sous-exprimés en présence de G. irregulare. Des analyses par chromatographie en phase-gazeuse (GC-MS) montrent clairement que la présence de G. irregulare réduit significativement la production des trichothécènes par F. sambucinum. Le dosage du 4,15-DAS a été réduit à 39 μg/ml milieu GYEP par G. irregulare, comparativement à 144 μg/ml milieu GYEP quand F. sambucinum est cultivé sans G. irregulare. Nous avons testé la capacité de G. irregulare à induire la défense des plants de pomme de terre contre l'infection de F. sambucinum. Des essais en chambre de croissance montrent que G. irregulare réduit significativement l’incidence de la maladie causée par F. sambucinum. Nous avons aussi observé que G. irregulare augmente la biomasse des racines, des feuilles et des tubercules. En utilisant le PCR en temps-réel, nous avons étudié les niveaux d’expression des gènes impliqué dans la défense des plants de pommes de terre tels que : chitinase class II (ChtA3), 1,3-β-glucanase (Glub), peroxidase (CEVI16), osmotin-like protéin (OSM-8e) et pathogenèses-related protein (PR-1). Nous avons observé que G. irregulare a induit une sur-expression de tous ces gènes dans les racines après 72 heures de l'infection avec F. sambucinum. Nous avons également trové que la baisse provoquée par F. sambucinum des gènes Glub et CEVI16 dans les feuilles pourrait etre bloquée par le traitement AMF. Ceci montre que l’inoculation avec G. irregulare constitut un bio-inducteur systémique même dans les parties non infectées par F. sambucinum. En conclusion, cette étude apporte de nouvelles connaissances importantes sur les interactions entre les plants et les microbes, d’une part sur les effets directs des champignons mycorhiziens sur l’inhibition de la croissance et la diminution de la production des mycotoxines chez Fusarium et d’autre part, l’atténuation de la sévérité de la maladie dans des plantes par stimulation leur défense. Les données présentées ouvrent de nouvelles perspectives de bio-contrôle contre les pathogènes mycotoxinogènes des plantes.
Resumo:
Ce travail contribue au champ d’études sur l’adoption de politique publique des États américains en étudiant quantitativement leurs réactions à l’enjeu du réchauffement climatique. Suivant l’approche des déterminants internes, des facteurs économiques, politiques et environnementaux sont utilisés pour expliquer la densité réglementaire étatique limitant la production de gaz à effet de serre. La variable dépendante constitue la principale contribution de ce travail puisqu’elle incarne une revue exhaustive des options législatives adoptées par les États américains et les regroupe en six catégories. Les déterminants internes identifiés permettent d’expliquer pourquoi certains États sont des instigateurs ou des retardataires dans le dossier du réchauffement climatique. Les principaux facteurs explicatifs sont la présence d’une population idéologiquement libérale et de groupes d’intérêts environnementaux forts.
Resumo:
Cette thèse porte sur la perception du risque sous terre. Nous voulons comprendre comment les mineurs de fond de la région de l’Abitibi-Témiscamingue au Québec perçoivent les risques inhérents à leur métier et comment ils y réagissent. L’organisation du travail, le fonctionnement d’une mine souterraine et les rapports de production sous terre retiennent d’abord notre attention. Le concept de risque représente un concept relativement jeune qui a intéressé de nombreux auteurs. Un tour d’horizon des diverses approches nous permettra de définir ce concept en nous appuyant plus spécialement sur les travaux de Mary Douglas. Cependant, nous avons conduit notre enquête à partir d’un cadre théorique se fondant principalement sur la sociologie de Pierre Bourdieu. Notre hypothèse défend l’idée que dans leur perception du risque, les mineurs de fond de l’Abitibi-Témiscamingue font montre d’un sens pratique qui repose surtout sur la prise en charge individuelle de la sécurité, le rapport à la prime de rendement et un certain sentiment de l’inéluctabilité du danger. Vingt entrevues semi-dirigées et la technique classique de l’observation participante ont servi à la collecte de données. L’analyse des récits de travail a donné lieu à une typologie distinguant trois groupes de mineurs. Nous avons préalablement décortiqué chacun des récits afin de dégager un modèle de base. Les résultats de l’analyse nous obligent à réviser notre hypothèse initiale et à ne pas conclure trop rapidement au fatalisme des mineurs de fond témiscabitibiens.
Resumo:
Devenir mère à l’adolescence peut représenter une situation d’adversité et est associée à des impacts délétères possibles sur la vie de la jeune mère et de ses enfants. Être victime de violence de la part de son partenaire peut aussi représenter une adversité importante, notamment en regard de ses conséquences préjudiciables sur la santé. Cumulées, ces deux adversités peuvent sérieusement compromettre le parcours de vie d’une jeune femme. Cependant, des jeunes mères surmontent ces adversités. S’appuyant sur un cadre de référence composé par l’approche intersectionnelle et la perspective des parcours de vie, cette thèse permet une meilleure compréhension des différentes composantes d’une trajectoire de résilience en contexte de double adversité. Une part importante de cette thèse permet aussi de mieux documenter le contexte de la maternité précoce vécue dans un contexte de violence conjugale, une situation peu étudiée au Québec. Des jeunes mères ayant donné naissance précocement dans un contexte relationnel adverse qui estiment avoir surmonté ces obstacles et qui sont reconnues comme étant résilientes par les intervenants avec qui elles sont en contact participent à cette étude exploratoire. Ces 19 femmes ont partagé leur histoire par le biais d’entretiens individuels ou d’entretiens de groupe. Des observations participantes échelonnées sur neuf mois complètent cette collecte de données, permettant une meilleure compréhension et contextualisation de la maternité précoce et des défis qui lui sont associés. Leurs propos, retranscris puis analysés de façon séquentielle selon une démarche inspirée des stratégies d’analyse de théorisation ancrée, sont au cœur de l’analyse. Le modèle théorique de la résilience présenté dans cette thèse est constitué de cinq composantes : l’adversité, le point tournant, les processus, les facteurs promoteurs et les facteurs de vulnérabilités. Des indicateurs pouvant témoigner de la présence d’une trajectoire de résilience sont aussi proposés. Parmi les résultats importants de cette étude, notons l’importance de la maternité comme point tournant dans la vie de ces jeunes femmes. En effet, la maternité module la trajectoire de résilience notamment en leur permettant de créer un lien significatif avec leur bébé et de développer un sentiment de responsabilité face à celui-ci. Cette étude permet aussi de mieux cerner les processus permettant le déploiement d’une trajectoire de résilience : 1) Créer un milieu de vie sain pour l’enfant, 2) S’activer face au contexte relationnel adverse, 3) Mobiliser et utiliser les ressources disponibles et 4) Se servir du passé pour aller vers l’avant : (ré)investir les habiletés et ressources développées lors d’adversités antérieures. Les facteurs promoteurs, tout comme les facteurs de vulnérabilité, s’inscrivent dans une lecture systémique et relèvent de différents niveaux écologiques. Alors que les premiers constituent des points d’ancrage sur lesquels peuvent s’appuyer le déploiement et le maintien d’une trajectoire résiliente, les seconds fragilisent cette trajectoire. Les retombées possibles de cette étude pour l’intervention et la recherche dans le domaine de la promotion de la santé sont aussi abordées, notamment sous forme de pistes de réflexion et d’action.
Resumo:
L’approche par compétences est de plus en plus choisie pour guider les curriculums universitaires de formation professionnelle. Accordant un intérêt primordial au développement des compétences, les responsables des programmes élaborés selon cette approche doivent déterminer les stratégies pédagogiques qui seront les plus efficaces et qui permettront une participation active de l’étudiant. Depuis plus de 30 années (Cameron et Mitchell, 1993; Wellard et Bethune, 1996), le journal d’apprentissage favorise la construction des savoirs en pratique clinique et le développement de la pensée réflexive, une compétence nécessaire à la pratique des infirmières qui s’inspirent d’une vision spécifique de la discipline, comme celle du modèle de McGill (Kravitz et Frey, 1989; Thorpe, 2003). Malgré cela, les études sur les perceptions d’étudiants relativement au journal d’apprentissage sont rares, et ce, surtout au Canada (Epp, 2008). Il importe de s’intéresser aux perceptions d’étudiants afin d’atteindre l’efficacité optimale de l’outil. Le but de cette étude était d’explorer les perceptions d’étudiants au baccalauréat en sciences infirmières de l’utilisation du journal d’apprentissage. Elle a été réalisée auprès d’étudiants de 2e et 3e année, selon un devis de type qualitatif exploratoire. Les participants (n=52) ont rempli un formulaire constitué d’une mise en situation comprenant 5 questions ouvertes. L’analyse des données a fait émerger trois thèmes principaux de l’utilisation du journal soit : un outil personnel, un outil de communication et un outil d’apprentissage de la pratique. Des recommandations pour la formation et la recherche sont formulées.