959 resultados para Dynamique d’acquisition et d’utilisation
Resumo:
Les lacs de thermokarst (lacs peu profonds créés par le dégel et l’érosion du pergélisol riche en glace) sont un type unique d’écosystèmes aquatiques reconnus comme étant de grands émetteurs de gaz à effet de serre vers l’atmosphère. Ils sont abondants dans le Québec subarctique et ils jouent un rôle important à l’échelle de la planète. Dans certaines régions, les lacs de thermokarst se transforment rapidement et deviennent plus grands et plus profonds. L’objectif de cette étude était d’améliorer la compréhension et d’évaluer quelles variables sont déterminantes pour la dynamique de l’oxygène dans ces lacs. C’est pourquoi j’ai examiné les possibles changements futurs de la dynamique de l’oxygène dans ces lacs dans un contexte de réchauffement climatique. Une grande variété de méthodes ont été utilisées afin de réaliser cette recherche, dont des analyses in situ et en laboratoire, ainsi que la modélisation. Des capteurs automatisés déployés dans cinq lacs ont mesuré l’oxygène, la conductivité et la température de la colonne d’eau en continu de l’été 2012 jusqu’à l’été 2015, à des intervalles compris entre 10 à 60 minutes. Des analyses en laboratoire ont permis de déterminer la respiration et les taux de production bactériens, les variables géochimiques limnologiques, ainsi que la distribution de la production bactérienne entre les différentes fractions de taille des communautés. La température de l’eau et les concentrations d’oxygène dissous d’un lac de thermokarst ont été modélisées avec des données du passé récent (1971) au climat futur (2095), en utilisant un scénario modéré (RCP 4.5) et un scénario plus extrême (RCP 8.5) de réchauffement climatique. Cette recherche doctorale a mis en évidence les conditions anoxiques fréquentes et persistantes présentes dans de nombreux lacs de thermokarst. Aussi, ces lacs sont stratifiés pendant l’hiver comme des concentrations élevées d’ions s’accumulent dans leurs hypolimnions à cause de la formation du couvert de glace (cryoconcentration) et de la libération des ions avec la respiration bactérienne. Les différences de température contribuent également à la stabilité de la stratification. La dynamique de mélange des lacs de thermokarst étudiés était contrastée : la colonne d’eau de certains lacs se mélangeait entièrement deux fois par année, d’autres lacs se mélangeaient qu’une seule fois en automne, alors que certains lacs ne se mélangeaient jamais entièrement. Les populations bactériennes étaient abondantes et très actives, avec des taux respiratoires comparables à ceux mesurés dans des écosystèmes méso-eutrophes ou eutrophes des zones tempérées de l’hémisphère nord. L’érosion des matériaux contenus dans le sol des tourbières pergélisolées procure un substrat riche en carbone et en éléments nutritifs aux populations bactériennes, et ils constituent des habitats propices à la colonisation par des populations de bactéries associées aux particules. Le modèle de la concentration d’oxygène dissous dans un lac a révélé que le réchauffement des températures de l’air pourrait amincir le couvert de glace et diminuer sa durée, intensifiant le transfert de l’oxygène atmosphérique vers les eaux de surface. Ainsi, la concentration en oxygène dissous dans la colonne d’eau de ce lac augmenterait et les périodes de conditions anoxiques pourraient devenir plus courtes. Finalement, cette thèse doctorale insiste sur le rôle des lacs de thermokarst comme des réacteurs biogéochimiques pour la dégradation du carbone organique, qui était retenu dans les sols gelés, en gaz à effet de serre libérés dans l’atmosphère. L’oxygène est un indicateur sensible du mélange de la colonne d’eau et de la dynamique chimique des lacs, en plus d’être une variable clé des processus métaboliques.
Resumo:
La problématique de cette recherche trouve son existence dans le fait que l'intégration des jeunes au travail est un secteur d'activités humaines qui pose des problèmes importants tant sur le plan social qu'au point de vue de l'éducation. Ces derniers se manifestent à travers des ennuis sociaux comme celui du chômage des jeunes, de la pénurie de personnel qualifié ainsi que des difficultés d'intégration sociale et professionnelle. Le problème existe aussi au plan éducatif : abandons et échecs scolaires, insatisfactions reliées à l'absence d'une formation adéquate. Cette situation s'accentue encore davantage lors qu'il s'agit de jeunes en difficulté d'apprentissage ou qui ont des problèmes socio-affectifs. À travers les différentes pistes de solutions proposées (programmes de cheminements particuliers de formation, programmes de formation en alternance entre l'école et le travail et approches de collaboration entre l'école et le travail), l'auteur de cette recherche suggère que l'insertion professionnelle ou l'intégration des jeunes au travail soit examinée sous une nouvelle perspective : mieux connaître l'implication et le rôle des entreprises dans la formation et de développement des compétences d'employabilité. Cette étude présente ainsi la perception qu'ont les entreprises de l'importance et des modes d'acquisition des compétences d'employabilité des jeunes en intégration au travail.
Resumo:
[…] Cette étude débute par l'exposé des conditions spécifiques aux déficients auditifs pour l'acquisition du langage et par la présentation de nos hypothèses (Chapitre 1). Nous faisons ensuite un rappel des études antérieures et nous envisageons les implications méthodologiques de nos hypothèses (Chapitre 2). Nous présentons ensuite notre méthodologie pour le recueil et l'analyse des données (Chapitre 3). Étant données toutes les variables pouvant intervenir (émotivité des sujets, intelligence, facilité d'élocution, milieu familial...) nous vérifions l'homogénéité des corpus. Nous débutons par une analyse statistique permettant de donner les «mesures» des corpus : quantité de discours produit, complexité de ce discours, homogénéité entre les deux groupes linguistiques concernés... (Chapitre 4) Ensuite, nous observons la construction progressive des énoncés, ce qui est l'apanage de l'oral; cela implique donc l'étude de la construction du sens et de la forme grâce à des hésitations, des répétitions et des reprises; là aussi, il faut établir s'il y a homogénéité entre les sujets (Chapitre 5). Pour l'analyse «théorique» des corpus, nous privilégions la théorie des opérations énonciatives élaborée par Antoine Culioli, car elle présente l'avantage de lier un bon nombre de fonctionnements et de manifestations linguistiques, tels que la syntaxe, la sémantique et la morphologie. Nous présentons les grandes lignes de cette théorie dans le Chapitre 6. Nous nous intéressons alors à la façon dont nos sujets procèdent pour mettre en place le thème de leur énoncé. Cet aspect de l'étude concerne donc une dimension sémantique dans les corpus. Nous nous intéressons plus particulièrement aux structures utilisées pour la thématisation, ce qui nous amène à faire le lien avec la syntaxe (Chapitre 7). Enfin, nous nous intéressons au caractère homogène des «erreurs» et aux fonctionnements de la langue utilisée dans les corpus. Nous nous concentrons alors plus précisément sur les repérages effectués par les locuteurs afin de rendre leur discours référentiel (Chapitre 8) […]
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
Resumo:
La biodiversité et les écosystèmes font parties d’un ensemble qui confère des biens et services essentiels à la survie et au bien-être des populations. L’action humaine et ses interactions avec l’environnement génèrent des pressions qui le poussent vers sa dégradation. Afin d’éviter la perte irrémédiable d’éléments de cet environnement, des aires protégées viennent réduire de manière importante l’impact de ces pressions sur le territoire qu’elles couvrent. Le réseau d’aires protégées du Québec conserve actuellement 9,32 % du territoire, et cherche à atteindre 12 % d’ici 2020. Basé sur le Cadre écologique de référence du Québec, il vise à représenter l’ensemble de la biodiversité de la province et à réduire les pressions exercées sur ses écosystèmes. À ce jour, la majorité des aires protégées sont développées dans le nord du Québec et en terres publiques. Or, le Sud est principalement composé de territoires privés, et recèle de la plus grande biodiversité de la province. Afin de corriger cette problématique, les outils de planification du réseau doivent être repensés pour rendre compte de l’urgence de protéger les territoires du Sud et recréer une connectivité dans le paysage fragmenté, tout en conservant les principes de représentativité et d’efficacité qui font leur force. Pour y parvenir, la mission et les paramètres de suivi du réseau doivent être également revus. Les acteurs locaux, dont les municipalités régionales de comtés et les municipalités, doivent être mis à profit pour considérer les enjeux propres aux terres privées du sud de la province. Ces derniers possèdent déjà plusieurs outils légaux et administratifs pour participer activement à la protection du territoire, qui sont cependant souvent mal connus ou mal compris. Un effort doit être fait pour agencer ces actions avec celles du gouvernement provincial de manière à agir dans une logique d’ensemble. De même, tous les intervenants gagneraient à disposer de meilleurs outils concernant la diffusion des données sur la connaissance du territoire, notamment d’une plateforme centralisée, de protocoles d’acquisition de données standardisés et d’une saine gestion du cycle de vie de ces données. L’application de la géomatique dans la planification et le suivi du réseau d’aires protégées, de même que dans l’aménagement général du territoire pour la conservation et pour la diffusion des données, présente des avantages qui devraient être intégrés plus largement au Québec, notamment par les acteurs locaux du sud de la province.
Resumo:
Le développement de la production d’énergie éolienne et son transport fait partie des orientations du gouvernement québécois depuis plusieurs années, autant en ce qui a trait aux domaines énergétiques que de développement durable. L’implantation de parcs éoliens issus des appels d’offres d’Hydro-Québec se heurte pourtant à un certain degré d’opposition de la part des collectivités qui accueillent les infrastructures. Cette opposition fait en sorte qu’un appui majoritaire ne peut être observé pour aucun des projets. L’hypothèse de l’essai est que l’évaluation des paysages, dans le cadre des études d’impacts de parcs éoliens, demeure inadéquate, d’où le manque d’acceptabilité sociale ou tout au moins un des facteurs le déterminant. La considération du paysage comme faisant partie d’un écosystème dynamique est ici le moyen envisagé pour améliorer son évaluation lors des études d’impacts de parcs éoliens. L’objectif général de l’essai est ainsi d’explorer le concept d’écosystème paysager et d’évaluer dans quelle mesure il pourrait être mieux cerné par les outils traditionnels d’évaluation des projets. Les concepts d’écologie du paysage et d’acceptabilité sociale sont circonscrits afin d’identifier leur degré d’intégration aux outils québécois d’évaluation et de gestion qui encadrent le développement éolien. Une identification des bouleversements de l’écosystème paysager, occasionnés par les parcs éoliens, démontre qu’aucun des outils gouvernementaux ne permet d’assurer adéquatement l’intégrité naturelle ou anthropique du paysage. Trois projets québécois, réalisés entre 2012 et 2016, servent pour l’évaluation de liens entre les impacts de bouleversements à l’écosystème paysager, considérés lors des études d’impact, et leur acceptabilité sociale. Les valeurs de critères d’analyse, en lien aux impacts de bouleversements à l’écosystème paysager, sont comparées aux valeurs d’indices d’acceptabilité sociale à travers les trois projets. Les résultats démontrent que 49 % des critères d’analyse permettent d’expliquer en partie l’acceptabilité sociale observée pour les projets étudiés. 74 % des liens observés entre les critères d’analyse et les indices d’acceptabilité mettent en relation un impact négatif minimal (ou un impact positif maximal) sur l’écosystème paysager avec une acceptabilité sociale maximale. En considérant les résultats observés lors de l’étude des projets de développement éolien, certaines recommandations destinées aux autorités gouvernementales peuvent être faites afin d’assurer l’intégration du concept d’écosystème paysager à l’élaboration de parcs éoliens par les promoteurs. Une priorisation de l’étude des critères d’analyse en lien aux impacts de bouleversement à l’écosystème paysager doit être faite, autant dans les outils d’évaluation et de gestion que lors des discussions entre autorités municipales et promoteurs. Une amélioration de la mesure de l’acceptabilité sociale des projets de parcs éoliens dans les collectivités affectées doit également être faite, un effort d’information supplémentaire de la part des promoteurs et un échantillonnage plus représentatif de la population pouvant mener à une mesure plus objective de l’acceptabilité sociale.
Resumo:
Le récepteur à chimiokine CXCR4 est à ce jour l’un des récepteurs couplés aux protéines G les plus étudiés. Le CXCL12, sa chimiokine endogène induit l’activation de plusieurs voies de signalisation cruciales à plusieurs processus physiologiques. Par ailleurs, dans de nombreux processus pathologiques comme le cancer, le récepteur CXCR4 et/ou son ligand endogène sont surexprimés et facilite la dissémination et le maintien de conditions favorables à la prolifération cancéreuse. Afin d’étudier le récepteur CXCR4 et sa signalisation, notre approche vise à développer des ligands ciblant le CXCR4 en se basant sur CXCL12. Par des études de relation structure-activité et du design rationnel, nous avons conçu des chimères du CXCR4. Ces outils pharmacologiques nous permettent de mieux extraire les déterminants structuraux impliqués dans l’activation du CXCR4 mais aussi d’étudier les voies de signalisation associées à ces nouvelles entités chimiques. Nos données de relation structure-activité ont permis de mettre en évidence deux positions clés sur le N-terminal de nos chimères, la position 3 et la position 7 cruciales pour l’affinité et l’efficacité respectivement. Nous avons pu moduler l’efficacité ainsi que l’affinité de nos chimères en introduisant des acides aminés non naturels capables de potentialiser l’effet pharmacologique. Nous avons également corrélé nos résultats de SAR avec de la dynamique moléculaire réalisée à partir des deux structures cristallographiques du CXCR4. Nos données de dynamique moléculaire montrent des différences structurales importantes au niveau des domaines transmembranaires 3 et 7 en présence ou non de nos chimères. Par ailleurs, nous avons développé un nouveau déterminant avec des propriétés pharmacocinétiques améliorées comparativement au déterminant d’affinité des chimères de première génération. La caractérisation de ce déterminant a par ailleurs révélé son caractère agoniste inverse. Tous ces résultats apportent des éléments clés pour un meilleur design de molécules à visée thérapeutique ciblant le CXCR4.
Resumo:
La variation phénotypique est essentielle à la persistance des organismes dans le temps ainsi qu’à la colonisation de nouveaux habitats. Les principales sources de variation phénotypique sont la génétique et l'épigénétique. L'épigénétique a été proposé comme un atout important pour les organismes asexués pour compenser le manque de diversité génétique. L'objectif de cette étude est d'évaluer si l’absence de variation génétique est compensée par l'épigénétique en comparant les profils de méthylation d’individus gynogènes et kleptogènes des hybrides de salamandre à points bleus. Les individus échantillonnés s’organisent en cinq groupes génétiquement différenciés, provenant du même haplome paternel A. jeffersonianum. Deux des cinq groupes sont exclusivement gynogènes, pour des raisons écologiques ou génomiques. Les trois autres groupes sont formés d’individus parfois kleptogènes, car ils présentent une variation génétique plus élevée au sein d’un site qu’entre les sites, en plus de porter des allèles très divergents par rapport à la distribution globale des allèles hybrides, trouvés en haute fréquence dans les populations sympatriques de A. laterale. Les patrons épigénétiques sont variables et distincts entre les cinq groupes génétiques. Les groupes gynogènes sont les seuls à présenter un effet environnemental significatif sur leurs patrons épigénétiques, suggérant que ces individus clonaux doivent être en mesure de maximiser leur potentiel de variation épigénétique pour faire face à des variations environnementales.
Resumo:
Dans cette thèse, nous abordons le contrôle moteur du mouvement du coude à travers deux approches expérimentales : une première étude psychophysique a été effectuée chez les sujets humains, et une seconde implique des enregistrements neurophysiologiques chez le singe. Nous avons recensé plusieurs aspects non résolus jusqu’à présent dans l’apprentissage moteur, particulièrement concernant l’interférence survenant lors de l’adaptation à deux ou plusieurs champs de force anti-corrélés. Nous avons conçu un paradigme où des stimuli de couleur aident les sujets à prédire la nature du champ de force externe actuel avant qu’ils ne l’expérimentent physiquement durant des mouvements d’atteinte. Ces connaissances contextuelles faciliteraient l’adaptation à des champs de forces en diminuant l’interférence. Selon le modèle computationnel de l’apprentissage moteur MOSAIC (MOdular Selection And Identification model for Control), les stimuli de couleur aident les sujets à former « un modèle interne » de chaque champ de forces, à s’en rappeler et à faire la transition entre deux champs de force différents, sans interférence. Dans l’expérience psychophysique, quatre groupes de sujets humains ont exécuté des mouvements de flexion/extension du coude contre deux champs de forces. Chaque force visqueuse était associée à une couleur de l’écran de l’ordinateur et les deux forces étaient anti-corrélées : une force résistante (Vr) a été associée à la couleur rouge de l’écran et l’autre, assistante (Va), à la couleur verte de l’écran. Les deux premiers groupes de sujets étaient des groupes témoins : la couleur de l’écran changeait à chaque bloc de 4 essais, tandis que le champ de force ne changeait pas. Les sujets du groupe témoin Va ne rencontraient que la force assistante Va et les sujets du groupe témoin Vr performaient leurs mouvements uniquement contre une force résistante Vr. Ainsi, dans ces deux groupes témoins, les stimuli de couleur n’étaient pas pertinents pour adapter le mouvement et les sujets ne s’adaptaient qu’à une seule force (Va ou Vr). Dans les deux groupes expérimentaux, cependant, les sujets expérimentaient deux champs de forces différents dans les différents blocs d’essais (4 par bloc), associés à ces couleurs. Dans le premier groupe expérimental (groupe « indice certain », IC), la relation entre le champ de force et le stimulus (couleur de l’écran) était constante. La couleur rouge signalait toujours la force Vr tandis que la force Va était signalée par la couleur verte. L’adaptation aux deux forces anti-corrélées pour le groupe IC s’est avérée significative au cours des 10 jours d’entraînement et leurs mouvements étaient presque aussi bien ajustés que ceux des deux groupes témoins qui n’avaient expérimenté qu’une seule des deux forces. De plus, les sujets du groupe IC ont rapidement démontré des changements adaptatifs prédictifs dans leurs sorties motrices à chaque changement de couleur de l’écran, et ceci même durant leur première journée d’entraînement. Ceci démontre qu’ils pouvaient utiliser les stimuli de couleur afin de se rappeler de la commande motrice adéquate. Dans le deuxième groupe expérimental, la couleur de l’écran changeait régulièrement de vert à rouge à chaque transition de blocs d’essais, mais le changement des champs de forces était randomisé par rapport aux changements de couleur (groupe « indice-incertain », II). Ces sujets ont pris plus de temps à s’adapter aux champs de forces que les 3 autres groupes et ne pouvaient pas utiliser les stimuli de couleurs, qui n’étaient pas fiables puisque non systématiquement reliés aux champs de forces, pour faire des changements prédictifs dans leurs sorties motrices. Toutefois, tous les sujets de ce groupe ont développé une stratégie ingénieuse leur permettant d’émettre une réponse motrice « par défaut » afin de palper ou de sentir le type de la force qu’ils allaient rencontrer dans le premier essai de chaque bloc, à chaque changement de couleur. En effet, ils utilisaient la rétroaction proprioceptive liée à la nature du champ de force afin de prédire la sortie motrice appropriée pour les essais qui suivent, jusqu’au prochain changement de couleur d’écran qui signifiait la possibilité de changement de force. Cette stratégie était efficace puisque la force demeurait la même dans chaque bloc, pendant lequel la couleur de l’écran restait inchangée. Cette étude a démontré que les sujets du groupe II étaient capables d’utiliser les stimuli de couleur pour extraire des informations implicites et explicites nécessaires à la réalisation des mouvements, et qu’ils pouvaient utiliser ces informations pour diminuer l’interférence lors de l’adaptation aux forces anti-corrélées. Les résultats de cette première étude nous ont encouragés à étudier les mécanismes permettant aux sujets de se rappeler d’habiletés motrices multiples jumelées à des stimuli contextuels de couleur. Dans le cadre de notre deuxième étude, nos expériences ont été effectuées au niveau neuronal chez le singe. Notre but était alors d’élucider à quel point les neurones du cortex moteur primaire (M1) peuvent contribuer à la compensation d’un large éventail de différentes forces externes durant un mouvement de flexion/extension du coude. Par cette étude, nous avons testé l’hypothèse liée au modèle MOSAIC, selon laquelle il existe plusieurs modules contrôleurs dans le cervelet qui peuvent prédire chaque contexte et produire un signal de sortie motrice approprié pour un nombre restreint de conditions. Selon ce modèle, les neurones de M1 recevraient des entrées de la part de plusieurs contrôleurs cérébelleux spécialisés et montreraient ensuite une modulation appropriée de la réponse pour une large variété de conditions. Nous avons entraîné deux singes à adapter leurs mouvements de flexion/extension du coude dans le cadre de 5 champs de force différents : un champ nul ne présentant aucune perturbation, deux forces visqueuses anti-corrélées (assistante et résistante) qui dépendaient de la vitesse du mouvement et qui ressemblaient à celles utilisées dans notre étude psychophysique chez l’homme, une force élastique résistante qui dépendait de la position de l’articulation du coude et, finalement, un champ viscoélastique comportant une sommation linéaire de la force élastique et de la force visqueuse. Chaque champ de force était couplé à une couleur d’écran de l’ordinateur, donc nous avions un total de 5 couleurs différentes associées chacune à un champ de force (relation fixe). Les singes étaient bien adaptés aux 5 conditions de champs de forces et utilisaient les stimuli contextuels de couleur pour se rappeler de la sortie motrice appropriée au contexte de forces associé à chaque couleur, prédisant ainsi leur sortie motrice avant de sentir les effets du champ de force. Les enregistrements d’EMG ont permis d’éliminer la possibilité de co-contractions sous-tendant ces adaptations, étant donné que le patron des EMG était approprié pour compenser chaque condition de champ de force. En parallèle, les neurones de M1 ont montré des changements systématiques dans leurs activités, sur le plan unitaire et populationnel, dans chaque condition de champ de force, signalant les changements requis dans la direction, l’amplitude et le décours temporel de la sortie de force musculaire nécessaire pour compenser les 5 conditions de champs de force. Les changements dans le patron de réponse pour chaque champ de force étaient assez cohérents entre les divers neurones de M1, ce qui suggère que la plupart des neurones de M1 contribuent à la compensation de toutes les conditions de champs de force, conformément aux prédictions du modèle MOSAIC. Aussi, cette modulation de l’activité neuronale ne supporte pas l’hypothèse d’une organisation fortement modulaire de M1.
Resumo:
National audience
Resumo:
Rapport de maitrise présenté en vue de l’obtention du grade M. Sc. A. en génie biomédical option Génie clinique
Resumo:
Rapport de maitrise présenté en vue de l’obtention du grade M. Sc. A. en génie biomédical option Génie clinique
Resumo:
Dans le contexte d’études visant à établir des liens entre les paysages forestiers naturels actuels et la façon dont ils se sont transformés au cours de l’Holocène (variabilité naturelle), il est important de définir des stratégies sylvicoles qui répondent aux critères de la mise en place de l’aménagement écosystémique. Au sein du domaine bioclimatique de la pessière à mousses de l’Ouest du Québec, certains paysages forestiers sont aujourd’hui caractérisés par de vastes peuplements de début de succession dominés par le peuplier faux-tremble et le pin gris. Les objectifs de cette étude étaient 1) de reconstituer l’histoire postglaciaire de la végétation et des feux d’un secteur dominé par de tels peuplements, et 2) de préciser leur variabilité naturelle plurimillénaire. À cette fin, les paysages forestiers d’un territoire couvrant une superficie de 4000 km2 dans la région de la plaine du lac Matagami ont d’abord été caractérisés. Dans un deuxième temps, l’histoire de la végétation et des feux a été reconstituée à l’aide de l’analyse pollinique et anthracologique de deux tourbières. Les lieux de prélèvement des sédiments ont été choisis en fonction d’obtenir un enregistrement local et extra-local de l’histoire des forêts jouxtant chacune des tourbières. Les résultats montrent que la majeure partie de l’Holocène (7000 à 1000 ans A.A.) a été caractérisée des feux peu fréquents qui ont permis le maintien de paysages dominés par la pessière noire à sapin baumier. Au cours des 1000 dernières années, des feux plus fréquents et sans doute plus sévères et de plus grandes étendues ont provoqué une diminution de l’abondance du sapin et une augmentation des espèces de début de succession. Les feux du dernier millénaire seraient ainsi à l’origine des actuels peuplements de début de succession qui se maintiendraient selon une dynamique de récurrence.
Resumo:
Cet essai traite des stratégies pédagogiques utilisant des fonctionnalités disponibles dans des environnements numériques d’apprentissage (ENA) en enseignement hybride dans le réseau collégial. Les enseignantes et les enseignants du réseau collégial ont recours aux ENA en tant que médias d’enseignement et d’apprentissage depuis plusieurs années, mais les données montrent des différences importantes dans leur préférence pour les différents outils disponibles. Si la remise des notes est la plus utilisée, d’autres fonctionnalités qui ont pourtant un fort potentiel pédagogique restent peu ou pas exploitées. Parmi les facteurs qui peuvent expliquer cette relative sous-exploitation des ENA, cet essai identifie un manque de ressources pour accompagner les enseignantes et les enseignants dans l’intégration d’un environnement numérique d’apprentissage (ENA) en enseignement hybride au collégial. Pour pallier ce manque, l’essai pose comme question de recherche : « Quelles sont les stratégies d’utilisation des fonctionnalités des environnements numériques d’apprentissage (ENA) à encourager pour l'exploitation optimale de leur potentiel pédagogique en contexte d’enseignement hybride au collégial »? Le but de cet essai est donc de proposer un ensemble de pratiques optimales exploitant de la manière la plus efficace possible les fonctionnalités des ENA en enseignement hybride dans le réseau collégial. Pour y arriver, le premier objectif est de recenser et de classer des pratiques pédagogiques utilisant ces fonctionnalités. Le deuxième objectif de l’essai est d’analyser les pratiques recensées selon un cadre de référence mis au point à partir de trois sources. La première est la métarecherche que Barrette (2011, 2009, 2005) réalise pour le compte de l’Association pour la recherche au collégial; la deuxième est le modèle de la motivation scolaire de Viau (2009) et la troisième est le modèle des « valeurs ajoutées » de l’équipe de Docqs, Lebrun et Smidts (2010). L’analyse des correspondances entre les pratiques recensées et les conditions posées comme des critères d’efficacité par le cadre de référence permet d’atteindre le troisième objectif de cet essai qui est de dégager des stratégies optimales d’utilisation. Axé sur le pôle de la recherche, cet essai procède par études de cas. Son corpus est constitué de 99 récits de pratiques publiés sur le site de Profweb. La sélection de ces récits s’est faite en effectuant des recherches par mots-clés pertinents dans l’ensemble des récits publiés. L’essai réalise l’analyse des récits à partir de 17 fonctionnalités et d’une dix-huitième situation correspondant à l’utilisation combinée de plusieurs fonctionnalités au sein d’un ENA. Une synthèse des pratiques recensées pour chacune des 18 fonctionnalités dégage un schème, c’est-à-dire un ensemble type de pratiques. L’examen des 18 schèmes de pratiques révèle que certains correspondent plus que d’autres aux critères d’efficacité fournis par le cadre de référence. Ainsi, les schèmes de pratiques rapportés par les auteurs de récits dans Profweb indiquent que l’utilisation de plusieurs fonctionnalités combinées au sein d’un ENA, ou l’utilisation des forums ou celle du portfolio satisfont mieux aux critères d’efficacité que l’utilisation du courriel ou que celle de la correction numérique. Les résultats de cet essai indiquent aussi qu’il y a dans les récits une prépondérance de pratiques pédagogiques inspirées du socioconstructivisme et que dans leur ensemble, ces pratiques sont centrées sur l’apprentissage et favorisent la motivation scolaire. Les récits étudiés indiquent aussi un haut niveau de satisfaction à l’égard des équipements informatiques utilisés. En même temps, ces récits font état fréquemment d’un manque d’expérience et d’un besoin de formation de la part des enseignantes et des enseignants. Pour satisfaire le besoin de formation mentionné dans les récits, l’essai propose des pratiques optimales en matière d’utilisation des fonctionnalités d’un ENA en enseignement hybride. Une pratique optimale consiste à identifier pour chacun des schèmes de pratique les critères d’efficacité pertinents dégagés du cadre d’analyse, critères effectivement pris en compte dans les récits ou qui auraient dû l’être. L’examen des récits de pratiques révèle aussi que les critères d’efficacité ne sont pas pris en compte simultanément et qu’il existe une feuille de route, une procédure dont chacune des étapes offre l’occasion de considérer certains critères plutôt que d’autres. L’essai suggère une séquence pour la prise en compte des critères d’efficacité lors de la planification et du déroulement d’une activité pédagogique exploitant des fonctionnalités d’ENA en enseignement hybride. La confection du répertoire des 18 pratiques optimales en matière d’utilisation pédagogique des fonctionnalités d’un ENA constitue un apport nouveau et utile pour répondre au besoin des enseignantes et des enseignants de se former à une utilisation stratégique de ces outils. Un tel répertoire peut constituer le coeur d’un guide de formation et d’intervention que les conseillères et conseillers technopédagogiques du réseau collégial utiliseront avec empressement.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.