522 resultados para Acquisition des connaissances
Resumo:
Dans une époque de changements des moyens de représentation et communication en architecture, cette recherche porte sur l’enseignement de la conception architecturale et plus spécifiquement sur l’apport que l’informatique pourrait avoir dans ce processus. En nous basant sur une méthodologie qualitative, exploratoire et participative, nous y procédons par enchainement de questions, celle de départ étant la suivante: Comment l’enseignement de la conception architecturale pourrait tirer avantage des moyens numériques? Notre objectif est de proposer des méthodes et des outils d’apprentissage aux étudiants en architecture pour enrichir leurs démarches de conception grâce à l’ordinateur. Après une revue de la littérature dans le domaine, et un approfondissement de l’étude sur le rôle des référents architecturaux et sur la conception intégrée, nous avons procédé à une observation exploratoire du travail des étudiants en atelier d’architecture. Ces premières étapes de la recherche ont permis de dégager des discordances entre les positions théoriques et la pratique en l’atelier, pour concrétiser ultérieurement la question de recherche. Dans le but de discerner des méthodes efficaces et innovatrices pour répondre aux discordances identifiées, nous avons engagé une étude de la littérature sur les théories cognitives par rapport aux connaissances, l’apprentissage et la conception. Certaines stratégies ont pu être définies, notamment la nécessité de représentation multimodale des référents architecturaux, l’importance de représenter le processus et non seulement le résultat, ainsi que l’avantage d’inciter les étudiants à travailler dans leur ‘zone proximale’ de développement. Suite à ces recherches, une méthode d’enseignement complémentaire a été définie. Elle propose aux étudiants des explorations de l’objet en conception basées sur la manipulation des savoir-faire architecturaux. Cette méthode a été opérationnalisée d’un point de vue pédagogique ainsi que didactique et mise à l’épreuve auprès des étudiants en atelier. Un prototype de librairie de référents architecturaux interactifs (LibReArchI) a été créé dans ce but. Elle a été conçue en tant qu’environnement de conception et espace de partage de savoir-faire entre étudiants et enseignants. Les principaux résultats de cette recherche démontrent le rôle positif de la méthode proposée pour le transfert des savoir-faire architecturaux lors de l’apprentissage en atelier. Son potentiel d’assister la conception intégrée et de stimuler l’émergence d’idées a été constaté. Au niveau théorique, un modèle d’un cycle du processus de design avec le numérique a été esquissé. En conclusion, des avenues de développements futurs de cette recherche sont proposées.
Resumo:
Les récepteurs couplés aux protéines G (RCPGs) constituent la plus grande classe de récepteurs membranaires impliqués dans la transmission des signaux extracellulaires. Traditionnellement, la transmission de la signalisation par les RCPGs implique l’activation d’une protéine G hétéro-trimérique qui pourra à son tour moduler l’activité de divers effecteurs intracellulaires. Ce schéma classique de signalisation s’est complexifié au fils des années et l’on sait maintenant qu’en plus d’interagir avec les protéines G, les RCPGs s’associent avec une panoplie d’autres protéines afin de transmettre adéquatement les signaux extracellulaires. En particulier, la découverte d’une famille de protéines transmembranaires modulant la fonction des RCPGs, baptisées protéines modifiant l’activité des récepteurs (« receptor activity-modifying proteins » ; RAMPs), a changé la façon de concevoir la signalisation par certains RCPGs. Dans le cas du récepteur similaire au récepteur de la calcitonine (« calcitonin-like receptor » ; CLR), l’association avec les RAMPs permet l’acheminement à la surface cellulaire du récepteur tout en modulant ses propriétés pharmacologiques. Lorsqu’il est associé avec RAMP1, le CLR fonctionne comme un récepteur du peptide relié au gène de la calcitonine (« calcitonin gene-related peptide » ; CGRP), alors qu’il devient un récepteur de l’adrénomedulline lorsqu’il interagit avec RAMP2 ou RAMP3. D’autre part, en plus d’interagir avec des protéines accessoires transmembranaires telles les RAMPs, les RCPGs peuvent aussi s’associer entre eux pour former des oligomères de récepteurs. Dans cette thèse, nous nous sommes penchés sur les interactions entre les RCPGs et les RAMPs, et plus particulièrement sur l’interrelation entre ce type d’association RCPG/RAMP et l’assemblage en oligomères de récepteurs, en utilisant le récepteur du CGRP comme modèle d’étude. Une première étude nous a tout d’abord permis de confirmer l’interaction entre le récepteur CLR et RAMP1, dans un contexte de cellules vivantes. Nous avons démontré que ce complexe CLR/RAMP1 active la protéine G et recrute la protéine de signalisation -arrestine suite à une stimulation par le CGRP. Ensuite, nous avons déterminé que même s’il doit obligatoirement former un hétéro-oligomère avec les RAMPs pour être actif, le CLR conserve malgré tout sa capacité à interagir avec d’autres RCPGs. En plus d’observer la présence d’homo-oligomère de CLR, nous avons constaté que tout comme les RCPGs, les RAMPs peuvent eux-aussi s’associer entre eux pour former des complexes oligomériques pouvant comprendre différents sous-types (RAMP1/RAMP2 et RAMP1/RAMP3). Cette observation de la présence d’homo-oligomères de CLR et de RAMP1, nous a amené à nous questionner sur la stœchiométrie d’interaction du complexe CLR/RAMP1. Dans une deuxième étude ayant pour but d’établir la composition moléculaire du récepteur CGRP1 in vivo, nous avons développé une nouvelle approche permettant l’étude de l’interaction entre trois protéines dans un contexte de cellules vivantes. Cette technique baptisée BRET/BiFC, est basée sur le transfert d’énergie de résonance de bioluminescence entre un donneur luminescent, la Renilla luciférase, et un accepteur fluorescent, la protéine fluorescente jaune (YFP), reconstituée suite au ré-assemblage de ces deux fragments. En utilisant cette approche, nous avons pu déterminer que le récepteur CGRP1 est constitué d’un homo-oligomère de CLR interagissant avec un monomère de RAMP1. En démontrant un assemblage oligomérique asymétrique pour le récepteur CGRP1 à partir d’une nouvelle approche biophysique, nous croyons que les travaux présentés dans cette thèse ont contribué à élargir nos connaissances sur le fonctionnement de la grande famille des RCPGs, et seront utile à la poursuite des recherches sur les complexes protéiques impliqués dans la signalisation.
Resumo:
Comprend deux parties (1re partie, Description bibliographique et 3e partie, Vedettes-matière exprimant le genre et le moyen d’exécution) d’un atelier pré-congrès offert le 10 mai 2007 à l’Université de Montréal par l’Association québécoise des bibliothèques de musique (maintenant la Section québécoise de l’ACBM) lors du Congrès de l’ACBM.
Resumo:
Les Cellules Endothéliales Progénitrices ("Endothelial Progenitor Cells", EPCs) sont des précurseurs endothéliaux qui jouent un rôle émergeant en biologie vasculaire. Les EPCs ont été localisées dans le cordon ombilical, la moelle osseuse, le sang périphérique et dans certains tissus régénérateurs. Les interactions des EPCs avec les cellules sanguines et vasculaires peuvent largement influencer leurs propriétés biologiques et dicter leur fonctionnement pendant la réparation endothéliale. Plus spécifiquement, les interactions des EPCs avec les plaquettes circulantes induisent leur migration, leur recrutement et leur différentiation en cellules endothéliales aux sites de lésions vasculaires. Cependant, l’impact d’une telle interaction sur la fonction plaquettaire n’a pas été recherché. Le but de mon projet était de :1) générer des EPCs à partir des cellules mononucléaires du sang humain périphérique ("Peripheral Blood Mononuclear Cells", PBMCs); 2) étudier les interactions adhésives entre les EPCs et les plaquettes; 3) déterminer leur impact sur la fonction plaquettaire et la formation du thrombus et 4) décrire le mécanisme d’action des EPCs sur les plaquettes et le thrombus. Mises en culture sur une surface de fibronectine dans un milieu conditionné, les PBMCs fraîchement isolées possédaient une morphologie ronde et une petite taille. Après cinq jours, les PBMCs adhérentes donnaient naissance à des colonies, puis formaient une monocouche de cellules aplaties caractéristiques des EPCs après dix jours de culture. Les EPCs différenciées étaient positives pour l’Ulex-lectine et l’Acétyle des lipoprotéines de faible densité ("Acetylated Low Density Lipoprotein", Ac-LDL), exprimaient les marqueurs progéniteurs (CD34, P-sélectine, VEGFR2, vWF et VE-Cadhérine) tandis que les marqueurs leucocytaires (CD14, PSGL-1 et L-sélectine) étaient absents. Ces EPCs interagissaient avec les plaquettes activées par un mécanisme dépendant de la P-sélectine plaquettaire, inhibaient l’activation et l’agrégation plaquettaire et réduisaient significativement l’adhésion plaquettaire, principalement par l’action de prostacycline (PGI2). En fait, ceci était associé avec une augmentation de l’expression de la cyclooxygénase-2 (COX-2) et du monoxyde d’azote (NO) synthéthase inductible (iNOS). Toutefois, les effets inhibiteurs des EPCs sur la fonction plaquettaire ont été renversés par une inhibition de la COX et non pas du NO. Bien que les EPCs fussent en mesure de lier les plaquettes via la P-sélectine, leurs effets prédominants étaient médiés essentiellement par une sécrétion paracrine, impliquant la PGI2. Néanmoins, un rapprochement étroit ou un bref contact entre les EPCs et les plaquettes était requis pour que cette fonction soit complètement réalisée. D’ailleurs, cet aspect a été investigué chez des souris déficientes en P-sélectine (P-sel-/-) et chez leurs congénères de phénotype sauvage (Wild Type, WT). Chez les souris WT, les EPCs inhibaient l’agrégation plaquettaire dans le sang complet de manière concentration-dépendante alors que dans les souris P-sel-/-, l’action des EPCs n’avait pas d’effet significatif. De plus, en utilisant un modèle murin de thrombose artérielle, nous avons démontré que l’infusion systémique des EPCs altéraient la formation du thrombus et réduisaient significativement sa masse chez les souris WT, mais non pas chez les souris P-sel-/-. En outre, le nombre des EPCs incorporées au niveau du thrombus et de la paroi vasculaire était visiblement réduit chez les P-sel-/- par rapport aux souris WT. Dans cette étude, nous sommes parvenus à différentier adéquatement des EPCs à partir des PBMCs, nous avons étudié les interactions adhésives entre les EPCs et les plaquettes, et nous avons décrit leur impact sur la fonction plaquettaire et la formation du thrombus. De plus, nous avons identifié la PGI2 comme étant le principal facteur soluble sécrété par les EPCs en culture et responsable de leurs effets inhibiteurs sur l’activation, l’adhésion et l’agrégation plaquettaire in vitro. De surcroît, nous avons élucidé le mécanisme d’action des EPCs sur l’agrégation plaquettaire et la formation du thrombus, in vivo, et nous avons souligné le rôle de la P-sélectine plaquettaire dans ce processus. Ces résultats ajoutent de nouvelles connaissances sur la biologie des EPCs et définissent leur rôle potentiel dans la régulation de la fonction plaquettaire et la thrombogenèse.
Resumo:
Le but de cette étude était de mesurer le niveau d’acceptation des rôles de l’infirmière praticienne de première ligne (IPPL) par les usagers de CLSC, selon les caractéristiques socio-démographiques de ceux-ci. La collecte de données pour cette recherche synthétique comparative s’est effectuée dans cinq CLSC de la région montréalaise par des questionnaires auto-administrés. L’échantillon accidentel est composé de 316 personnes de 18 ans et plus, se présentant au CLSC pour un problème de santé. Ces personnes étaient sollicitées par des affiches ou par des suggestions de la réceptionniste dans les salles d’attente. Les résultats révèlent que près de 40% de l’échantillon acceptent tous les rôles de l’IPPL. Des analyses de régression logistique montrent que les personnes ayant un revenu annuel élevé (supérieur à 40000$) sont plus susceptibles d’accepter tous les rôles de l’IPPL. Ces résultats vont permettre aux décideurs de prendre les mesures nécessaires pour implanter ce nouveau groupe professionnel ; ils peuvent également aider les IPPL à concevoir des stratégies pour faire une promotion efficiente de leur rôle en pratique avancée auprès de la population.
Resumo:
Dans le contexte d’urbanisation fulgurante de l’Asie du sud-est, les zones périurbaines agricoles vietnamiennes subissent des pressions environnementales croissantes et sont loin d’être équipées en infrastructures. L’assainissement présente un important manque d’investissement. La thèse s’est intéressée aux stratégies et aux mécanismes de financement qui aideront à réduire l’écart entre l’offre et la demande d’assainissement. Deux hypothèses principales ont été posées. D’abord, des fonds supplémentaires doivent provenir des ressources nationales, locales et celles des utilisateurs. La seconde hypothèse pose qu’il faudra investir avantage dans des activités qui augmenteront la durabilité des services d’assainissement, comme l’éducation et la promotion, qui en plus favorisent les contributions locales. La thèse a tenté de répondre à la question suivante : Dans le contexte périurbain d’Hanoi, comment mettre à contribution les ressources locales pour améliorer l’accès et la durabilité de l’assainissement? L’étude de cas est un projet communautaire pilote de gestion des eaux usées en banlieue d’Hanoi. Les facteurs de demande pour de l’assainissement et leurs effets sur la durabilité du projet ont été analysés auprès des ménages, des acteurs du village et des acteurs nationaux liés à l’assainissement. La thèse a d’abord permis d’actualiser les connaissances sur deux aspects importants : le cadre institutionnel qui encadre le financement de l’assainissement et les coûts et bénéfices de l’assainissement alternatif au Vietnam. Ces deux sujets présentaient une lacune sérieuse au niveau de la documentation. Puis, malgré de faibles capacités au niveau local, la demande réelle pour de l’assainissement était beaucoup plus importante que celle relevée dans la littérature. La recherche a permis de conclure que les institutions gouvernementales pourraient compter sur une plus grande contribution du milieu local si la planification ciblait ces facteurs : l’éducation et promotion, une grande part de décision et de gestion au niveau local et des technologies plus simples.
Resumo:
Cette thèse porte sur l’étude de l’anatomie de la cornée après 3 techniques de greffe soient, la greffe totale traditionnelle (GTT) et des techniques de greffe lamellaire postérieur (GLP) telles que la greffe lamellaire endothéliale profonde (DLEK) et la greffe endothélium/membrane de Descemet (EDMG) pour le traitement des maladies de l’endothélium, telles que la dystrophie de Fuchs et de la kératopathie de l’aphaque et du pseudophaque. Dans ce contexte, cette thèse contribue également à démontrer l’utilité de la tomographie de cohérence optique (OCT) pour l’étude de l’anatomie des plaies chirurgicales la cornée post transplantation. Au cours de ce travail nous avons étudié l'anatomie de la DLEK, avant et 1, 6, 12 et 24 mois après la chirurgie. Nous avons utilisé le Stratus OCT (Version 3, Carl Zeiss, Meditec Inc.) pour documenter l’anatomie de la plaie. L'acquisition et la manipulation des images du Stratus OCT, instrument qui à été conçu originalement pour l’étude de la rétine et du nerf optique, ont été adaptées pour l'analyse du segment antérieur de l’oeil. Des images cornéennes centrales verticales et horizontales, ainsi que 4 mesures radiaires perpendiculaires à la plaie à 12, 3, 6 et 9 heures ont été obtenues. Les paramètres suivants ont été étudiés: (1) Les espaces (gap) entre les rebords du disque donneur et ceux du receveur, (2) les dénivelés de surface postérieure (step) entre le les rebords du disque donneur et ceux du receveur, (3) la compression tissulaire, (4) le décollement du greffon, 6) les élévations de la surface antérieure de la cornée et 7) la pachymétrie centrale de la cornée. Les mesures d’épaisseur totale de la cornée ont été comparées et corrélées avec celles obtenues avec un pachymètre à ultra-sons. Des mesures d’acuité visuelle, de réfraction manifeste et de topographie ont aussi été acquises afin d’évaluer les résultats fonctionnels. Enfin, nous avons comparé les données de DLEK à celles obtenues de l’EDMG et de la GTT, afin de caractériser les plaies et de cerner les avantages et inconvénients relatifs à chaque technique chirurgicale. Nos résultats anatomiques ont montré des différences importantes entre les trois techniques chirurgicales. Certains des paramètres étudiés, comme le sep et le gap, ont été plus prononcés dans la GTT que dans la DLEK et complètement absents dans l’EDMG. D’autres, comme la compression tissulaire et le décollement du greffon n’ont été observés que dans la DLEK. Ceci laisse entrevoir que la distorsion de la plaie varie proportionnellement à la profondeur de la découpe stromale du receveur, à partir de la face postérieure de la cornée. Moins la découpe s’avance vers la face antérieure (comme dans l’EDMG), moins elle affecte l’intégrité anatomique de la cornée, le pire cas étant la découpe totale comme dans la GTT. Cependant, tous les paramètres d’apposition postérieure sous-optimale et d’élévation de la surface antérieure (ce dernier observé uniquement dans la GTT) finissent par diminuer avec le temps, évoluant à des degrés variables vers un profil topographique plus semblable à celui d’une cornée normale. Ce processus paraît plus long et plus incomplet dans les cas de GTT à cause du type de plaie, de la présence de sutures et de la durée de la cicatrisation. Les valeurs moyennes d’épaisseur centrale se sont normalisées après la chirurgie. De plus, ces valeurs moyennes obtenues par OCT étaient fortement corrélées à celles obtenues par la pachymétrie à ultra-sons et nous n’avons remarqué aucune différence significative entre les valeurs moyennes des deux techniques de mesure. L’OCT s’est avéré un outil utile pour l’étude de l’anatomie microscopique des plaies chirurgicales. Les résultats d’acuité visuelle, de réfraction et de topographie des techniques de GLP ont montré qu’il existe une récupération visuelle rapide et sans changements significatifs de l’astigmatisme, contrairement à la GTT avec et sans suture. La GLP a permis une meilleure conservation de la morphologie de la cornée, et par conséquence des meilleurs résultats fonctionnels que la greffe de pleine épaisseur. Ceci nous permet d’avancer que la GLP pourrait être la technique chirurgicale à adopter comme traitement pour les maladies de l’endothélium cornéen.
Resumo:
L’hypothèse de cette thèse est qu’une pratique collaborative médecins de famille-pharmaciens communautaires (PCMP) où le pharmacien fournit des soins pharmaceutiques avancés avec ajustement posologique d’une statine permettrait aux patients avec une dyslipidémie une réduction plus importante de leur LDL et augmenterait le nombre de patients atteignant leurs cibles lipidiques. Dans une étude clinique contrôlée et randomisée en grappe visant à évaluer une PCMP pour des patients ayant une dyslipidémie (l’étude TEAM), une journée de formation basée sur un protocole de traitement et des outils cliniques a été offerte aux pharmaciens PCMP pour les préparer à fournir des soins pharmaceutiques avancés. Les connaissances des pharmaciens sur les dyslipidémies étaient faibles avant la formation mais se sont améliorées après (moyenne de 45,8% à 88,2%; p < 0,0001). Après la formation, les pharmaciens avaient un haut niveau d’habiletés cliniques théoriques et pratiques. Bref, une journée de formation basée sur un protocole de traitement et des outils cliniques était nécessaire et adéquate pour préparer les pharmaciens à fournir des soins pharmaceutiques avancés à des patients ayant une dyslipidémie dans le contexte d’une étude clinique. Dans l’étude TEAM, 15 grappes de médecins et de pharmaciens (PCMP : 8; soins habituels (SH) : 7) ont suivi pendant un an, 225 patients (PCMP : 108; SH : 117) à risque modéré ou élevé de maladie coronarienne qui débutaient ou étaient déjà traités par une monothérapie avec une statine mais qui n’avaient pas atteint les cibles lipidiques. Au départ, par rapport aux patients SH, les patients PCMP avaient un niveau de LDL plus élevé (3,5 mmol/L vs 3,2 mmol/L) et recevaient moins de statine à puissance élevée (11,1 % vs 39,7 %). Après 12 mois, la différence moyenne du changement de LDL entre les groupes était égale à -0,2 mmol/L (IC95%: -0,3 à -0,1) et -0,04 (IC95%: -0,3 à 0,2), sans ajustement et avec ajustement, respectivement. Le risque relatif d’atteindre les cibles lipidiques était 1,10 (IC95%: 0,95 à 1,26) et 1,16 (1,01 à 1,32), sans ajustement et avec ajustement, respectivement. Les patients PCMP ont eu plus de visites avec un professionnel de la santé et d’analyses de laboratoire et étaient plus enclins à rapporter des changements de style de vie. La PCMP a amélioré l’adhésion aux lignes directrices en augmentant la proportion de patients aux cibles lipidiques. Les données intérimaires de l’étude TEAM (PCMP : 100 patients; SH : 67 patients) ont permis d’évaluer les coûts directs annuels du suivi du pharmacien du groupe PCMP (formation, visites, laboratoire), du médecin (visites, laboratoire) et du traitement hypolipémiant. Le suivi du pharmacien a coûté 404,07$/patient, incluant 320,67$ pour former les pharmaciens. Le coût global incrémental était 421,01$/patient. Une pratique collaborative pour des patients ayant une dyslipidémie engendre un coût raisonnable.
Resumo:
Depuis quelques années, les statistiques indiquent une croissance exponentielle de l’incidence de certaines infections transmissibles sexuellement chez les jeunes adultes. Certaines enquêtes témoignent en outre des comportements peu responsables en matière de santé sexuelle chez cette population, bien que l’offre d’information sur les conséquences de tels comportements soit importante et diversifiée. Par ailleurs, le comportement informationnel de cette population en matière de santé sexuelle demeure peu documenté. La présente étude porte sur le comportement informationnel de jeunes adultes québécois en matière de santé sexuelle. Plus spécifiquement, elle répond aux quatre questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles les jeunes adultes sont confrontés en santé sexuelle?, (2) Quels sont les besoins informationnels exprimés par les jeunes adultes lors de ces situations problématiques?, (3) Quels sont les processus et les sources d’information qui soutiennent la résolution de ces besoins informationnels? et (4) Quelle est l’utilisation de l’information trouvée? Cette recherche descriptive a utilisé une approche qualitative. Le milieu retenu est l’Université de Montréal pour deux raisons : il s’agit d’un milieu cognitivement riche qui fournit un accès sur place à des ressources en santé sexuelle. Les huit jeunes adultes âgés de 18 à 25 ans qui ont pris part à cette étude ont participé à une entrevue en profondeur utilisant la technique de l’incident critique. Chacun d’entre eux a décrit une situation problématique par rapport à sa santé sexuelle et les données recueillies ont été l’objet d’une analyse de contenu basée sur la théorisation ancrée. Les résultats indiquent que les jeunes adultes québécois vivent des situations problématiques relatives à l’aspect physique de leur santé sexuelle qui peuvent être déclenchées par trois types d’éléments : un événement à risques, un symptôme physique subjectif et de l’information acquise passivement. Ces situations problématiques génèrent trois catégories de besoins informationnels : l’état de santé actuel, les conséquences possibles et les remèdes. Pour répondre à ces besoins, les participants se sont tournés en majorité vers des sources professionnelles, personnelles et verbales. La présence de facteurs contextuels, cognitifs et affectifs a particularisé leur processus de recherche d’information en modifiant les combinaisons des quatre activités effectuées, soit débuter, enchaîner, butiner et différencier. L’automotivation et la compréhension du problème représentent les deux principales utilisations de l’information. D’un point de vue théorique, les résultats indiquent que le modèle général de comportement informationnel de Choo (2006), le modèle d’environnement d’utilisation de l’information de Taylor (1986, 1991) et le modèle d’activités de recherche d’information d’Ellis (1989a, 1989b, 2005) peuvent être utilisés dans le contexte personnel de la santé sexuelle. D’un point de vue pratique, cette étude ajoute aux connaissances sur les critères de sélection des sources d’information en matière de santé sexuelle.
Resumo:
Cette étude porte sur la distance parcourue pour commettre un crime à Gatineau en 2006. Peu d’études canadiennes récentes ont porté sur le sujet. De plus, il existe un vide de connaissances sur la mobilité des délinquants dans les petites villes et les banlieues. La présente recherche vise à comparer trois mesures de distance différentes, à vérifier si la distance parcourue varie en fonction du type de crime et à voir si les variables de temps (jour de la semaine, moment de la journée et saison) de même que certaines caractéristiques des suspects (âge, sexe et lieu de résidence) ont un impact sur la distance parcourue. Pour chaque crime, l’adresse du suspect et le lieu du crime ont été géocodées pour ensuite calculer la distance entre les deux points. Il ressort de l’analyse de la forme des courbes de distances que seules les agressions sexuelles présentent une zone tampon. Les résultats des analyses statistiques indiquent que les jeunes sont plus mobiles que les suspects plus âgés et que les hommes parcourent une distance plus élevée que les femmes. Étonnement, la distance parcourue ne diffère pas significativement selon la saison et le moment de la journée. Enfin, comparativement aux autres criminels, les délinquants qui ont commis un vol qualifié sont ceux qui ont parcouru les plus grandes distances.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Dans les situations du quotidien, nous manipulons fréquemment des objets sans les regarder. Pour effectuer des mouvements vers une cible précise avec un objet à la main, il est nécessaire de percevoir les propriétés spatiales de l’objet. Plusieurs études ont démontré que les sujets peuvent discriminer entre des longueurs d'objet différentes sans l’aide des informations visuelles et peuvent adapter leurs mouvements aux nouvelles caractéristiques inertielles produites lors de la manipulation d’un objet. Dans cette étude, nous avons conduit deux expérimentations afin d’évaluer la capacité des sujets à adapter leurs mouvements d’atteinte à la longueur et à la forme perçues des objets manipulés sur la base unique des sensations non visuelles (sensations haptiques). Dans l'expérience 1, dix sujets devaient exécuter des mouvements d’atteintes vers 4 cibles tridimensionnelles (3D) avec un objet à la main. Trois objets de longueur différente ont été utilisés (pointeurs: 12.5, 17.5, 22.5 cm). Aucune connaissance de la position de la main et de l’objet par rapport à la cible n’était disponible pendant et après les mouvements vers les cibles 3D. Ainsi, lorsque comparé avec les erreurs spatiales commises lors des atteintes manuelles sans pointeur, l’erreur spatiale de chacun des mouvements avec pointeur reflète la précision de l’estimation de la longueur des pointeurs. Nos résultats indiquent que les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec un objet en comparaison avec la condition sans pointeur. Cependant, de façon intéressante, ils ont maintenu le même niveau de précision à travers les trois conditions avec des objets de différentes longueurs malgré une différence de 10 cm entre l’objet le plus court et le plus long. Dans l'expérience 2, neuf sujets différents ont effectué des mouvements d’atteinte vers les mêmes cibles utilisant cette fois-ci deux objets en forme de L (objet no.1 : longueur de 17,5 cm et déviation à droite de 12,5 cm – objet no.2 : longueur de 17,5 cm et déviation à droite de 17,5 cm). Comme c’était le cas lors de l'expérience 1, les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec les objets et cette augmentation était similaire entre les deux conditions avec les objets en forme de L. Une observation frappante de l’expérience 2 est que les erreurs de direction n’ont pas augmenté de façon significative entre les conditions avec objet en forme de L et la condition contrôle sans objet. Ceci démontre que les participants ont perçu de façon précise la déviation latérale des objets sans jamais avoir eu de connaissances visuelles de la configuration des objets. Les résultats suggèrent que l’adaptation à la longueur et à la forme des objets des mouvements d’atteinte est principalement basée sur l’intégration des sensations haptiques. À notre connaissance, cette étude est la première à fournir des données quantitatives sur la précision avec laquelle le système haptique peut permettre la perception de la longueur et de la forme d’un objet tenu dans la main afin d’effectuer un mouvement précis en direction d’une cible.
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
Le maintien de la stabilité du génome est essentiel pour la propagation de l’information génétique et pour la croissance et la survie des cellules. Tous les organismes possèdent des systèmes de prévention des dommages et des réarrangements de l’ADN et nos connaissances sur ces processus découlent principalement de l’étude des génomes bactériens et nucléaires. Comparativement peu de choses sont connues sur les systèmes de protection des génomes d’organelles. Cette étude révèle l’importance des protéines liant l’ADN simple-brin de la famille Whirly dans le maintien de la stabilité du génome des organelles de plantes. Nous rapportons que les Whirlies sont requis pour la stabilité du génome plastidique chez Arabidopsis thaliana et Zea mays. L’absence des Whirlies plastidiques favorise une accumulation de molécules rearrangées produites par recombinaison non-homologue médiée par des régions de microhomologie. Ce mécanisme est similaire au “microhomology-mediated break-induced replication” (MMBIR) retrouvé chez les bactéries, la levure et l’humain. Nous montrons également que les organelles de plantes peuvent réparer les bris double-brin en utilisant une voie semblable au MMBIR. La délétion de différents membres de la famille Whirly entraîne une accumulation importante de réarrangements dans le génome des organelles suite à l’induction de bris double-brin. Ces résultats indiquent que les Whirlies sont aussi importants pour la réparation fidèle des génomes d’organelles. En se basant sur des données biologiques et structurales, nous proposons un modèle où les Whirlies modulent la disponibilité de l’ADN simple-brin, régulant ainsi le choix des voies de réparation et permettant le maintien de la stabilité du génome des organelles. Les divers aspects de ce modèle seront testés au cours d’expériences futures ce qui mènera à une meilleure compréhension du maintien de la stabilité du génome des organelles.
Resumo:
Cet ouvrage traite principalement de la synthèse de motifs polypropionates de type stéréopentade ainsi qu’une application à la synthèse d’une molécule naturelle possèdant des propriétés biologiques. La stratégie envisagée pour l’élaboration de ces motifs récurrents dans plusieurs structures d’origine naturelle fait appel à la chimie des radicaux. Cette thèse se divise en différents chapitres dans lesquels la versatilité de la méthodologie développée sera démontrée. En premier lieu, il sera question de présenter l’importance de la synthèse de motifs polypropionates. Le domaine couvert par la chimie de ces molécules complexes hautement fonctionnalisées a contribué énormément à l’avancement de nos connaissances en synthèse organique, particulièrement dans le contexte des réactions impliquant des molécules acyliques. Une brève description des méthodes connues est présentée afin de saisir l’étendue des défis restants pour construire efficacement tous les isomères possibles des polypropionates de type stéréopentade. La stratégie proposée est basée sur une approche contrôlée entièrement par le substrat. Ce contrôle s’appuie sur le choix judicieux de l’acide de Lewis activant les deux réactions impliquées, soit la réaction de Mukaiyama et le transfert d’hydrogène. La seconde section de cette thèse concerne principalement le développement d’une réaction de Mukaiyama impliquant un éther d’énol silylé portant un lien pouvant être homolytiquement brisé dans la réaction suivante et un aldéhyde de type propionate. Le contrôle de l’aldolisation provient de la nature de l’acide de Lewis. Une espèce monodentate (BF3·OEt2) génère une relation 3,4-syn selon le modèle dit Felkin-Anh tandis que les acides de Lewis bidentates mènent à la relation 3,4-anti via un état de transition définit comme Cram-chélate. Une optimisation des conditions réactionnelles en variant l’acidité et la stoechiométrie de l’acide de Lewis de titane a permis de construire diastéréosélectivement le produit de Mukaiyama ayant une relation 3,4-anti. En outre, la nature des complexes impliqués dans ces réactions a été élucidée par des études RMN 13C à basse température. Une fois les précurseurs radicalaires synthétisés, notre méthodologie de réduction par transfert d’hydrogène contrôlée également par les acides de Lewis s’avère très efficace. Les acides de Lewis dérivés d’aluminium mènent sélectivement à la relation 2,3-syn selon un contrôle endocyclique tandis que les acides de Lewis de bore permettent la création des relations 2,3-anti en se basant sur une stabilisation par les divers facteurs de contrôle de molécules acycliques. Cette stratégie novatrice nous a ainsi permis de construire efficacement les 16 diastéréoisomères possibles. Le chapitre suivant concerne l’application de cette méthodologie à la synthèse de l’hémisphère ouest de la salinomycine et de la narasine. Plusieurs défis synthétiques ont été relevés à cette occasion par la présence de nombreux centres stéréogènes contigus. Nous avons réalisé que la relation stéréochimique 2,3-anti de la salinomycine n’est pas accessible sélectivement par la chimie des radicaux via l’effet exocyclique. Des études ont été entreprises afin de comprendre cette perte de sélectivité. Les conclusions suggèrent que les substituants sur le cycle imposent un biais conformationnel conduisant à des faibles sélectivités. Une alternative utilisant un réactif de crotylsilane chiral a été développée pour arriver à la molécule cible. Cette situation est différente dans le cas de la narasine où la présence du méthyle sur le carbone en position β du radical bloque efficacement l’approche d’une des faces d’attaque par l’hydrure. Des sélectivités impressionnantes nous ont permis de construire le fragment C1-C9 de la narasine de manière expéditive et efficace. Finalement, l’élongation sélective utilisant à nouveau la séquence d’aldolisation de Mukaiyama/réduction radicalaire suivie d’un couplage de type aldol stéréosélectif conduit au fragment C1-C17 de la narasine (hémisphère ouest)en 19 étapes avec un rendement global de l’ordre de 7 %. En dernier lieu, nous nous sommes penchés sur la réactivité des α-bromo-β- alkoxycétones lors de transfert d’hydrogène. Nous avons découvert que la chimie de ces derniers pourrait s’avérer utile dans le contexte de la synthèse de motifs complexes polypropionates. La présence d’un centre stéréogène de l’autre coté de la cétone semble avoir un impact sur la sélectivité.