984 resultados para hors-champ
Resumo:
Dans un premier chapitre, nous décrivons un modèle de formation d’image affichée sur un écran en revenant sur les concepts que sont la lumière, la géométrie et l’optique. Nous détaillons ensuite les différentes techniques d’affichage stéréoscopique utilisées à l’heure actuelle, en parcourant la stéréoscopie, l’autostéréoscopie et plus particulièrement le principe d’imagerie intégrale. Le deuxième chapitre introduit un nouveau modèle de formation d’image stéréoscopique. Ce dernier nous permet d’observer deux images d’une paire stéréoscopique soumises à des éventuelles transformations et à l’effet d’une ou de plusieurs optiques particulières, pour reproduire la perception de trois dimensions. Nous abordons l’aspect unificateur de ce modèle. En effet il permet de décrire et d’expliquer de nombreuses techniques d’affichage stéréoscopique existantes. Enfin, dans un troisième chapitre nous discutons d’une méthode particulière de création de paires d’images stéréoscopiques à l’aide d’un champ lumineux.
Resumo:
Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.
Resumo:
Les résultats de la cinquième réalisation de l’étude de TIMSS en 2011 montrent la présence d’un faible rendement des élèves iraniens en mathématiques par rapport à la moyenne internationale. Plusieurs facteurs peuvent être à la source de ce faible rendement : programmes d’études, caractéristiques de l’école, qualité des ressources éducatives fournies à l’école ou accessibles aux élèves hors de l’école, etc. (Mullis et coll., 2009; 2012; Coleman et coll., 1966). Ce mémoire est une tentative d’identifier les points faibles probables du contenu géométrique du manuel scolaire de mathématiques de 8e année de l’Iran, en considérant les exigences de TIMSS 2011. Dans cette perspective, cette recherche se focalise sur trois axes d’analyse : la répartition des contenus géométriques dans le manuel des mathématiques, la manière de présenter les concepts et les niveaux de raisonnement exigés par les problèmes du test et par les activités du manuel. L’analyse des résultats obtenus nous a permis de constater plusieurs divergences. Au niveau de la présence des connaissances géométriques, 9 % des connaissances nécessaires à la résolution des questions de TIMSS 2011 sont absentes du manuel. Quant à la présentation des connaissances, 27 % des connaissances sont présentées implicitement dans les manuels. L’utilisation de la grille d’analyse du niveau de raisonnement exigé par les tâches géométriques (Tanguay, 2000), montre que le manuel manque d’exercices mettant en jeu le développement des expériences mentales (35 %). Selon la théorie de Van Hiele (1959), l’insuffisance d’expériences nécessaires pour le développement de la pensée géométrique aux niveaux visuel, descriptif et analytique influencera la construction des concepts et la réussite dans la résolution des problèmes.
Resumo:
L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.
Resumo:
Cette thèse présente les étapes de fabrication et les résultats de la caractérisation des modèles de tissu biologique fabriqués en utilisant des cristaux liquides et des polymères qui permettent de contrôler la diffusion et la transmission de la lumière par un champ électrique. Ce champ électrique entraîne un changement d’orientation des molécules de cristaux liquides, ce qui induit des variations locales de l’indice de réfraction dans ces matériaux. Nous avons utilisé ce contrôle de l’indice de réfraction pour contrôler le niveau de diffusion et de transmission dans différents types d’échantillons. Les échantillons utilisés sont faits a) de cristaux liquides purs, b) de sphères de polymère dans un environnement de cristaux liquides, c) de cristaux liquides ou de gouttelettes de cristaux liquides dans un environnement de polymère. Les travaux réalisés nous ont permis de proposer une méthode électro-optique pour simuler, à l’aide de cristaux liquides, des milieux diffusants tels que les tissus biologiques. Dans la recherche de modèles, nous avons montré qu’il est possible de contrôler, par la fréquence du champ électrique, des gouttelettes de cristaux liquides dispersées dans une matrice de polymère contenant des ions lithium. Une sensibilité sélective à la fréquence de la tension électrique appliquée en fonction de la taille des gouttelettes est observée. Par la suite, nous avons démontré l’effet de « quenching » interférentiel de la diffusion pour une sonde optique cohérente en étudiant des modèles non alignés (clustérisés) de cristaux liquides. Nous avons aussi démontré des applications potentielles de ce phénomène tel le filtrage en longueur d’onde par l’ajustement d’un champ électrique. Nous avons ensuite démontré que l’utilisation des cristaux liquides - dits « dual-frequency » - permet une modulation rapide des états ou des structures du matériau ainsi que de la transmission et de la diffusion de lumière de ce dernier. Enfin, nous avons aussi découvert que ces modèles peuvent être contrôlés pour retrouver le degré de polarisation de la lumière diffusée.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
L’identité professionnelle des travailleurs sociaux (TS) est l’objet de débats et d’enjeux au sein de la profession depuis longtemps. Le caractère a priori insaisissable de la dimension relationnelle n’est pas sans participer à cette préoccupation constante à l’égard de la professionnalité du travail social. Confrontée à une difficulté de conceptualisation, et, par voie de conséquence, d’évaluation des productions des TS, la profession souffre d’un sentiment de non-reconnaissance par la population et par le champ des professions sociales. Cette difficulté à concevoir et à nommer sa pratique va même jusqu’à provoquer un haut taux de détresse et de retrait au travail chez les TS. Si la médiation représente le trait distinctif du travail social, elle n’apparait pas spontanément dans les discours des TS ; celle-ci étant plutôt conçue en termes de négociation ou de résolution de conflits. Pourtant, l’intervention sociale du TS repose sur une médiation fondamentale qui rend possible l’harmonisation des dimensions individuelle et sociale caractéristiques du travail social et qui conduit un usager à reprendre du pouvoir sur sa vie afin que ses besoins sociaux trouvent enfin satisfaction et que se rétablisse l’échange social. L’action du TS est donc essentiellement médiatrice, puisqu’elle vise l’objectivation et la transformation d’un rapport rompu entre un usager et une norme sociale. La position du TS à l’interface de différents systèmes, qu’ils soient individuels, institutionnels, organisationnels, politiques ou sociaux, facilite par ailleurs l’accomplissement de la médiation. Or, l’occultation de cette spécificité professionnelle, dans un contexte où la profession est amenée à débattre publiquement de ses productions, accroit l’importance de mieux comprendre cette pratique professionnelle. C’est dans cette perspective que cette thèse de doctorat a souhaité caractériser la dimension médiatrice de la pratique professionnelle de TS œuvrant en Centres de santé et de services sociaux (CSSS). Plus spécifiquement, deux composantes de la pratique de TS en CSSS ont été analysées: l’intervention sociale telle que réalisée en situation et l’intervention sociale telle que consignée par écrit. Deux formes de données ont donc constitué le corpus analysé: des enregistrements audio d’entrevues individuelles conduites par six TS auprès d’usagers et la reprographie des notes évolutives insérées aux dossiers à la suite de ces entrevues. Le recours à un dispositif de traitement et d’analyse des données fondé sur la méthode d’analyse structurale de discours a guidé l’analyse de ces deux types de données. Cette dernière, parce qu’elle permet de dégager les univers de sens donnés à une profession et qui orientent la conduite de la pratique professionnelle de ses agents, donne accès aux référents professionnels partagés par l’ensemble du groupe et, par voie de conséquence, met à jour les piliers de son identité professionnelle. Les résultats font ressortir un écart dans l’intervention sociale telle que réalisée et telle que consignée aux dossiers. Se référant tantôt aux normes sociales tantôt au cadre normatif institutionnel, ses visées oscillent entre la recherche d’une transformation sociale et l’atteinte d’un équilibre fonctionnel chez l’usager. Deux logiques d’intervention sont donc mises en œuvre : une logique d’accompagnement lors des entretiens auprès de l’usager et une logique thérapeutique dans les notes aux dossiers. En situation, il s’agit d’un travail social fondé sur une logique d’accompagnement de l’usager dans l’instauration d’un registre d’action visant à le rendre autonome dans la prise en charge de ses difficultés. Le TS devient dès lors accompagnateur et guide vers le changement. Dans le cadre de la logique thérapeutique, le TS se positionne plutôt comme le spécialiste des problèmes de l’usager. Par la maitrise d’actes cliniques et diagnostiques que lui seul est à même de poser, les symptômes identifiés peuvent enfin être contrôlés, les critères institutionnels d’octroi de services sociaux être rencontrés et son intervention plus facilement évaluée. Si l’idée d’améliorer la situation de l’usager est celle qui prime dans les entrevues, dans les notes aux dossiers, l’intention est de démontrer sa compétence envers le problème de l’usager. Quelles que soient ces distinctions, et en dépit de l’écart observé et des exigences actuelles pesant sur la profession, les constats dégagés indiquent que le travail social conserve le même mandat : agir sur les rapports des usagers aux normes sociales, quelle que soit la forme de ces normes.
Resumo:
En este trabajo se aborda el estudio de aquellos aspectos que nos llevan a considerar al ms. 126 del Archivo Capitular de El Burgo de Osma un códice compilatorio: por una parte, la identificación de las fuentes de las que beben dos de sus glosas de contenido mitológico y, por otra, el análisis de la estructura del códice en su conjunto y de la relación entre las obras que lo componen.
Resumo:
Le nématode doré, Globodera rostochiensis, est un nématode phytoparasite qui peut infecter des plantes agricoles telles la pomme de terre, la tomate et l’aubergine. En raison des pertes de rendement considérables associées à cet organisme, il est justifiable de quarantaine dans plusieurs pays, dont le Canada. Les kystes du nématode doré protègent les œufs qu’ils contiennent, leur permettant de survivre (en état de dormance) jusqu’à 20 ans dans le sol. L’éclosion des œufs n’aura lieu qu’en présence d’exsudats racinaires d’une plante hôte compatible à proximité. Malheureusement, très peu de connaissances sont disponibles sur les mécanismes moléculaires liés à cette étape-clé du cycle vital du nématode doré. Dans cet ouvrage, nous avons utilisé la technique RNA-seq pour séquencer tous les ARNm d’un échantillon de kystes du nématode doré afin d’assembler un transcriptome de novo (sans référence) et d’identifier des gènes jouant un rôle dans les mécanismes de survie et d’éclosion. Cette méthode nous a permis de constater que les processus d’éclosion et de parasitisme sont étroitement reliés. Plusieurs effecteurs impliqués dans le mouvement vers la plante hôte et la pénétration de la racine sont induits dès que le kyste est hydraté (avant même le déclenchement de l’éclosion). Avec l’aide du génome de référence du nématode doré, nous avons pu constater que la majorité des transcrits du transcriptome ne provenaient pas du nématode doré. En effet, les kystes échantillonnés au champ peuvent contenir des contaminants (bactéries, champignons, etc.) sur leur paroi et même à l’intérieur du kyste. Ces contaminants seront donc séquencés et assemblés avec le transcriptome de novo. Ces transcrits augmentent la taille du transcriptome et induisent des erreurs lors des analyses post-assemblages. Les méthodes de décontamination actuelles utilisent des alignements sur des bases de données d’organismes connus pour identifier ces séquences provenant de contaminants. Ces méthodes sont efficaces lorsque le ou les contaminants sont connus (possède un génome de référence) comme la contamination humaine. Par contre, lorsque le ou les contaminants sont inconnus, ces méthodes deviennent insuffisantes pour produire un transcriptome décontaminé de qualité. Nous avons donc conçu une méthode qui utilise un algorithme de regroupement hiérarchique des séquences. Cette méthode produit, de façon récursive, des sous-groupes de séquences homogènes en fonction des patrons fréquents présents dans les séquences. Une fois les groupes créés, ils sont étiquetés comme contaminants ou non en fonction des résultats d’alignements du sous-groupe. Les séquences ambiguës ayant aucun ou plusieurs alignements différents sont donc facilement classées en fonction de l’étiquette de leur groupe. Notre méthode a été efficace pour décontaminer le transcriptome du nématode doré ainsi que d’autres cas de contamination. Cette méthode fonctionne pour décontaminer un transcriptome, mais nous avons aussi démontré qu’elle a le potentiel de décontaminer de courtes séquences brutes. Décontaminer directement les séquences brutes serait la méthode de décontamination optimale, car elle minimiserait les erreurs d’assemblage.
Resumo:
Les changements environnementaux actuels entrainent des modifications importantes dans les pressions de sélection qui agissent sur les populations naturelles. Cependant, la capacité de réponse des populations à ces modifications et l’importance relative des différents mécanismes comme la plasticité phénotypique et les changements de la composition génétique des populations restent encore trop peu connus. L’objectif général de ma thèse était donc d’évaluer les rôles de la plasticité phénotypique et de la variation génétique sur le potentiel évolutif en population naturelle. Pour ce faire, j’ai utilisé comme modèle d’étude l’Hirondelle bicolore (Tachycineta bicolor), un passereau migrateur qui est suivi dans le Sud du Québec depuis 2004 dans un environnement hétérogène. Dans un premier temps (chapitre 2), j’ai évalué les déterminants environnementaux de la date de ponte et évalué leurs effets à des niveaux individuels et populationnels de plasticité phénotypique. Comme observé chez de nombreuses espèces aviaires, la température avait un effet important sur la synchronisation de la ponte, similaire au niveau individuel et populationnel, avec les dates de ponte plus hâtive lorsque les températures étaient plus chaudes. Par contre, ces relations semblaient contraintes par la densité locale d’hirondelles, considérée dans ce système d’étude comme un indice de la qualité de l’environnement. Plus précisément, les réponses plastiques à la température étaient moins prononcées à faible densité, c’est-à-dire dans les habitats plus contraignants. Ces résultats suggèrent donc que malgré la présence de plasticité phénotypique chez une espèce donnée, son efficacité pour pallier les changements climatiques peut être inégale entre les populations. Dans un deuxième temps (chapitre 3), je me suis intéressée à 4 gènes candidats liés à la phénologie (CLOCK, NPAS2, ADCYAP1 et CREB1) montrant de la variation de type courtes répétitions en tandem, et à leur relation avec deux traits phénologiques, la date de ponte et le temps d’incubation. Ces analyses ont montré plusieurs relations entre la variation observée à ces gènes et celle des traits phénologiques étudiés, dans la plupart des cas en interaction avec des variables environnementales (densité locale, latitude ou température printanière). Par exemple, les femelles avec en moyenne des allèles plus courts au gène CLOCK pondaient plus tôt que celles avec des allèles plus longs, une relation plus marquée à densité locale élevée. Les différents résultats suggèrent l’importance que peuvent prendre les interactions génotype-environnement, qui sont rarement prises en compte dans les études de gènes candidats, et qui pourraient expliquer une partie des résultats discordants entre les celles-ci. Dans un troisième temps (chapitre 4), j’ai vérifié la faisabilité d’une étude en génétique quantitative avec les données récoltées dans le système d’étude utilisée, caractérisé par un fort taux de reproduction hors couple et un faible recrutement des oisillons. Plus précisément, j’ai testé à l’aide de données empiriques et simulées la précision et l’exactitude des estimations d’héritabilité et de corrélations génétiques pour trois types de traits, morphologiques, reproducteurs et d’oisillons. Les résultats suggéraient un manque de précision important pour les traits morphologiques et reproducteurs, de même que des biais considérables lors de l’utilisation du pédigrée social plutôt que du pédigrée génétique. Ces analyses révèlent entre autres l’utilité des simulations pour tester adéquatement la faisabilité d’une étude en génétique quantitative sur une population donnée. Dans une dernière étude (chapitre 5), j’ai documenté les effets de l’hétérogénéité environnementale et de l’utilisation de différentes approches de génétique quantitative sur les prédictions de réponses évolutives en population naturelle. Plus particulièrement, cette étude s’est concentrée sur trois traits morphologiques (masse, longueur de l’aile et du tarse) mesurés à différents moments au cours du développement des oisillons. Les différentes analyses ont montré une sélection plus forte à faible densité locale pour la masse à 12 jours ainsi que des variations dans les composantes de variances phénotypiques selon la qualité de l’environnement (densité locale faible ou élevée) pour la plupart des combinaisons trait-âge étudiées. Il en résultait une tendance à des réponses évolutives prédites plus grandes à faible densité locale. Par contre, les prédictions obtenues avec l’équation du reproducteur et le second théorème de la sélection différaient fréquemment, et contrastaient grandement avec les tendances phénotypiques observées. En somme, les résultats de ma thèse suggèrent que les possibilités d’ajustement aux changements environnementaux par la plasticité phénotypique et d’adaptation par des changements génétiques entre les générations peuvent varier selon l’environnement expérimenté par une population. Mes recherches contribuent à une meilleure compréhension des facteurs et mécanismes influençant la persistance à long terme des populations naturelles face aux modifications dans les pressions de sélection.
Resumo:
Ce travail s’inscrit dans le champ des recherches concernant les pratiques inclusives en milieu scolaire ordinaire dans l’enseignement primaire. En France, le système éducatif propose de scolariser les élèves à besoins éducatifs particuliers soit en classe ordinaire, soit en classe spécialisée, bien que les gouvernements valorisent l’accueil en milieu ordinaire depuis la loi de 2005. Or, ceci questionne les pratiques des acteurs de l’école sur la prise en charge de ces élèves. Partant des travaux montrant que les enseignants utilisant l’évaluation formative gèrent mieux la diversité des élèves, nous étudions ici dans quelle mesure cette fonction de l’évaluation aiderait les élèves présentant des besoins éducatifs particuliers à acquérir des connaissances grâce aux feedbacks émis lors d’évaluations orales et de corrections collectives. L’analyse des données recueillies à l’aide d’entretiensavec des enseignants et d’observations d’élèves fait ressortir les attitudes des acteurs, les interactions et les régulations. (DIPF/Orig.)
Resumo:
Avec l’ère industrielle sont venus les polluants environnementaux. Ils sont de plus en plus pointés du doigt pour une variété d’effets indésirables en particulier pour leur potentiel à affecter la santé humaine. Les pesticides font partie de ces polluants et leurs usages ne font que croître depuis une vingtaine d’années. Ces produits qui servent à améliorer la production agricole en éliminant les pestes qui ravagent les récoltes sont souvent peu étudiés à long terme avant d’être homologués. L’effet perturbateur au niveau cellulaire et les effets à long terme de ces pesticides sont peu connus. Pour ce projet de maîtrise, nous avons observé l’effet de deux pesticides, l’imidaclopride et l’acide 2-methyl-4-chlorophenoxyacetic (MCPA), sur les voies de signalisation du récepteur à la dioxine (AhR) et du récepteur aux androgènes (AR). L’imidaclopride est un insecticide de la famille des néonicotinoïdes, une classe de plus en plus utilisée. Ce pesticide est surtout connu pour être en lien avec le déclin des colonies d’abeilles depuis une décennie. Le MCPA est un des herbicides les plus utilisés au Québec, il est persistant et souvent retrouvé dans les eaux de la province. Nous avons traité des cellules du cancer du sein et des cellules du cancer de la prostate avec ces pesticides et nous avons vérifié si leur présence perturbait les deux voies de signalisation cellulaire à l’étude. Le récepteur AhR est un facteur de transcription activé par un ligand. Le TCDD, une dioxine, est le meilleur ligand exogène connu à ce jour de ce récepteur. Par contre, ses ligands naturels, des dérivés du tryptophane ou des facteurs de virulence de bactéries, l’activent de façon beaucoup moins forte. Lors de l’activation de la voie AhR, les gènes CYP1A1 et CYP1B1 sont transcrits et codent pour des enzymes du cytochrome P450 qui transforment les ligands en produits plus facilement éliminables. Dans un contexte où de l’œstradiol (E2) est présent dans les cellules, il y a une interaction croisée entre le récepteur à l’œstrogène (ER) et le récepteur AhR, qui fait en sorte que l’expression de CYP1A1 est réprimée. Cela se traduit en un ratio d’enzyme CYP1A1 à CYP1B1 différent qui pourrait augmenter la possibilité d’une accumulation de métabolites génotoxiques. En effet, CYP1B1 hydroxyle le ligand d’AhR mais aussi l’œstradiol en 4-hydroxyœstradiol (4-OHE), dont l’accumulation peut amener des mutations dans l’ADN alors que l’enzyme CYP1A1 l’hydroxyle en 2-hydroxyœstradiol (2-OHE), qui n’as aucun effet néfaste répertorié sur la cellule. Dans les cellules du cancer du sein, le MCPA appliqué en champs induisait fortement l’expression de CYP1B1 comparable à l’échantillon traité au témoin positif (TCDD), alors que CYP1A1 l’était que très légèrement par rapport au témoin non-traité. Au niveau protéique, CYP1A1 n’était qu’exprimée dans le témoin positif (TCDD) et ce, en quantité moindre lorsqu’il y avait présence d’œstradiol. CYP1B1 était fortement exprimée dans l’échantillon de TCDD, ce qui était attendu, mais aussi dans tous les échantillons traités au MCPA de NuFarm. Ces effets ne sont pas notés avec l’ingrédient actif du MCPA. La présence d’un ou plusieurs autres produits ajoutés dans le MCPA de la compagnie NuFarm en combinaison avec l’ingrédient actif pourrait activer la voie de signalisation d’AhR et causer ce débalancement dans l’expression des gènes CYP1A1 et CYP1B1. Nos résultats indiquent que plusieurs concentrations de l’ingrédient actif de l’imidaclopride ne perturbe pas les voies cellulaires d’AhR ni AR, alors que, le MCPA perturbe ces deux voies cellulaires. Par contre, c’est seulement celui produit par la compagnie NuFarm qui est utilisé en champs. Cette formulation appliquée en terrain agricole inclut l’ingrédient actif ainsi que les antigels, les surfactants et les adjuvants qui permettent au produit d’être plus efficace. L’ingrédient actif du MCPA seul n’affectait pas les deux voies. Le récepteur aux androgènes (AR) est aussi un facteur de transcription qui se lie à l’ADN afin de réguler l’expression des gènes et il est particulièrement important pour le développement et le maintien du phénotype masculin. Depuis une vingtaine d’années, des problèmes de baisse de libido et de fertilité s’accentuent dans notre société et semblent être reliés à la baisse de testostérone des hommes (Travison et al. 2007). Cette molécule est d’ailleurs un des deux ligands du récepteur AR, le deuxième étant la 5-dihydrotestostérone (DHT). Le facteur environnemental plutôt que le mode de vie semble être un facteur déterminant dans l’étude qui portait sur ce déclin. Les pesticides ont déjà été soupçonnés pour avoir un potentiel anti-androgénique, mais aucune étude ne fait un lien de causalité direct. Dans le projet de maitrise présenté dans ce document, l’expression des gènes marqueurs PSA (antigène spécifique de la prostate) et PCA3 (antigène du cancer de la prostate) a été quantifiée pour savoir si les pesticides ont un effet perturbateur sur la voie du récepteur AR. Dans les cellules du cancer de la prostate, l’expression de PSA et PCA3 était semblable au non-traité dans l’échantillon traité au MCPA (NuFarm), et ce, même après l’ajout de DHT, qui active l’expression de ces deux gènes. Cette fois-ci, l’ingrédient actif seul faisait en sorte que les deux gènes marqueurs étaient moins exprimés lors de l’ajout de la DHT, par rapport au témoin. Il semblerait que l’ingrédient actif est à la base de ce changement d’expression de nos gènes marqueurs. Donc, le MCPA pourrait avoir un effet anti-androgénique dans les cellules du cancer de la prostate. Donc, le MCPA est un pesticide qui affecte les voies de signalisation cellulaires AhR et AR. Il est particulier de noter que le pesticide appliqué en champ perturbe nettement plus les voies cellulaires. Il sera important de continuer à étudier les effets des pesticides sur l’homme au niveau cellulaire et de comprendre comment ils pourraient contribuer au développement du cancer.
Resumo:
Les travaux sur la nutrition en vitamines B des ruminants montrent des résultats très variés sur les quantités de ces nutriments disponibles pour l’animal selon la nature de la ration. Ces divergences sont dues à des changements des populations microbiennes dans le rumen, causées par les facteurs physico-chimiques de la ration. Une amélioration de la compréhension des effets de la nature de la diète sur la synthèse et l’utilisation des vitamines B dans le rumen pourrait aider à identifier les conditions sous lesquelles une supplémentation en ces vitamines serait bénéfique pour la vache. Le but de ce travail de thèse est donc d’améliorer la compréhension des effets de l’espèce fourragère, de la maturité et de la longueur des particules de fourrage sur les apports en vitamines B chez la vache laitière. Pour évaluer chacune de ces variables, les concentrations de thiamine, riboflavine, niacine, vitamine B6, folates et vitamine B12 ont été mesurées dans les échantillons d’aliments et de digesta duodénal recueillis lors de trois projets réalisés à l’Université du Michigan par l’équipe du Dr. M. Allen. Dans la première étude, l’effet de l’espèce fourragère des ensilages a été évalué au cours de deux expériences similaires durant lesquelles les vaches recevaient une diète à base d’ensilage de luzerne ou de dactyle. Les diètes à base de luzerne ont été associées à une augmentation de la dégradation de la thiamine et de la vitamine B6 dans le rumen par rapport aux diètes à base d’ensilage de dactyle. La deuxième étude visait à évaluer les effets de la maturité des plantes lors de la mise en silo sur les quantités de vitamines B disponibles pour la vache; les deux expériences se différenciaient par l’espèce fourragère étudiée, soit la luzerne ou le dactyle. Une récolte à un stade de maturité plus élevé a augmenté les flux duodénaux de thiamine, de niacine et de folates lorsque les vaches recevaient des diètes à base d’ensilage de luzerne mais n’a diminué que le flux duodénal de riboflavine chez les animaux recevant des diètes à base d’ensilage de dactyle. La troisième étude a comparé les effets de la longueur de coupe (10 vs. 19 mm) d’ensilages de luzerne et de dactyle sur le devenir des vitamines B dans le système digestif de la vache laitière. Cette étude a permis de constater qu’une augmentation du temps de séchage au champ diminuait les concentrations de vitamines B dans les ensilages. Cependant, la taille des particules des ensilages de luzerne et de dactyle n’a pas affecté les quantités des vitamines B arrivant au duodénum des vaches. En général, les résultats de ces études montrent qu’il existe une corrélation négative entre la synthèse de riboflavine, de niacine et de vitamine B6 et leur ingestion, suggérant une possible régulation de la quantité de ces vitamines B par les microorganismes du rumen. De plus, l’ingestion d’amidon et d’azote a été corrélée positivement avec la synthèse de thiamine, de folates et de vitamine B12, et négativement avec la synthèse de niacine. Ces corrélations suggèrent que les microorganismes qui utilisent préférentiellement l’amidon jouent un rôle majeur pour la synthèse ou la dégradation de ces vitamines. De plus, la présence d’une quantité suffisante d’azote semble avoir un impact majeur sur ces processus. La suite de ces travaux devrait viser la modélisation de ces données afin de mieux appréhender la physiologie de la digestion de ces vitamines et permettre la création de modèles mathématiques capables de prédire les quantités de vitamines disponibles pour les vaches. Ces modèles permettront, lorsqu’intégrés aux logiciels de formulation de ration, d’élaborer une diète plus précise, ce qui améliorera la santé du troupeau et la performance laitière et augmentera les profits du producteur.
Resumo:
Un moyen permettant d'identifier expérimentalement les phases du gaz d'électrons bidimensionnel de la bicouche de graphène en empilement bernal au remplissage $\nu = 3$ est recherché lorsque le biais électrique entre les couches est varié. À ce remplissage, si on se concentre aux basses énergies, il est possible de ne s'intéresser qu'aux deux niveaux de Landau composant le niveau $N=0$ qui sont de même spin et de même vallée, mais d'orbitale différente. Puisque la texture du pseudospin orbital de ce système change selon la phase, il est attendu que le couplage avec le champ électrique de la lumière devrait changer. La dispersion des modes collectifs de chaque phase est calculée dans l'approximation GRPA (generalized random-phase approximation) dans le domaine en biais où chacune domine respectivement. L'absorption optique pour des polarisations linéaires en direction x et en direction y ainsi que pour des polarisations circulaires gauche et droite est calculée. La rotation de Faraday et l'effet Kerr sont également calculés. Des différences entre les phases sont remarquées au niveaux de la fréquence des photons qui sont absorbés, de l'amplitude de l'absorption et de la rotation de la polarisation ainsi que la sensibilité à certains types de polarisation. L'effet des modes collectifs dans les phases considérées est cependant moindre que celui qui est prédit dans un calcul qui ne tient pas compte de l'interaction de Coulomb.
Resumo:
Les autorités gouvernementales canadiennes se sont données, depuis plus de 30 ans, une procédure pour évaluer les conséquences que les politiques, les plans ou les programmes fédéraux et provinciaux peuvent engendrer sur l’environnement. Si, avec le temps, l’évaluation a couvert une plus large définition de l’environnement pour intégrer les dimensions sociale et économique, la procédure d’évaluation environnementale stratégique est-elle pour autant adéquate? Y a-t-il un outil ou une méthode efficace qui pourrait améliorer son rendement? S’il est aujourd’hui accepté qu’un promoteur gouvernemental recherche l’acceptabilité sociale tout en mesurant les effets positifs et négatifs de son projet, ne pourrait-il pas adopter une méthodologie plus holistique et plus simple que la démarche d’identification et d’évaluation des impacts? C’est l’hypothèse qui sous-tend cet essai. L’objectif général de cet essai est de mener une réflexion sur l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique. En premier lieu, l’approche systémique sera étudiée de manière approfondie afin d’en faire ressortir ses bienfaits en matière de gestion de l’environnement. En second lieu, l’analyse de l’évaluation environnementale canadienne, américaine et européenne permettra de déceler les failles et les réussites dans la mise en place des plans, politiques et programmes. Finalement, une étude de cas sera utilisée pour valider l’hypothèse de travail. L’analyse révèle que l’utilisation de l’approche systémique dans le processus d’évaluation environnementale des plans, des politiques et des programmes est un outil judicieux et holistique hors pair. Non seulement cette méthode permet de tenir compte de toutes les préoccupations des parties prenantes, elle permet aussi de mieux cibler la problématique associée, d’adapter des mesures d’atténuation performantes et de mettre en oeuvre un programme de suivi efficace. Ces résultats démontrent le bénéfice d’utiliser une telle démarche dans ce processus rigoureux qu’est l’évaluation environnementale stratégique. En somme, l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique permettrait de mieux encadrer toutes les démarches visant à déceler les impacts positifs et négatifs sur l’environnement. Cet outil permettrait de satisfaire la volonté du gouvernement fédéral et des ministres promoteurs de promouvoir le développement de la société dans une perspective de développement durable.