969 resultados para Génétique du comportement humain
Resumo:
La régulation transcriptionnelle des gènes est cruciale pour permettre le bon fonctionnement des cellules. Afin que les cellules puissent accomplir leurs fonctions, les gènes doivent être exprimés adéquatement dans le bon type cellulaire et au stade de développement et de différenciation approprié. Un dérèglement dans l’expression de un ou plusieurs gènes peut entraîner de graves conséquences sur le destin de la cellule. Divers éléments en cis (ex : promoteurs et enhancers) et en trans (machinerie transcriptionnelle et facteurs de transcription) sont impliqués dans la régulation de la transcription. Les gènes du locus humain beta-globine (hub) sont exprimés dans les cellules érythroïdes et sont finenement régulés lors du développement et de la différenciation. Des mutations dans différentes régions du locus causent entre autres les beta-thalassémies. Nous avons utilisé ce modèle bien caractérisé afin d’étudier différents mécanismes de régulation favorisés par les facteurs de transcription qui sont exprimés dans les cellules érythroïdes. Nous nous sommes intéressés à l’importance de l’élément en cis HS2 du Locus control region. Cet élément possède plusieurs sites de liaison pour des facteurs de transcription impliqués dans la régulation des gènes du locus hub. Nos résultats montrent que HS2 possède un rôle dans l’organisation de la chromatine du locus qui peut être dissocié de son rôle d’enhancer. De plus, HS2 n’est pas essentiel pour l’expression à haut niveau du gène beta alors qu’il est important pour l’expression des gènes gamma. Ceci suggère que le recrutement des différents facteurs au site HS2 lors du développement influence différement les gènes du locus. Dans un deuxième temps, nous avons investigué l’importance de HS2 lors de la différenciation des cellules érythroïdes. Il avait été rapporté que l’absence de HS2 influence grandement la potentialisation de la chromatine du gène beta. La potentialisation dans les cellules progénitrices favorise l’activation transcriptionnelle du gène dans les cellules matures. Nous avons caractérisé le recrutement de différents facteurs de transcription au site HS2 et au promoteur beta dans les cellules progénitrices hématopoïétiques (CPH) ainsi que dans les cellules érythroïdes matures. Nos résultats montrent que le facteur EKLF est impliqué dans la potentialisation de la chromatine et favorise le recrutement des facteurs BRG1, p45 et CBP dans les CPH. L’expression de GATA-1 dans les cellules érythroïdes matures permet le recrutement de GATA-1 au locus hub dans ces cellules. Ces données suggèrent que la combinaison de EKLF et GATA-1 est requise pour permettre une activation maximale du gène beta dans les cellules érythroïdes matures. Un autre facteur impliqué dans la régulation du locus hub est Ikaros. Nous avons étudié son recrutement au locus hub et avons observé que Ikaros est impliqué dans la répression des gènes gamma. Nos résultats montrent aussi que GATA-1 est impliqué dans la répression de ces gènes et qu’il interagit avec Ikaros. Ensemble, Ikaros et GATA-1 favorisent la formation d’un complexe de répression aux promoteurs gamma. Cette étude nous a aussi permis d’observer que Ikaros et GATA-1 sont impliqués dans la répression du gène Gata2. De façon intéressante, nous avons caractérisé le mécanisme de répression du gène Hes1 (un gène cible de la voie Notch) lors de la différenciation érythroïde. Similairement à ce qui a été observé pour les gènes gamma, Hes1 est aussi réprimé par Ikaros et GATA-1. Ces résultats suggèrent donc que la combinaison de Ikaros et GATA-1 est associée à la répression de plusieurs de gènes dans les cellules érythroïdes. Globalement cette thèse rapporte de nouveaux mécanismes d’action de différents facteurs de transcription dans les cellules érythroïdes. Particulièrement, nos travaux ont permis de proposer un modèle pour la régulation des gènes du locus hub lors du développement et de la différenciation. De plus, nous rapportons pour la première fois l’importance de la collaboration entre les facteurs Ikaros et GATA-1 dans la régulation transcriptionnelle de gènes dans les cellules érythroïdes. Des mutations associées à certains des facteurs étudiés ont été rapportées dans des cas de beta-thalassémies ainsi que de leucémies. Nos travaux serviront donc à avoir une meilleure compréhension des mécanismes d’action de ces facteurs afin de potentiellement pouvoir les utiliser comme cibles thérapeutiques.
Resumo:
Introduction : Les enfants prématurés ont la particularité de naître alors que leur développement est souvent incomplet et nécessite la mise en œuvre de soins intensifs visant à poursuivre leur croissance en dehors de l’environnement utérin. Souvent cependant, le stade développemental de l’enfant ne lui permet pas d’assimiler une alimentation entérale du fait de l’immaturité de son système digestif. Le recours à une voie centrale délivrant les nutriments assurant le développement devient alors une nécessité. Ce type de nutrition, appelée nutrition parentérale (NP, ou total parenteral nutrition TPN), permet l’administration de molécules simples, directement dans le sang du prématuré. Il n’est toutefois pas exempt de risques puisqu’exposée à la lumière, la NP peut s’oxyder et générer des molécules oxydantes telles que des hydroperoxydes lipidiques susceptibles de se fragmenter par la suite en hydroxy-alkénals. Ceci devient problématique au vu de l’immaturité des systèmes de défenses antioxydants du nouveau-né prématuré. L’utilisation prolongée de la NP est d’ailleurs à l’origine de maladie hépatiques dans lesquelles le stress oxydant et la nécro-inflammation sont des composantes majeures. Nous avons émis l’hypothèse que l’infusion chez les enfants prématurés, d’aldéhydes d’origine lipidique est en relation avec le développement du stress oxydant et de l’inflammation hépatique. Objectif : Notre étude a consisté à évaluer la relation entre les quantités d’hydroxy-alkénals dans la NP et les effets hépatiques engendrés sur les marqueurs de stress oxydant et les voies de signalisation responsables d’une induction de processus inflammatoire. Dans ce but, nous avons cherché à mesurer la peroxydation lipidique dans l’émulsion lipidique de la NP et la conséquence de l’infusion en continue d’hydroxy-alkénals sur les marqueurs de stress oxydant, sur la voie de signalisation médiée par le Nuclear Factor κB et sur le déclenchement du processus inflammatoire hépatique. A la suite de ce travail, nous avons également travaillé sur des alternatives à la photoprotection, qui est la seule méthode réellement optimale pour réduire la peroxydation des lipides de la NP, mais cliniquement difficilement praticable. Résultats : Nos résultats ont mis en évidence la génération de 4-hydroxynonenal in vitro dans la NP, ce phénomène est augmenté par une exposition lumineuse. Dans ce cadre, nous avons montré l’inefficacité de l’ajout de multivitamines dans l’émulsion lipidique comme alternative à la photoprotection. Dans la validation biologique qui a suivi sur un modèle animal, nos résultats ont permis de démontrer que l’augmentation des adduits glutathion-hydroxynonenal était imputable à l’augmentation de 4-hydroxynonenal (4-HNE) dans la NP, et non à une peroxydation endogène. Nos données indiquent que la probable augmentation hépatique des niveaux de 4-HNE a conduit à une activation du NFκB responsable de l’activation de la transcription des gènes pro-inflammatoires du Tumour Necrosis Factor-α (TNF-α) et de l’interleukine-1 (IL-1). Nous avons alors évalué la capacité d’une émulsion lipidique enrichie en acides gras polyinsaturés (AGPI) n-3 à baisser les concentrations de 4-HNE dans la NP, mais également à moduler le stress oxydant et les marqueurs pro-inflammatoires. Enfin, nous avons démontré, en collaboration avec l’équipe du Dr Friel, que certains peptides isolés du lait humain (par un processus mimant la digestion) permettent également une modulation du stress oxydant et du processus inflammatoire. Conclusion : Le stress oxydant exogène issu de la NP a conduit par activation de facteurs de transcription intra-hépatiques au déclenchement d’un processus inflammatoire potentiellement responsable du développement de maladies hépatiques reliées à la NP telle que la cholestase. Dans ce sens, les AGPI n-3 et les peptides antioxydants peuvent se poser en tant qu’alternatives crédibles à la photoprotection.
Resumo:
La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.
Resumo:
Le CD36 est un récepteur de type éboueur de classe B exprimé à la surface de nombreux types cellulaires dont les macrophages, les cellules endothéliales de la microvasculature et les plaquettes. Ce récepteur multiligand est impliqué dans plusieurs processus pathologiques notamment l’athérosclérose, l’angiogénèse et la malaria via la liaison spécifique de ligands comme les lipoprotéines oxydées de basse densité, la thrombospondine-1 et la protéine PfEMP-1, respectivement. Les peptides de la relâche de l’hormone de croissance (GHRP) ont été identifiés comme les premiers ligands synthétiques du CD36. Afin de développer de nouveaux ligands synthétiques du CD36, l’établissement d’une méthode de criblage est essentiel pour découvrir des composés avec une liaison de haute affinité pour ce récepteur. Pour y parvenir, nous avons surexprimé le domaine extracellulaire du CD36 humain dans les cellules d’insectes Sf9. La protéine soluble purifiée par chromatographie d’affinité fut immobilisée à la surface d’une plaque de résonance de plasmons de surface (SPR) pour les études de liaison. La méthodologie développée a permis de caractériser les ligands du CD36 en déterminant leurs constantes de dissociation (KD), et d’établir une relation structure-activité des ligands de la famille des azapeptides, des composés dérivés du GHRP-6. Afin de valider la méthode par spectroscopie SPR, une corrélation a été établie entre les valeurs de KD obtenues en SPR et les valeurs d’CI50 de courbes d’inhibition de la phosphorylation des MAP kinases JNK1/2 induite par un phospholipide oxydé, le POVPC, en présence de concentrations croissantes de ligands du CD36 dans les macrophages RAW 264.7.
Resumo:
Comprendre l'évolution de la bipédie est un élément essentiel à la recherche en paléoanthropologie, car ce comportement est le trait le plus important utilisé pour identifier les fossiles comme appartenant à la lignée des hominines. La topographie de la surface infradiaphysaire du fémur et du tibia pourrait donner un aperçu du comportement locomoteur des espèces fossiles, mais n'a pas été étudiée de façon approfondie. Ce trait reflète directement les différences dans la locomotion, puisque la surface change de topographie pour mieux résister aux charges encourues par les mouvements réguliers. Le plan infradiaphysaire du fémur chez les humain est relativement plat, tandis que la surface est plus irrégulière chez les grands singes. Dans ce projet, les métaphyses du genou ont été étudiées d’une manière quantifiée afin de percevoir les différences entre espèces et mieux comprendre le développement ontogénique de ces traits. Les angles formés par les protrusions et les creux de ces surfaces ont été mesurés à partir de points de repère enregistrés en trois-dimensions sur les métaphyses du genou chez les humains, chimpanzés, gorilles, et orangs-outans, et chez trois fossiles Australopithecus afarensis, afin d’observer de l’effet de facteurs tel le stade de croissance et l’appartenance à une espèce sur la topographie des plaques de croissance du genou. Les angles d’obliquité du fémur et du tibia ont aussi été mesurés et analysés. Les résultats ont révélé que le stade développemental et l’appartenance à une espèce et, par association, le mode de locomotion, ont un effet significatif sur les métaphyses du genou. Il a également été constaté que les mesures d'Australopithecus afarensis chevauchent les valeurs trouvées chez les humains et chez les grands singes, ce qui suggère que cette espèce avait possiblement conservé une composante arboricole dans son comportement locomoteur habituel.
Resumo:
Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.
Resumo:
Ce mémoire s’intéresse au comportement américain en matière de reconnaissance d’État. Il tente d’identifier quels sont les facteurs susceptibles d’être appliqués par les États- Unis d’Amérique dans l’hypothèse d’une éventuelle reconnaissance du Québec. Les évènements politiques survenus au cours des trente dernières années au Québec ont non seulement suscité un fort intérêt à Washington, ils ont également conduit le gouvernement américain à mettre en place une approche politique particulière à l’endroit du Québec. Utilisée à partir de la fin des années 1970, cette approche spécifique (qui fait maintenant office de ligne de conduite) demeure encore aujourd’hui celle qui prévaut à la Maison- Blanche. En dépit de la tenue de deux référendums sur la souveraineté en 1980 et en 1995, le Québec demeure encore aujourd’hui une province de l’État canadien. Cependant, s’il devait un jour accéder à l’indépendance, il y a fort à parier que la décision des États-Unis de reconnaître le Québec serait modulée à partir d’intérêts sécuritaires ponctuels, mais aussi en fonction d’intérêts politiques ou économiques. Dans la majorité des cas depuis la dissolution de la Yougoslavie en 1991, les États-Unis d’Amérique ont agi ainsi. L’analyse du comportement américain lors de la reconnaissance récente du Kosovo en 2008 vient appuyer ces dires et démontre que Washington utilise la même approche pour reconnaître de nouveaux États depuis au moins 20 ans.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
La musique est un comportement humain incontestablement universel, elle demeure néanmoins peu abordée par l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien la caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent délaissée. Or, toute tentative sérieuse de comprendre ce phénomène requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une tentative de définition du concept de musique en terme d’universaux, d’une comparaison interspécifique du phénomène et d’un résumé de l’histoire phylogénétique des comportements musicaux, ainsi que d’une analyse de deux modèles portant sur les origines de la musique (Miller, 2000; Mithen, 2006). De ces modèles sont extraites des prévisions qui sont confrontées à des données empiriques provenant de disciplines diverses afin d’évaluer leur valeur scientifique. L’analyse des données disponibles permet de produire un inventaire des universaux musicaux aux plans cognitif, structurel, émotionnel, fonctionnel et symbolique et d’identifier ainsi certaines des bases biologiques du phénomène. Plusieurs mécanismes évolutionnistes, dont la sélection naturelle, la sélection sexuelle, la sélection de groupe et la sélection parentale sont employés par les divers auteurs afin d’expliquer l’apparition du phénomène musical. Il appert que la musique a joué un rôle important dans la relation parent-enfant au cours de l’évolution humaine, de même que dans la cohésion sociale, la coordination des activités et la formation de l’identité de groupe. En ce qui a trait aux deux modèles analysés ici, chacun ne traite que d’une partie des invariants musicaux et leur comparaison permet d’établir qu’ils sont mutuellement exclusifs. En guise de conclusion, nous tentons de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.
Resumo:
Le cyborg est un avatar de ce que permet la science-fiction lorsqu’elle s’offre comme terrain où développer une heuristique des identités genrées. Donna Haraway, dans le Manifeste cyborg, a relevé le potentiel de liberté discursive que promettait cette figure romanesque. Il m’apparaît que, depuis sa fictionnalisation puis sa théorisation dans les années 1980 et 1990, le cyborg a muté au sein de l’entreprise science-fictionnelle littéraire. Le Silence de la Cité d’Élisabeth Vonarburg et Le Goût de l’immortalité de Catherine Dufour présentent des personnages dont la cyborgitude problématise les questions identitaires du genre humain, à travers une écriture spécifique, affectée par les technologies. Mon analyse des procédés scripturaux s’effectue de pair avec une analyse gender, ce qui me permet de mieux saisir la fictionnalisation toujours changeante des cyborgs dans les oeuvres de Vonarburg et de Dufour. Ces cyborgs déconstruisent les frontières des systèmes binaires traditionnels, en explorant les possibilités trans-genres et trans-espèces que permettent les métamorphoses de leurs corps excentriques. En tant que représentations fantasmées de désirs autrement inavouables, les cyborgs science-fictionnels témoignent du malaise inhérent de couples comme homme/femme, humain/animal ou organique/artificiel.
Resumo:
Malgré la politique d’ouverture à l’immigration, à la diversité et au multiculturalisme du Québec, les immigrants récents rencontrent de nombreuses barrières sur le marché du travail. Selon la vision néo-classique, le capital humain détermine l’intégration des immigrants et leur degré de déqualification. Bien que l’origine puisse influencer les caractéristiques professionnelles et personnelles des immigrants qualifiés, certains d’entre eux peuvent être de même origine mais avoir des caractéristiques différentes. L’expérience migratoire, définie comme le fait pour un individu d’avoir émigré une 1ère fois de son pays d’origine vers un pays étranger, avant d’émigrer de nouveau de ce pays vers un 3ème, pourrait modifier ces caractéristiques du capital humain et qui influence l’intégration des immigrants ainsi que leur degré de déqualification. Arrivés d’un pays très diversifié, étant instruits, et allophones, les immigrants d’ex-URSS se constituent un groupe représentatif pour cette étude. De surcroît, certains immigrants de ce groupe possèdent une expérience migratoire. Cette recherche a pour but d’examiner le rôle de l’expérience migratoire antérieure dans l’intégration des immigrants russophones sur le marché du travail québécois et de voir son impact sur la présence et le degré de déqualification. L’approche qualitative adoptée pour ce travail permet d’observer pleinement les opinions des immigrants quant à leur intégration professionnelle et d’examiner l’effet de l’expérience migratoire. Nous avons découvert que l’expérience migratoire peut modifier la situation des immigrants sur le marché du travail. D’une part, elle leur permet d’acquérir un diplôme et une expérience de pays économiquement développés, ce qui a plus de valeur au Québec que les diplômes et l’expérience de pays d’ex-URSS. En plus, cette expérience permet aux immigrants d’améliorer leurs compétences linguistiques. D’autre part, l’expérience migratoire peut modifier les caractéristiques comportementales, telles que les méthodes de recherche d’emploi ou l’adoption d’un comportement ouvert et flexible qui peut aider à l’intégration. De surcroît, l’amélioration des caractéristiques professionnelles et personnelles par une expérience migratoire peut avoir un effet de compensation qui diminue l’effet de la stratégie familiale sur la présence et le degré de déqualification. En somme, nous pouvons conclure que l’expérience migratoire antérieure a un effet sur l’intégration des immigrants russophones sur le marché du travail québécois, et particulièrement, sur la présence et le degré de déqualification.
Resumo:
Problématique : Bien que le tabac et l’alcool soient les facteurs causaux principaux des cancers épidermoïdes de l’oropharynx, le virus du papillome humain (VPH) serait responsable de l’augmentation récente de l’incidence de ces cancers, particulièrement chez les patients jeunes et/ou non-fumeurs. La prévalence du VPH à haut risque, essentiellement de type 16, est passée de 20% à plus de 60% au cours des vingt dernières années. Certaines études indiquent que les cancers VPH-positifs ont un meilleur pronostic que les VPH- négatifs, mais des données prospectives à cet égard sont rares dans la littérature, surtout pour les études de phase III avec stratification basée sur les risques. Hypothèses et objectifs : Il est présumé que la présence du VPH est un facteur de bon pronostic. L’étude vise à documenter la prévalence du VPH dans les cancers de l’oropharynx, et à établir son impact sur le pronostic, chez des patients traités avec un schéma thérapeutique incluant la chimio-radiothérapie. Méthodologie : Les tumeurs proviennent de cas traités au CHUM pour des cancers épidermoïdes de la sphère ORL à un stade localement avancé (III, IVA et IVB). Elles sont conservées dans une banque tumorale, et les données cliniques sur l’efficacité du traitement et les effets secondaires, recueillies prospectivement. La présence du VPH est établie par biologie moléculaire déterminant la présence du génome VPH et son génotype. Résultats: 255 spécimens ont été soumis au test de génotypage Linear Array HPV. Après amplification par PCR, de l’ADN viral a été détecté dans 175 (68.6%) échantillons tumoraux ; le VPH de type 16 était impliqué dans 133 cas (52.25 %). Conclusion: Une proportion grandissante de cancers ORL est liée au VPH. Notre étude confirme que la présence du VPH est fortement associée à une amélioration du pronostic chez les patients atteints de cancers ORL traités par chimio-radiothérapie, et devrait être un facteur de stratification dans les essais cliniques comprenant des cas de cancers ORL.
Resumo:
La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.
Resumo:
Nous assistons depuis quelques années à une commercialisation de la recherche académique. Celle-ci est principalement due à une déficience marquée du financement public. Par conséquent, les universités se tournent vers d’autres sources de financement, tels les brevets et l’industrie privée. En parallèle, les gouvernements et les organismes subventionnaires favorisent cette commercialisation par la promotion de programmes de partenariats université-industrie et par la mise en place de stratégies pour l’innovation et le transfert des technologies. Prenant comme modèle le chercheur académique dans le domaine de la santé, nous avons évalué l’impact de cette commercialisation sur les responsabilités du chercheur envers la science et la société. Ce nouveau mode de fonctionnement comporte certes des avantages. Par exemple, il résulte en une injection de fonds nouveaux pour la recherche, un développement des infrastructures universitaires et un transfert de technologies plus efficace, permettant ainsi à la population de bénéficier plus rapidement des bienfaits de la recherche. Cependant, notre réflexion révèle que cette commercialisation comporte aussi des impacts négatifs sur la recherche académique. En effet, on observe l’apparition de conflits d’intérêts pour le chercheur. En plus de constituer une menace pour la sécurité de la population, ces situations causent l’effritement du lien de confiance entre la société et les chercheurs académiques, lien qui est essentiel pour assurer la progression du savoir humain. La commercialisation porte aussi atteinte à la liberté académique, effet que l’on peut observer tant au plan de l’orientation des recherches qu’à celui de la diffusion de ses résultats. Or, la liberté académique est une valeur fondamentale qui a été défendue depuis le Moyen Âge comme étant essentielle pour la progression du savoir humain. Le potentiel commercial devient un facteur dans l’évaluation des projets de recherche académique alors que, traditionnellement, l’avancement des connaissances la guidait essentiellement. Ainsi, la recherche appliquée devient favorisée au détriment de la recherche fondamentale. Ce virage commercial peut bénéficier à la société à court terme mais, à long terme, l’évolution de la société est menacée. La recherche appliquée et la recherche fondamentale sont toutes deux essentielles à l’avancement de la société, apportant chacune leur lot de bénéfices pour cette dernière. La commercialisation de la recherche académique ne doit donc pas résulter en une diminution progressive de la recherche fondamentale au profit de la recherche appliquée. Bien que les chercheurs académiques soient conscients de l’importance de préserver la recherche fondamentale, cette protection ne peut s’opérer sans le support actif des organismes subventionnaires, des gouvernements et de la société en général.
Resumo:
Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.