966 resultados para Domaine Numérique
Resumo:
Le récepteur A des peptides natriurétiques (NPRA) fait partie de la famille des guanylates cyclases membranaires. L’activation du NPRA par ses agonistes naturels, ANP et BNP, induit une production de GMPc qui est responsable de leur rôle dans l’homéostasie cardiovasculaire, l’inhibition de l’hypertrophie et de la fibrose cardiaques et la régulation de la lipolyse. Le NPRA est un homodimère non covalent composé d’un domaine extracellulaire de liaison du ligand (ECD), d’un unique domaine transmembranaire (TM), d’un domaine d’homologie aux kinases et d’un domaine guanylate cyclase. Bien que le NPRA ait un rôle physiologique important, les mécanismes moléculaires régissant son processus d’activation restent inconnus. Nous avons donc analysé les premières étapes du processus d’activation du NPRA. Nous avons d'abord étudié le rôle de la dimérisation des ECD dans l’activation du récepteur. Nous avons utilisé les techniques de liaison de radioligand, de FRET et de modélisation moléculaire, pour caractériser la liaison à l’ECD des agonistes naturels, d’un superagoniste et d’un antagoniste. L’ANP se lie à un dimère d’ECD préformé et la dimérisation spontanée est l’étape limitante du processus de liaison. De plus, comme le démontrent nos études de FRET, tous les peptides, incluant l’antagoniste, stabilisent le récepteur sous sa forme dimérique. Cependant, l’antagoniste A71915 stabilise le dimère d’ECD dans une conformation différente de celle induite par l’ANP. La dimérisation du NPRA semble donc nécessaire, mais non suffisante à l’activation du récepteur. L’état d’activation du NPRA dépend plutôt de l’orientation des sous unités dans le dimère. Nous avons ensuite étudié le mécanisme moléculaire de transduction du signal à travers la membrane. Plusieurs études ont suggéré que l’activation du NPRA implique un changement de conformation du domaine juxtamembranaire (JM). Cependant, les études de cristallographie de l’ECD soluble de NPRA n’ont pas permis de documenter la structure du JM et le changement de conformation impliqué dans la transduction du signal reste inconnu. Pour analyser ce changement de conformation, nous avons d’abord séquentiellement substitué les neuf acides aminés du JM par une cystéine. En étudiant la capacité des mutants à former des dimères covalents de façon constitutive ou induite par l’ANP, nous avons pu évaluer la proximité relative des résidus du JM, avant et après activation du NPRA. Ces résultats ont démontré la proximité élevée de certains résidus spécifiques et sont en contradiction avec les données cristallographiques. Nous avons également démontré que le domaine intracellulaire impose une contrainte conformationnelle au JM à l’état de base, qui est levée après liaison de l’ANP. En introduisant de 1 à 5 alanines dans l’hélice-α transmembranaire, nous avons montré qu’une rotation des TM de 40° induit une activation constitutive du NPRA. Le signal d’activation pourrait donc être transmis à travers la membrane par un mécanisme de rotation des TM. En utilisant nos données expérimentales, nous avons généré le premier modèle moléculaire illustrant la conformation active du NPRA, où les domaines JM et TM sont représentés. Dans son ensemble, cette étude apporte une meilleure compréhension des mécanismes moléculaires régissant les premières étapes du processus complexe d’activation du NPRA.
Resumo:
La sténose valvulaire aortique (SVA) est une pathologie associée au vieillissement et aux facteurs de risque cardiovasculaire. Afin d’étudier la SVA et d’explorer de nouvelles thérapies, plusieurs modèles animaux ont été récemment développés, mais la plupart de ces modèles ciblent les mécanismes de développement de la SVA reliés à l’hypercholestérolémie. Le syndrome de Werner (WS) est une maladie caractérisée par un vieillissement prématuré. Récemment, il a été découvert que des souris mutantes ayant une délétion du domaine hélicase du gène Werner, responsable du WS, démontraient un profile hémodynamique typique de la SVA. De ce fait, nous avons émis l’hypothèse que ces souris pourraient développer une SVA plus rapidement que des souris de type sauvage. Nous avons donc étudié les effets cette mutation chez des souris WrnΔhel/Δhel, en comparant le taux de progression d’une SVA entre des souris WrnΔhel/Δhel (WrnΔhel) et des souris de type sauvage comme groupe contrôle. À la suite d’une diète riche en sucre et en gras sur une période de 24 semaines, les souris WrnΔhel ont démontré une diminution plus prononcée de leur aire de valve aortique (mesures échocardiographiques) que les souris contrôles, supportée par les analyses histologiques concernant la fibrose des valves aortiques. Les souris n’ont toutefois développé aucun signe évident d’athérosclérose comme l’infiltration de lipides ou l’inflammation, bien que certaines caractéristiques liées à la dysfonction endothéliale semblent être augmentées chez les souris WrnΔhel. D’autres mesures échocardiographiques indiquant une SVA, comme une hypertrophie du ventricule gauche dans le groupe WrnΔhel, ont été obtenues. Nous avons aussi observé des indices de vieillissement plus marqués quant aux analyses sanguines et de la moelle osseuse des souris WrnΔhel en comparaison avec les souris contrôles. Par conséquent, ce modèle expérimental de vieillissement pourrait être utilisé pour les études futures sur la SVA sans les principaux effets athérogéniques des autres modèles expérimentaux.
Resumo:
Résumé: L’objectif général de la thèse était de caractériser les déficits de reconnaissance mnésique dans la maladie d’Alzheimer et le trouble cognitif léger. La thèse comprend trois articles. Le premier article propose une recension des écrits portant sur les déficits cognitifs dans le trouble cognitif léger, alors que les deux articles suivants rapportent les résultats d’études expérimentales portant sur la reconnaissance. Le but de la première étude empirique était d’évaluer l’impact du type de matériel sur la reconnaissance à long terme et la reconnaissance à court terme dans la maladie d’Alzheimer en comparant l’atteinte pour des stimuli verbaux et musicaux. Nos analyses de groupe ont révélé que les atteintes des personnes avec maladie d’Alzheimer s’étendaient à toutes les épreuves et que les déficits étaient d’une ampleur comparable en reconnaissance musicale et verbale. Les analyses corrélationnelles appuient, bien que partiellement, une certaine spécificité d’atteintes par domaine, particulièrement en reconnaissance à long terme, mais suggèrent également que les deux domaines puissent partager certains mécanismes. L’objectif de la seconde étude était de caractériser les processus utilisés en reconnaissance dans le vieillissement normal et le trouble cognitif léger en fonction de la nouveauté et du type de matériel. L’étude évaluait la recollection et la familiarité à l’aide de la méthode remember/know. Les tâches étaient composées d’items connus et d’items nouveaux faisant partie du domaine verbal ou du domaine musical. Les résultats ont révélé que la recollection était atteinte dans le vieillissement normal et le trouble cognitif léger, mais uniquement pour la reconnaissance de stimuli connus, ce qui est compatible avec le fait que les deux groupes ont de la difficulté à encoder l’information de façon élaborée. D’autre part, la familiarité était compromise dans le vieillissement normal, sans impact additionnel du trouble cognitif léger, et seulement pour la reconnaissance de stimuli inconnus. Cette atteinte peut être associée aux difficultés des aînés dans les tâches d’amorçage perceptif impliquant des items inconnus. Les résultats découlant de ces études s’avèrent pertinents dans une perspective clinique, en plus de pouvoir contribuer à certaines questions d’ordre théorique.
Resumo:
Les interneurones GABAergiques constituent une population mineure de cellules par rapport aux neurones glutamatergiques dans le néocortex. Cependant ils contrôlent fortement l'excitabilité neuronale, la dynamique des réseaux neuronaux et la plasticité synaptique. L'importance des circuits GABAergiques dans le processus fonctionnel et la plasticité des réseaux corticaux est soulignée par des résultats récents qui montrent que des modifications très précises et fiables des circuits GABAergiques sont associées à divers troubles du développement neurologique et à des défauts dans les fonctions cérébrales. De ce fait, la compréhension des mécanismes cellulaires et moléculaires impliquant le développement des circuits GABAergiques est la première étape vers une meilleure compréhension de la façon dont les anomalies de ces processus peuvent se produire. La molécule d’adhésion cellulaire neurale (NCAM) appartient à la super-famille des immunoglobulines de reconnaissance cellulaire et est impliquée dans des interactions homophiliques et hétérophiliques avec d’autres molécules. Même si plusieurs rôles de NCAM ont été démontrés dans la croissance neuronale, la fasciculation axonale, la formation et la maturation de synapses, de même que dans la plasticité cellulaire de plusieurs systèmes, le rôle de NCAM dans la formation des synapses GABAergiques reste inconnu. Ce projet visait donc à déterminer le rôle précis de NCAM dans le processus de maturation des synapses GABAergiques dans le néocortex, en modulant son expression à différentes étapes du développement. L’approche choisie a été de supprimer NCAM dans des cellules GABAergiques à paniers avant la maturation des synapses (EP12-18), pendant la maturation (EP16-24), ou durant le maintien de celles-ci (EP24-32). Les méthodes utilisées ont été le clonage moléculaire, l’imagerie confocale, la culture de coupes organotypiques et des techniques morphométriques de quantification de l’innervation GABAergique. Nos résultats montrent que l’inactivation de NCAM durant la phase de maturation des synapses périsomatiques (EP16-24) cause une réduction du nombre de synapses GABAergiques périsomatiques et du branchement de ces axones. En revanche, durant la phase de maintien (EP26-32), l’inactivation de NCAM n’a pas affecté ces paramètres des synapses GABAergiques. Or, il existe trois isoformes de NCAM (NCAM120, 140 et 180) qui pourraient jouer des rôles différents dans les divers types cellulaires ou à des stades développementaux différents. Nos données montrent que NCAM120 et 140 sont nécessaires à la maturation des synapses périsomatiques GABAergiques. Cependant, NCAM180, qui est l’isoforme la plus étudiée et caractérisée, ne semble pas être impliquée dans ce processus. De plus, l’inactivation de NCAM n’a pas affecté la densité des épines dendritiques ou leur longueur. Elle est donc spécifique aux synapses périsomatiques GABAeriques. Finalement, nos résultats suggèrent que le domaine conservé C-terminal KENESKA est essentiel à la maturation des synapses périsomatiques GABAergiques. Des expériences futures nous aiderons à mieux comprendre la mécanistique et les différentes voies de signalisation impliquées.
Resumo:
Le virus herpès simplex de type 1 (HSV 1) affecte la majorité de la population mondiale. HSV 1 cause de multiples symptômes délétères dont les plus communs sont les lésions orofaciales usuellement appelées feux sauvages. Le virus peut aussi causer des effets plus sérieux comme la cécité ou des troubles neurologiques. Le virus réside de façon permanente dans le corps de son hôte. Malgré l’existence de nombreux traitements pour atténuer les symptômes causés par HSV 1, aucun médicament ne peut éliminer le virus. Dans le but d’améliorer les connaissances concernant le cycle viral de HSV 1, ce projet cible l’étude du transport du virus dans la cellule hôte. Ce projet aura permis la collecte d’informations concernant le modus operandi de HSV 1 pour sortir des compartiments cellulaires où il séjourne. Les différentes expérimentations ont permis de publier 3 articles dont un article qui a été choisi parmi les meilleurs papiers par les éditeurs de « Journal of Virology » ainsi qu’un 4e article qui a été soumis. Premièrement, un essai in vitro reproduisant la sortie de HSV 1 du noyau a été mis sur pied, via l’isolation de noyaux issus de cellules infectées. Nous avons démontré que tout comme dans les cellules entières, les capsides s’évadent des noyaux isolés dans l’essai in vitro en bourgeonnant avec la membrane nucléaire interne, puis en s’accumulant sous forme de capsides enveloppées entre les deux membranes nucléaires pour finalement être relâchées dans le cytoplasme exclusivement sous une forme non enveloppée. Ces observations appuient le modèle de transport de dé-enveloppement/ré-enveloppement. Deuxièmement, dans le but d’identifier des joueurs clefs viraux impliqués dans la sortie nucléaire du virus, les protéines virales associées aux capsides relâchées par le noyau ont été examinées. La morphologie multicouche du virus HSV 1 comprend un génome d’ADN, une capside, le tégument et une enveloppe. Le tégument est un ensemble de protéines virales qui sont ajoutées séquentiellement sur la particule virale. La séquence d’ajout des téguments de même que les sites intracellulaires où a lieu la tégumentation sont l’objet d’intenses recherches. L’essai in vitro a été utilisé pour étudier cette tégumentation. Les données recueillies suggèrent un processus séquentiel qui implique l’acquisition des protéines UL36, UL37, ICP0, ICP8, UL41, UL42, US3 et possiblement ICP4 sur les capsides relâchées par le noyau. Troisièmement, pour obtenir davantage d’informations concernant la sortie de HSV 1 des compartiments membranaires de la cellule hôte, la sortie de HSV 1 du réseau trans golgien (TGN) a aussi été étudiée. L’étude a révélé l’implication de la protéine kinase D cellulaire (PKD) dans le transport post-TGN de HSV 1. PKD est connue pour réguler le transport de petits cargos et son implication dans le transport de HSV 1 met en lumière l’utilisation d’une machinerie commune pour le transport des petits et gros cargos en aval du TGN. Le TGN n’est donc pas seulement une station de triage, mais est aussi un point de rencontre pour différentes voies de transport intracellulaire. Tous ces résultats contribuent à une meilleure compréhension du processus complexe de maturation du virus HSV 1, ce qui pourrait mener au développement de meilleurs traitements pour combattre le virus. Les données amassées concernant le virus HSV 1 pourraient aussi être appliquées à d’autres virus. En plus de leur pertinence dans le domaine de la virologie, les découvertes issues de ce projet apportent également de nouveaux détails au niveau du transport intracellulaire.
Resumo:
Le droit des brevets a pour but premier de favoriser les développements technologiques et industriels. Cependant, à l’heure actuelle, ce domaine voit son rôle confronté à une forme de crise, à cause plus précisément des avancées constatées dans le secteur des biotechnologies. De difficiles questions fondamentales se posent à différents niveaux, que ce soit socialement, moralement et légalement. Au vu de ces observations, la question est de savoir, dans le cadre de cette étude, si la régulation devrait être plus signifiante en tenant compte des considérations morales et éthiques dans le processus de brevetabilité. Cette étude a donc pour but de comparer et d’évaluer les diverses solutions proposées en Europe, aux États-Unis et au Canada, afin de déterminer quelle serait la voie envisageable vers la résolution de cette problématique. Par exemple, dans ce contexte, on peut pointer l’approche européenne, où la CBE et la Directive du Parlement européen relative à la protection des inventions biotechnologiques (98/44/CE) semblent introduire des notions éthiques dans leurs textes juridiques. Un tel procédé apporte des notions qui peuvent être considérées comme vagues et évolutives dans un processus qui se veut apparemment technique. Alors que si l’on prend l’approche nord-américaine, celle-ci se fonde sur des critères de brevetabilité dénués de toutes considérations morales. Par l’analyse de ces éléments, une voie possible pourrait être décrite vers un système des brevets qui répondrait mieux aux exigences actuelles.
Resumo:
L'obligation de sécurité informationnelle - c'est-à-dire la tâche qui incombe aux entreprises d'assurer l'intégrité, la confidentialité et la disponibilité de l'information découle, tant en droit québécois que dans une majorité de juridictions occidentales, d'une série de dispositions législatives imposant non pas l'adoption de comportements ou l'utilisation de technologies ou de procédés identifiables, mais bien l'implantation de mesures de sécurité «raisonnables », «adéquates », ou « suffisantes ». Or, dans un domaine aussi embryonnaire et complexe que celui de la sécurité informationnelle, domaine dans lequel les solutions disponibles sont multiples et où la jurisprudence est éparse, comment une entreprise peut-elle jauger avec justesse l'étendue de son obligation? Bref, comment établir ce que ferait une entreprise raisonnablement prudente et diligente dans un domaine où il n'existe actuellement aucune balise législative, jurisprudentielle ou même coutumière permettant de fixer avec justesse le niveau de diligence imposé par le législateur? L'absence de sécurité juridique offerte par une telle situation est patente et nécessite une reconfiguration du cadre opératoire de l'obligation de sécurité informationnelle afin d'en identifier les composantes et les objectifs. Cet exercice passera par la redéfinition de l'obligation de sécurité informationnelle comme obligation de réduire les risques qui guettent l'information à un niveau socialement acceptable. En effet, la sécurité pouvant être définie comme étant la gestion du risque, c'est donc le risque qui réside au cœur de cette obligation. Or, en analysant les risques qui guettent un système, soit en analysant les menaces qui visent à exploiter ses vulnérabilités, il est possible d'établir quelles contre-mesures s'avèrent utiles et les coûts associés à leur mise en œuvre. Par la suite, il devient envisageable, en recourant à la définition économique de la négligence et en prenant compte des probabilités de brèches de sécurité et des dommages escomptés, d'établir les sommes optimales à investir dans l'achat, l'entretien et la mise à jour de ces contre-mesures. Une telle analyse permet ainsi de quantifier avec un certain degré de précision l'étendue de l'obligation de sécurité informationnelle en offrant aux entreprises un outil s'inspirant de données matérielles auxquelles elles ont librement accès et s'intégrant aisément dans le contexte juridique contemporain.
Resumo:
On note de nos jours une intensification, aux États-Unis, de l’usage de la race en santé publique, une idée qui est parfois rejetée dans la mesure où elle est associée à des pratiques controversées. Les races sont vues, dans ce contexte, comme le produit du racisme, une technologie du pouvoir de l’État moderne qui a consisté à fragmenter l’humanité pour permettre les colonisations. C'est ainsi que la race a été prise en charge par le discours pour marquer la différence, discours qui est constitué d'un ensemble hétérogène de dispositifs, des institutions, des énoncés scientifiques, des normes et des règles. Le racisme s’est développé en parallèle avec l'affirmation d'un pouvoir sur la vie visant à assurer la gestion des corps et des populations, notamment par le biais des pratiques de santé publique. Cette thèse s'appuie sur une étude ethnographique réalisée sur un corpus de documents de la santé publique parus aux États-Unis et issus de bureaux fédéraux et d’une importante revue spécialisée dans le domaine sanitaire, et qui ont été publiés entre 2001 et 2009. Cette étude a analysé la manière dont la race est représentée, produite comme objet de connaissance, et régulée par les pratiques discursives dans ces documents. Les résultats confirment que le discours sur la race varie au cours du temps. Toutefois, les résultats indiquent la relative permanence en santé publique d'un régime racialisé de représentation qui consiste à identifier, à situer et à opposer les sujets et les groupes à partir de labels standardisés. Ce régime est composé d'un ensemble de pratiques représentationnelles qui, couplées aux techniques disciplinaires et à l’idée de culture, aboutissent à la caractérisation et à la formation d’objets racialisés et à des stéréotypes. De plus, cet ensemble d’opérations qui fabrique la racialisation, a tendance, avec la sanitarisation et la culturalisation, à naturaliser la différence, à reproduire l’ordre symbolique et à constituer les identités raciales. Par ailleurs, la racialisation apparaît tiraillée entre un pouvoir sur la vie et un pouvoir sur la mort. Enfin, cette étude propose une alternative postraciale qui envisage la constitution des groupes humains de manière fluide et déterritorialisée.
Resumo:
L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.
Resumo:
L'application de classifieurs linéaires à l'analyse des données d'imagerie cérébrale (fMRI) a mené à plusieurs percées intéressantes au cours des dernières années. Ces classifieurs combinent linéairement les réponses des voxels pour détecter et catégoriser différents états du cerveau. Ils sont plus agnostics que les méthodes d'analyses conventionnelles qui traitent systématiquement les patterns faibles et distribués comme du bruit. Dans le présent projet, nous utilisons ces classifieurs pour valider une hypothèse portant sur l'encodage des sons dans le cerveau humain. Plus précisément, nous cherchons à localiser des neurones, dans le cortex auditif primaire, qui détecteraient les modulations spectrales et temporelles présentes dans les sons. Nous utilisons les enregistrements fMRI de sujets soumis à 49 modulations spectro-temporelles différentes. L'analyse fMRI au moyen de classifieurs linéaires n'est pas standard, jusqu'à maintenant, dans ce domaine. De plus, à long terme, nous avons aussi pour objectif le développement de nouveaux algorithmes d'apprentissage automatique spécialisés pour les données fMRI. Pour ces raisons, une bonne partie des expériences vise surtout à étudier le comportement des classifieurs. Nous nous intéressons principalement à 3 classifieurs linéaires standards, soient l'algorithme machine à vecteurs de support (linéaire), l'algorithme régression logistique (régularisée) et le modèle bayésien gaussien naïf (variances partagées).
Resumo:
La majorité des auteurs qui s’intéressent à la surqualification la comprennent et l’analysent habituellement comme une situation de suréducation ou de déclassement scolaire. Ce mémoire fait l’hypothèse que le sens qu’accordent les individus au fait d’être surqualifié est beaucoup plus large. Même s’il est raisonnable de croire que la majorité des diplômés espèrent pouvoir obtenir un emploi à la hauteur de leur diplôme, le fait de définir le sentiment de surqualification de façon substantialiste, en ne considérant que le niveau de diplôme obtenu par le travailleur et exigé par l’employeur, semble quelque peu réducteur. Le sentiment de surqualification naît d’un jugement social : il est empirique, contextualisé et dynamique. À la croisée des mesures objectives et subjectives, nous explorons ainsi les facteurs explicatifs du sentiment de surqualification chez les diplômés canadiens à partir d’une analyse statistique des déterminants de ce sentiment dans les premières années qui suivent l’obtention de leur diplôme d’études postsecondaires. Nous montrons d’abord que l’utilisation de compétences en emploi et le lien entre le diplôme obtenu et l’emploi expliquent bien plus le sentiment de surqualification que la suréducation objective. Nous montrons aussi que l’impact du niveau d’utilisation d’une compétence donnée sur le sentiment de surqualification varie substantiellement selon le domaine d’études du diplômé et la nature de cette compétence.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Le regroupement des neurones de propriétés similaires est à l’origine de modules permettant d’optimiser l’analyse de l’information. La conséquence est la présence de cartes fonctionnelles dans le cortex visuel primaire de certains mammifères pour de nombreux paramètres tels que l’orientation, la direction du mouvement ou la position des stimuli (visuotopie). Le premier volet de cette thèse est consacré à caractériser l’organisation modulaire dans le cortex visuel primaire pour un paramètre fondamental, la suppression centre / pourtour et au delà du cortex visuel primaire (dans l’aire 21a), pour l’orientation et la direction. Toutes les études ont été effectuées à l’aide de l’imagerie optique des signaux intrinsèques sur le cortex visuel du chat anesthésié. La quantification de la modulation par la taille des stimuli à permis de révéler la présence de modules de forte et de faible suppression par le pourtour dans le cortex visuel primaire (aires 17 et 18). Ce type d’organisation n’avait été observé jusqu’ici que dans une aire de plus haut niveau hiérarchique chez le primate. Une organisation modulaire pour l’orientation, similaire à celle observée dans le cortex visuel primaire a été révélée dans l’aire 21a. Par contre, contrairement à l’aire 18, l’aire 21a ne semblait pas être organisée en domaine de direction. L’ensemble de ces résultats pourront permettre d’alimenter les connaissances sur l’organisation anatomo-fonctionnelle du cortex visuel du chat mais également de mieux comprendre les facteurs qui déterminent la présence d’une organisation modulaire. Le deuxième volet abordé dans cette thèse s’est intéressé à l’amélioration de l’aspect quantitatif apporté par l’analyse temporelle en imagerie optique des signaux intrinsèques. Cette nouvelle approche, basée sur l’analyse de Fourier a permis d’augmenter considérablement le rapport signal / bruit des enregistrements. Toutefois, cette analyse ne s’est basée jusqu’ici que sur la quantification d’une seule harmonique ce qui a limité son emploi à la cartographie de l’orientation et de rétinotopie uniquement. En exploitant les plus hautes harmoniques, un modèle a été proposé afin d’estimer la taille des champs récepteurs et la sélectivité à la direction. Ce modèle a par la suite été validé par des approches conventionnelles dans le cortex visuel primaire.
Resumo:
Au Québec, depuis les 25 dernières années, l’enjeu de la privatisation dans le secteur de la santé revient constamment dans le débat public. Déjà dans les années 1980, lorsque le secteur de la santé a commencé à subir d’importantes pressions, faire participer davantage le privé était présenté comme une voie envisageable. Plus récemment, avec l’adoption de la loi 33 par le gouvernement libéral de Jean Charest, plusieurs groupes ont dénoncé la privatisation en santé. Ce qui frappe lorsque l’on s’intéresse à la privatisation en santé, c’est que plusieurs textes abordant cette question ne définissent pas clairement le concept. En se penchant plus particulièrement sur le cas du Québec, cette recherche vise dans un premier temps à rappeler comment a émergé et progressé l’idée de privatisation en santé. Cette idée est apparue dans les années 1980 alors que les programmes publics de soins de santé ont commencé à exercer d’importantes pressions sur les finances publiques des États ébranlés par la crise économique et qu’au même moment, l’idéologie néolibérale, qui remet en question le rôle de l’État dans la couverture sociale, éclipsait tranquillement le keynésianisme. Une nouvelle manière de gérer les programmes publics de soins de santé s’imposait comme étant la voie à adopter. Le nouveau management public et les techniques qu’il propose, dont la privatisation, sont apparus comme étant une solution à considérer. Ensuite, par le biais d’une revue de la littérature, cette recherche fait une analyse du concept de privatisation, tant sur le plan de la protection sociale en général que sur celui de la santé. Ce faisant, elle contribue à combler le flou conceptuel entourant la privatisation et à la définir de manière systématique. Ainsi, la privatisation dans le secteur de la santé transfère des responsabilités du public vers le privé dans certaines activités soit sur le plan: 1) de la gestion et de l’administration, 2) du financement, 3) de la provision et 4) de la propriété. De plus, la privatisation est un processus de changement et peut être initiée de manière active ou passive. La dernière partie de cette recherche se concentre sur le cas québécois et montre comment la privatisation a progressé dans le domaine de la santé au Québec et comment certains éléments du contexte institutionnel canadien ont influencé le processus de privatisation en santé dans le contexte québécois. Suite à une diminution dans le financement en matière de santé de la part du gouvernement fédéral à partir des années 1980, le gouvernement québécois a privatisé activement des services de santé complémentaires en les désassurant, mais a aussi mis en place la politique du virage ambulatoire qui a entraîné une privatisation passive du système de santé. Par cette politique, une nouvelle tendance dans la provision des soins, consistant à retourner plus rapidement les patients dans leur milieu de vie, s’est dessinée. La Loi canadienne sur la santé qui a déjà freiné la privatisation des soins ne représente pas un obstacle suffisant pour arrêter ce type de privatisation. Finalement, avec l’adoption de la loi 33, suite à l’affaire Chaoulli, le gouvernement du Québec a activement fait une plus grande place au privé dans trois activités du programme public de soins de santé soit dans : l’administration et la gestion, la provision et le financement.
Resumo:
Les différents acteurs impliqués dans la formation pratique en milieu scolaire doivent composer avec les réalités culturelles et territoriales des régions du Québec. Les étudiants issus des régions éloignées des universités souhaitent retourner dans leur milieu d’origine afin d’y réaliser un de leur stage. L’omniprésence des technologies de l’information et des communications (TIC) dans les milieux scolaires et universitaires et l’exigence du Ministère de l’Éducation du Québec (MEQ) (2001) à développer une compétence professionnelle qui vise à intégrer les TIC aux fins de préparation, de pilotage et de gestion de l’enseignement concourent à mettre en place un modèle de supervision qui puisse répondre aux exigences liées au domaine de la formation pratique. Les enjeux sont de taille et méritent que l’on s’y attarde. Prenant en considération le fait que l’observation et la communication entre les différents partenaires de la supervision du stagiaire sont à la base d’une formation efficiente qui puisse répondre aux besoins des étudiants, la présente étude propose un modèle de supervision pouvant accroître la présence des universités dans les milieux plus éloignés et ainsi assurer un accompagnement optimal des stagiaires sur l’ensemble du territoire québécois. Cette recherche a pour objectif de mieux comprendre les avantages et les limites d’un modèle de supervision en distanciel faisant appel aux TIC lors des stages réalisés dans les milieux scolaires éloignés de leur université. Plus précisément, l’étude répond à trois objectifs en identifiant (1) les avantages et (2) les limites liés à la supervision des stages lorsqu’ils se déroulent par l’entremise des TIC et en contribuant à (3) comprendre l’efficience d’un modèle de supervision en distanciel appuyé par les TIC sur l’accompagnement des stagiaires dans le développement de leurs compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle. Afin de saisir les enjeux d’un tel modèle, une étude qualitative descriptive s’avère être le choix qui s’impose. Une rigoureuse collecte de données menée auprès de quatre stagiaires, leur enseignant associé respectif et leur superviseur à l’aide de grilles d’observation, d’enregistrements vidéo, de journaux de bord et d’entrevues semi-dirigées permet de répondre à quatre questions de recherche. Ces dernières s’interrogent sur l’efficience d’un modèle de supervision en distanciel au plan de l’encadrement du stagiaire avant, pendant et après sa prestation, au plan du développement des compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle et au plan de la communication entre les partenaires de la supervision. Les données recueillies à partir des différents outils permettent la présentation d’une description de chaque étape et des avantages et des limites de chacune d’elles : l’accueil, l’observation, les échanges-partenaires et la rétroaction. L’étude permet également de mieux comprendre les avantages et les limites d’une supervision en distanciel appuyé par les TIC lors des stages se déroulant dans les milieux scolaires éloignés de leur université. Ainsi, l’étude fait ressortir que chaque étape du modèle de supervision en distanciel proposé contribue, à différents égards, à rendre la supervision efficiente sur le plan de l’accompagnement au développement des compétences professionnelles. Des recommandations et des pistes de recherches sont proposées afin de maximiser le potentiel du modèle.