1000 resultados para La Vallière, Mme de
Resumo:
L’étude de l’assemblage et de l’acheminement à la membrane plasmique des complexes de signalisation des RCPGs va jouer un rôle crucial dans le développement de nouveaux médicaments ayant moins d’effets secondaires. Des outils permettant l’étude de ces phénomènes existent déjà, mais un outil polyvalent qui permettrait d’étudier plusieurs aspects pourrait grandement faciliter et accélérer ces études. L’étiquette SNAP est un candidat intéressant puisqu’avec cette étiquette il est possible de marquer une seule construction avec une variété de différents substrats. Une construction encodant pour le récepteur β2AR avec une étiquette SNAP à son extrémité C-terminale a été ingénérée. Cette construction est apte à lier son ligand, à être acheminée à la membrane plasmique et à homodimériser. La protéine exprimée a été marquée avec le fluorophore BG-430. De la fluorescence non spécifique a été détectée dans la cellule (même en absence de l’étiquette SNAP sur le récepteur). Un essai BRET a été développé, utilisant la construction HA-β2AR-SNAP en tant qu’accepteur et est fonctionnel. L’étiquette SNAP, comme utilisée ici, ne présente pas un aussi bon candidat qu’attendu, puisque le substrat n’ayant pas réagi demeure coincé dans la cellule. Le facteur activateur de plaquette (PAF) et son récepteur (PAFR) jouent un rôle critique dans plusieurs réponses inflammatoires et le récepteur FP est impliqué dans l’accouchement prématuré. Une meilleure compréhension des complexes de signalisation associés à ces récepteurs pourrait être la première étape dans la compréhension de leur signalisation dans des situations normales ou de maladies. Des expériences de BRET étudiant des interactions de bases entre les récepteurs et leurs partenaires d’interactions connus ont été réalisées. Elles ont permis de déterminer que : les récepteurs PAF et FP homodimérisent, que les récepteurs PAF et FP hétérodimérisent, que les protéines Gβγ interagissent de manière constitutive avec ces récepteurs et qu’aucun signal de BRET n’a été détecté avec la protéine Gα et ce, en présence ou en absence de stimulation par un agoniste (suggérant qu’il est nécessaire d’optimiser le système présentement utilisé).
Resumo:
[Support Institutions:] Department of Administration of Health, University of Montreal, Canada Public Health School of Fudan University, Shanghai, China
Resumo:
La présente étude se concentre sur le travail de Nancy Fraser sur la justice sociale, lequel a suscité beaucoup d’intérêt dans la littérature au cours des dernières années. La reconnaissance et la redistribution sont les deux piliers originaux de son approche: les désavantages dont souffrent les gens dus au dénigrement culturel ou à la privation économique. Ces deux concepts servent à diagnostiquer et fournir le soutien moral aux multiples luttes que les victimes d’injustice entreprennent avec l’objectif d’établir une participation plus égalitaire à la société. Cependant, que peut-elle dire cette approche des groupes qui sont marginalisés et cherchent l’autogouvernance (ou la séparation même) plutôt que l’intégration dans la société? Le travail de Fraser manifeste une résistance envers les droits du groupe, et un silence quant à l’autodétermination. Mon intervention prend comme objectif d’inclure ces formes d’injustice dans son approche, la rendant plus sensible aux dynamiques des groupes et capable de répondre à leurs revendications trop souvent négligées sous prétexte de l’égalité. La question est, l’égalité de qui?
Resumo:
Les innovations technologiques pullulent dans le milieu policier depuis quelques années. Devant cette abondance de choix technologiques, et dans une conjoncture de ralentissement économique, la police doit s’assurer de faire une sélection favorisant le meilleur retour sur investissement. L’évaluation des technologies est la meilleure méthode permettant d’atteindre cet objectif. Ce projet de recherche analyse les différentes stratégies d’évaluation des technologies des corps policiers fédéraux et provinciaux du Canada en se basant sur le domaine baromètre de l’identité judiciaire. Cette étude s’appuie sur plusieurs données qualitatives : 1) observation participative à la Sûreté du Québec; 2) entrevues semi-directives (n=11) avec des membres de l’Ontario Provincial Police et de la Gendarmerie Royale du Canada. L’analyse intégrée des données colligées permet de mieux comprendre la dynamique de l’évaluation technologique dans la police. Même si une évolution est perceptible, certaines améliorations pourraient accroître l’efficacité du mini-PTA (Police Technology Assessment) dans un contexte où l’opérationnel et le théorique doivent cohabiter en parfaite harmonie afin de faciliter le travail des utilisateurs. Le mini-PTA est un outil facilitant l’adaptation de l’évaluation des technologies aux réalités régionales, mais ne peut en aucun cas remplacer unilatéralement le PTA fait par les grosses organisations d’évaluation des technologies policières.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne (Paris IV), sous la direction de M. Michel Delon.
Resumo:
La thèse centrale de mon texte est conceptuelle. Le vrai problème du principe de précaution, au moins dans ses versions les plus fortes, est son incohérence : il prétend être un guide, mais il échoue dans cette entreprise, en condamnant la démarche même qu’il exige. La réglementation exigée par le principe fait toujours surgir ses propres risques, et le principe interdit donc en même temps ce qu’il prescrit. En conséquence, je vise à mettre à l’épreuve le principe de précaution non parce qu’il conduit dans de mauvaises directions, mais parce que si l’on estime à sa juste valeur, il ne conduit simplement dans aucune direction. Le principe menace d’être paralysant, d’interdire les réglementations, de provoquer l’inaction et tout ce qui peut constituer une étape intermédiaire entre ces points. La protection de l’environnement et de la nature sont souvent des entreprises très sensées, mais le principe de précaution n’est pas un moyen utile pour identifier quand, et dans quelle mesure, cette protection de la nature constitue une question judicieuse.
Resumo:
Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.
Resumo:
L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.
Resumo:
Cette recherche a comme objectif l’étude d’un des thèmes clef dans la vaste œuvre du poète et essayiste mexicain Octavio Paz (1914-1998) : les analogies entre l’érotisme, le poème et le sacré comme chemins ou voies d’union et de réconciliation humaine, idée qui est particulièrement renforcée dans son œuvre à partir des voyages et du séjour en Orient –spécialement en Inde– entre 1951 et 1968. Pendant la période nommée « cycle indien » (‘ciclo hindú’), Paz s’est intéressé aux différentes traditions de la pensée orientale, particulièrement le bouddhisme, et surtout son orientation tantrique. Ce mémoire analyse les apports les plus significatifs du bouddhisme à l’œuvre de Paz. À partir de l’étude de concepts comme la vacuité, le silence, l’autre bord (‘otra orilla’), l’union extatique transcendante et la libération, ce mémoire soutient que Paz a approfondi les analogies entre l’érotisme, la poésie et le sacré en ne les concevant pas seulement comme expériences de réconciliation mais en les menant au-delà, au plan transcendental, à partir de l’union extatique dans la vacuité. Même si ce mémoire tient compte d’un grand nombre d’œuvres d’Octavio Paz, qui vont de El arco y la lira (1956) à Vislumbres de la India (1995), une attention particulière est dédiée à deux textes qui sont les plus représentatifs du résultat de sa rencontre avec l’Orient, Ladera este (1969) et El mono gramático (1974), dans lesquels il est possible d’observer les analogies que Paz établit entre l’érotisme, le poème, et le bouddhisme tantrique à partir de l’expérience de l’altérité (‘otredad’), qui propose à l’être humain la recherche de son ‘autre’ pour se réconcilier dans l’unité, et de l’expérience de dissipation dans la vacuité. La conclusion générale de l’étude souligne que l’érotisme, le poème, et le bouddhisme tantrique se proposent dans l’œuvre de Octavio Paz comme trois chemins parallèles de révélation par lesquels l’être humain peut accéder à sa plénitude, état manifeste dans l’expérience extatique.
Resumo:
La mise en banque d’échantillons humains et de données connexes n’est pas une pratique récente. Toutefois, dans les dernières décennies, ce phénomène a pris une ampleur sans précédent avec la création des biobanques populationnelles. Défini comme étant des infrastructures de recherche conçues pour durer plusieurs décennies, ce type de biobanques invite des milliers et, dans certains cas, des centaines de milliers de personnes à y participer en fournissant des échantillons, en se soumettant à des tests physiques et biochimiques, et en répondant à diverses questions sur leur santé et leur environnement sociodémographique. Mais quelles sont les obligations des biobanques et de leurs chercheurs face aux participants? Considérant leur longue durée, quel est l’encadrement juridique de ces biobanques populationnelles au Québec? Ce sont les deux questions que pose ce mémoire. Quant à l’encadrement, nous utilisons trois axes d’analyse : i) les lois, les règlements, la déontologie professionnelle et les normes applicables; ii) la qualification juridique de l’acte de mise en banque d’échantillons et de données; et iii) les obligations découlant de la nature même de l’objet de la relation juridique. Notre analyse révèle que cet encadrement est une mosaïque législative, contractuelle, déontologique et normative qui, malgré ses complexités et ses défis d’accessibilité pour les participants, assure une certaine protection pour ces derniers. Quant aux obligations incombant à la biobanque et à ses chercheurs, elles sont pour la majorité teintées par des caractéristiques particulières aux biobanques populationnelles. Ainsi, il existe des défis particuliers en ce qui concerne notamment le consentement, le devoir d’information, le retour de résultats et la sécurité des échantillons et des données. Étant donné la nature évolutive de ces obligations, nous proposons une approche basée sur le meilleur intérêt du participant pour déterminer la nature et l’intensité des obligations incombant à une biobanque et à ses chercheurs.
Resumo:
Les immigrants qualifiés rencontrent plusieurs obstacles sur le marché du travail au Québec. Parmi les plus importants, selon les employeurs, on note leur manque d’expérience québécoise. Le Programme d’aide à l’intégration des immigrants et minorités visibles en emploi (PRIIME), géré par Emploi-Québec, veut combler cette lacune en offrant aux immigrants une expérience québécoise dans leur domaine de qualification. Cette recherche a donc pour but d’examiner dans quelle mesure un programme d’immersion professionnelle tel que le PRIIME permet une meilleure intégration des immigrants qualifiés dans leur domaine et de voir si celle-ci se poursuit à la suite du programme. L’approche qualitative permet de mieux comprendre les différents points de vue : employeurs, immigrants et intervenants au PRIIME. On observe que la participation des immigrants au PRIIME permet de réduire leur degré de déqualification en emploi, mais pas complètement. Ainsi elle permet souvent de retrouver un emploi lié au domaine de formation, mais en dessous du niveau de qualifications des immigrants. Le PRIIME rend également possible un maintien en emploi, sauf que l’effet n’est observé qu’à court terme. De plus, la participation au programme ne suffit pas pour que l’immigrant soit en mesure de contrer les obstacles à l’intégration professionnelle, car les quatre volets principaux du PRIIME sont très rarement appliqués ensemble dans une entreprise. Finalement, dans la perspective des marchés transitionnels de travail, la participation au PRIIME représente une « transition critique » offrant aux immigrants une meilleure intégration professionnelle à long terme. En somme, nous concluons que le PRIIME réduit uniquement le degré de déqualification des immigrants en les rapprochant de leur domaine de formation. Toutefois, il ne tient pas compte du niveau d’éducation de la personne. Même avec le PRIIME, plusieurs immigrants se voient forcés de recommencer leur carrière.
Resumo:
Travail réalisé en cotutelle (Université de Paris IV-La Sorbonne).
Resumo:
Codirection: Dr. Gonzalo Lizarralde
Resumo:
Nous avons observé une augmentation ‘’transient’’du taux de cristallisation interfacique de l’a-Si lorsqu’on réimplante du Si à proximité de l’interface amorphe/cristal. Après amorphisation et traitement thermique à 650°C pendant 5s de la couche a-Si crée par implantation ionique, une partie a été réimplantée. Les défauts produits par auto-réimplantation à 0.7MeV se trouvent à (302±9) nm de l’interface initiale. Cela nous a permis d’étudier d’avantage la variation initiale de la vitesse SPE (Épitaxie en phase solide). Avec des recuit identiques de 4h à 500°C, nous avons déterminé les positions successives des interfaces et en déduit les taux de cristallisation SPE. La cristallisation débute à l’interface et continue graduellement vers la surface. Après le premier recuit, (252±11) nm s’est recristallisé dans la zone réimplantée soit un avancement SPE de 1.26x10^18at./cm2. Cette valeur est environ 1.50 fois plus importante que celle dans l’état relaxé. Nous suggérons que la présence de défauts à proximité de l’interface a stimulé la vitesse initiale. Avec le nombre de recuit, l’écart entre les vitesses diminue, les deux régions se cristallisent presque à la même vitesse. Les mesures Raman prises avant le SPE et après chaque recuit ont permis de quantifier l’état de relaxation de l’a-Si et le transfert de l’état dé-relaxé à relaxé.