984 resultados para Réseau du mode par défaut


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper studies the proposition that an inflation bias can arise in a setup where a central banker with asymmetric preferences targets the natural unemployment rate. Preferences are asymmetric in the sense that positive unemployment deviations from the natural rate are weighted more (or less) severely than negative deviations in the central banker's loss function. The bias is proportional to the conditional variance of unemployment. The time-series predictions of the model are evaluated using data from G7 countries. Econometric estimates support the prediction that the conditional variance of unemployment and the rate of inflation are positively related.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La lecture numérique prend de plus en plus de place dans l'espace global de la lecture des étudiants. Bien que les premiers systèmes de lecture numérique, communément appelés livres électroniques, datent déjà de plusieurs années, les opinions quant à leur potentiel divergent encore. Une variété de contenus universitaires numériques s’offre aujourd’hui aux étudiants, entraînant par le fait même une multiplication d'usages ainsi qu'une variété de modes de lecture. Les systèmes de lecture numérique font maintenant partie intégrante de l’environnement électronique auquel les étudiants ont accès et méritent d’être étudiés plus en profondeur. Maintes expérimentations ont été menées dans des bibliothèques publiques et dans des bibliothèques universitaires sur les livres électroniques. Des recherches ont été conduites sur leur utilisabilité et sur le degré de satisfaction des lecteurs dans le but d’en améliorer le design. Cependant, très peu d’études ont porté sur les pratiques de lecture proprement dites des universitaires (notamment les étudiants) et sur leurs perceptions de ces nouveaux systèmes de lecture. Notre recherche s’intéresse à ces aspects en étudiant deux systèmes de lecture numérique, une Tablet PC (dispositif nomade) et un système de livres-Web, NetLibrary (interface de lecture intégrée à un navigateur Web). Notre recherche étudie les pratiques de lecture des étudiants sur ces systèmes de lecture numérique. Elle est guidée par trois questions de recherche qui s’articulent autour (1) des stratégies de lecture employées par des étudiants (avant, pendant et après la lecture), (2) des éléments du système de lecture qui influencent (positivement ou négativement) le processus de lecture et (3) des perceptions des étudiants vis-à-vis la technologie du livre électronique et son apport à leur travail universitaire. Pour mener cette recherche, une approche méthodologique mixte a été retenue, utilisant trois modes de collecte de données : un questionnaire, des entrevues semi-structurées avec les étudiants ayant utilisé l’un ou l’autre des systèmes étudiés, et le prélèvement des traces de lecture laissées par les étudiants dans les systèmes, après usage. Les répondants (n=46) étaient des étudiants de l’Université de Montréal, provenant de trois départements (Bibliothéconomie & sciences de l’information, Communication et Linguistique & traduction). Près de la moitié d’entre eux (n=21) ont été interviewés. Parallèlement, les traces de lecture laissées dans les systèmes de lecture par les étudiants (annotations, surlignages, etc.) ont été prélevées et analysées. Les données des entrevues et des réponses aux questions ouvertes du questionnaire ont fait l'objet d'une analyse de contenu et un traitement statistique a été réservé aux données des questions fermées du questionnaire et des traces de lecture. Les résultats obtenus montrent que, d’une façon générale, l’objectif de lecture, la nouveauté du contenu, les habitudes de lecture de l’étudiant de même que les possibilités du système de lecture sont les éléments qui orientent le choix et l’application des stratégies de lecture. Des aides et des obstacles à la lecture ont été identifiés pour chacun des systèmes de lecture étudiés. Les aides consistent en la présence de certains éléments de la métaphore du livre papier dans le système de lecture numérique (notion de page délimitée, pagination, etc.), le dictionnaire intégré au système, et le fait que les systèmes de lecture étudiés facilitent la lecture en diagonale. Pour les obstacles, l’instrumentation de la lecture a rendu l’appropriation du texte par le lecteur difficile. De plus, la lecture numérique (donc « sur écran ») a entraîné un manque de concentration et une fatigue visuelle notamment avec NetLibrary. La Tablet PC, tout comme NetLibrary, a été perçue comme facile à utiliser mais pas toujours confortable, l’inconfort étant davantage manifeste dans NetLibrary. Les étudiants considèrent les deux systèmes de lecture comme des outils pratiques pour le travail universitaire, mais pour des raisons différentes, spécifiques à chaque système. L’évaluation globale de l’expérience de lecture numérique des répondants s’est avérée, dans l’ensemble, positive pour la Tablet PC et plutôt mitigée pour NetLibrary. Cette recherche contribue à enrichir les connaissances sur (1) la lecture numérique, notamment celle du lectorat universitaire étudiant, et (2) l’impact d’un système de lecture sur l’efficacité de la lecture, sur les lecteurs, sur l’atteinte de l’objectif de lecture, et sur les stratégies de lecture utilisées. Outre les limites de l’étude, des pistes pour des recherches futures sont présentées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Article

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le trouble du déficit de l’attention/hyperactivité (TDA/H) est un des troubles comportementaux le plus commun chez les enfants. TDAH a une étiologie complexe et des traitements efficaces. Le médicament le plus prescrit est le méthylphénidate, un psychostimulant qui bloque le transporteur de la dopamine et augmente la disponibilité de la dopamine dans la fente synaptique. Des études précliniques et cliniques suggèrent que le cortisol peut potentialiser les effets de la dopamine. Un dysfonctionnement du système hypothalamo-hypophyso-surrénalien (HHS) est associé avec plusieurs maladies psychiatriques comme la dépression, le trouble bipolaire, et l’anxiété. Nous avons fait l’hypothèse que le cortisol influence l’efficacité du traitement des symptômes du TDAH par le méthylphénidate. L’objectif de cette étude est de mesurer les niveaux de cortisol le matin au réveil et en réponse à une prise de sang dans un échantillon d’enfants diagnostiqué avec TDAH âgé de 8 ans. Le groupe était randomisé dans un protocole en chassé croisé et en double aveugle avec trois doses de méthylphénidate et un placebo pour une période de quatre semaines. Les enseignants et les parents ont répondu aux questionnaires SWAN et à une échelle d’évaluation des effets secondaires. Les résultats ont démontrés qu’un niveau de cortisol élevé au réveil prédit les sujets qui ne répondent pas au traitement du TDAH, si on se fie aux rapports des parents. En plus, la réactivité au stress élevé suggère un bénéfice additionnel d’une dose élevée de méthylphénidate selon les enseignants. Aussi, les parents rapportent une association entre la présence de troubles anxieux co-morbide avec le TDAH et une meilleure réponse à une dose élevée. Cette étude suggère qu’une forte réactivité de l’axe HHS améliore la réponse clinique à des doses élevées, mais qu’une élévation chronique du niveau de cortisol pourrait être un marqueur pour les non répondeurs. Les résultats de cette étude doivent être considérés comme préliminaires et nécessitent des tests plus approfondis des interactions possibles entre les médicaments utilisés pour traiter le TDAH et l’axe HHS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’appropriation de la thématique du multiculturalisme par les partisans du républicanisme fait l’objet de cet article. Dans un premier temps, il est permis de se demander si l’idée même d’un multiculturalisme républicain fait sens ; mais comme je le montrerai, le refus d’un projet multiculturel républicain est une exception française. Or, chez les penseurs néo-républicains, tels Philip Pettit, John Maynor et Cécile Laborde, le multiculturalisme a reçu une attention particulière. Je montrerai les particularités de chacune de ces approches et en particulier, comment les travaux de Laborde arrivent à résoudre des tensions que la pensée néo-républicaine entretient avec la reconnaissance de la diversité culturelle, en ajoutant une perspective critique à la voie délibérative ouverte par Maynor. L’originalité du multiculturalisme républicain consiste ainsi à rappeler le caractère instrumental de la politisation des identités minoritaires, puisqu’il s’agit à chaque fois de lutter contre l’assignation identitaire que subissent les membres des minorités, et non pas de valoriser publiquement leurs différences.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'évolution des soins médicaux auprès de la population ayant une lésion médullaire (LM) s'est traduite par une amélioration du profil fonctionnel des personnes atteintes. Ainsi une proportion importante retrouve une capacité à se tenir debout et à marcher qu'il convient d'évaluer adéquatement. Si quelques outils spécifiques à la population lésée médullaire existent pour évaluer leur ambulation, aucune évaluation de l'équilibre debout n'a été validée auprès de cette clientèle. L'échelle de Berg est un outil recommandé auprès de diverses populations, entre autres celles possédant des pathologies d'origine neurologique; et le score obtenu semble lié au niveau d'autonomie à la marche ainsi qu'aux aides techniques utilisées. L'objectif de ce projet de recherche était donc d'établir la validité concomitante de l'échelle de Berg auprès de la population LM et d'explorer les liens entre le score Berg et l'aide technique utilisée. Pour ce faire, trente-deux sujets BM ASIA D ont été recrutés parmi la clientèle hospitalisée de l'Institut de réadaptation Gingras-Lindsay de Montréal. L'évaluation de l'équilibre debout a été réalisée à l'aide de l'échelle de Berg ainsi que des tests statiques, dynamiques et des limites de stabilité du Balance Master. Le Walking Index for Spinal Cord Injury (WISCI), le Spinal Cord Injury Functional Ambulation Inventory (SCI-FAI), la vitesse de marche sur 10m et le Timed up and go ont été utilisés pour évaluer l'ambulation. Des analyses descriptives et corrélatives ont été effectuées sur les données obtenues. Une corrélation forte (0.714du Balance Master (-0.752du Balance Master ont révélé de plus faibles corrélations avec les diverses mesures cliniques (-0.444du Balance Master ont indiqué une relation équivoque avec l'échelle de Berg, n'étant reliées significativement qu'avec certaines épreuves en antéropostérieur (3 et 1s; -0.590du Berg par comparaison aux sujets paraplégiques. Pour les résultats reliés aux aides techniques, l’analyse des données descriptives révèlent que le score Berg permet généralement de faire la distinction entre les personnes indépendantes d'aides techniques, les utilisateurs de marchettes de béquilles ou de cannes, et ce, particulièrement pour les personnes paraplégiques. Cette étude a permis de documenter la validité concomitante de l'échelle de Berg auprès des personnes LM ayant une lésion incomplète (ASIA D) étant donné les relations élevées démontrées entre les paramètres de la marche et les résultats à certains tests du Balance Master. En somme, la présente étude permet de recommander l'utilisation de l'échelle de Berg pour évaluer l'équilibre debout des personnes LM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les pulsateurs compacts sont des étoiles présentant des variations intrinsèques de luminosité dont les gravités de surface sont supérieures à 100,000 cm/s² On retrouve parmi ces objets deux familles des sous-naines chaudes de type B (sdB) pulsantes et quatre familles distinctes de naines blanches pulsantes. Dans le but d'observer les pulsations de tels objets pour ensuite analyser leur propriétés grâce à l'astéroséismologie, l'Université de Montréal, en collaboration avec le Imaging Technology Laboratory (ITL - University of Arizona), a développé la caméra Mont4K (Montreal4K) CCD qui est, depuis le printemps 2007, le principal détecteur employé au télescope Kuiper de 1.55 m du Mt Bigelow (Steward Observatory, University of Arizona). à l'aide de ce montage, des observations ont été menées pour quelques-uns de ces pulsateurs compacts. La première cible fut HS 0702+6043, un pulsateur hybride. Une importante mission pour cet objet, réalisée du 1er novembre 2007 au 14 mars 2008, a permis d'identifier 28 modes de pulsations pour cet objet en plus de mettre en évidence pour certains de ces modes d'importantes variations d'amplitude. Deux autres cibles furent les naines blanches pulsantes au carbone de type « Hot DQ » SDSS J220029.08-074121.5 et SDSS J234843.30-094245.3. Il fut possible de montrer de façon indirecte la présence d'un fort champ magnétique à la surface de J220029.08-074121.5 grâce à la présence de la première harmonique du mode principal. En outre, pour ces deux cibles, on a pu conclure que celles-ci font bel et bien partie de la classe des naines blanches pulsantes au carbone.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les microcantileviers fonctionnalisés offrent une plateforme idéale pour la nano- et micro-mécanique et pour le développement de (bio-) capteurs tres sensible. Le principe d’opération consiste dans des évènements physicochimiques qui se passent du côté fonctionnalisé du microcantilevier induisant une différence de stress de surface entre les deux côtés du cantilevier qui cause une déflexion verticale du levier. Par contre, les facteurs et les phénomènes interfacials qui régissent la nature et l'intensité du stress de surface sont encore méconnus. Pour éclaircir ce phénomène, la première partie de cette thèse porte sur l'étude des réactions de microcantileviers qui sont recouverts d'or et fonctionnalisés par une monocouche auto-assemblée (MAA) électroactive. La formation d'une MAA de ferrocènylundécanethiol (FcC11SH) à la surface d'or d'un microcantilevier est le modèle utilisé pour mieux comprendre le stress de surface induit par l’électrochimie. Les résultats obtenus démontrent qu'une transformation rédox de la MAA de FcC11SH crée un stress de surface qui résulte dans une déflexion verticale du microcantilevier. Dépendamment de la flexibilité du microcantilevier, cette déflexion peut varier de quelques nanomètres à quelques micromètres. L’oxydation de cette MAA de FcC11SH dans un environnement d'ions perchlorate génère un changement de stress de surface compressive. Les résultats indiquent que la déflexion du microcantilevier est due à une tension latérale provenant d'une réorientation et d'une expansion moléculaire lors du transfért de charge et de pairage d’anions. Pour vérifier cette hypothèse, les mêmes expériences ont été répéteés avec des microcantileviers qui ont été couverts d'une MAA mixte, où les groupements électroactifs de ferrocène sont isolés par des alkylthiols inactifs. Lorsqu’un potentiel est appliqué, un courant est détecté mais le microcantilevier ne signale aucune déflexion. Ces résultats confirment que la déflexion du microcantilevier est due à une pression latérale provenant du ferrocènium qui se réorganise et qui crée une pression sur ses pairs avoisinants plutôt que du couplage d’anions. L’amplitude de la déflexion verticale du microcantilevier dépend de la structure moléculaire de la MAA et du le type d’anion utilisés lors de la réaction électrochimique. Dans la prochaine partie de la thèse, l’électrochimie et la spectroscopie de résonance de plasmon en surface ont été combinées pour arriver à une description de l’adsorption et de l’agrégation des n-alkyl sulfates à l’interface FcC11SAu/électrolyte. À toutes les concentrations de solution, les molécules d'agent tensio-actif sont empilées perpendiculairement à la surface d'électrode sous forme de monocouche condensé entrecroisé. Cependant, la densité du film spécifiquement adsorbé s'est avérée être affectée par l'état d'organisation des agents tensio-actifs en solution. À faible concentration, où les molécules d'agent tensio-actif sont présentes en tant que monomères solvatés, les monomères peuvent facilement s'adapter à l’évolution de la concentration en surface du ferrocènium lors du balayage du potential. Cependant, lorsque les molécules sont présentes en solution en tant que micelles une densité plus faible d'agent tensio-actif a été trouvée en raison de l'incapacité de répondre effectivement à la surface de ferrocenium générée dynamiquement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire analyse la stratégie d’affirmation de puissance mise en oeuvre par la Chine dans le contexte post-Guerre froide, caractérisé par la seule superpuissance des États-Unis, en utilisant le cadre théorique du réalisme offensif. Challenger désigné des États-Unis, la Chine a basculé dans le 21ème siècle avec un défi important à relever. La prépondérance américaine continue d’être une donnée essentielle dans le système politique mondial. Les États-Unis produisent plus du quart du total de l’économie mondiale et comptent pour près de la moitié des dépenses militaires. La Chine, de son côté, avec ses 1.3 milliards d’habitants, une croissance économique quasiexponentielle, dotée d’un arsenal nucléaire conventionnel, est la principale puissance émergente, avec le potentiel de rivaliser avec les États-Unis dans les affaires mondiales. Mais, vu l’énorme écart qui les sépare, pour la Chine la question de l’hégémonie américaine se pose sous la forme d’une équation dont la seule variable connue est le potentiel de l’adversaire à affronter. Le principal problème auquel la Chine est confrontée est dès lors sa capacité de penser une stratégie sans toutefois courir le risque de provoquer la seule superpuissance du globe. Par conséquent, cette étude analyse les politiques et actions stratégiques développées par la Chine à la lumière des contraintes que lui impose un environnement international peu favorable. Elle s’intéresse en particulier à la manière dont Beijing a su exploiter avec maestria une des armes les plus redoutables de l’ère post-Guerre froide, sa puissance économique, afin de consolider son ascension au rang de grande puissance. Elle soutient que, tenant compte d’un retard considérable à combler, la Chine a entrepris de balancer la superpuissance américaine d’une manière pragmatique. A cet effet, elle a conçu une stratégie qui comprend deux grands piliers : sur le plan interne, des réformes économiques et militaires ; sur le plan externe, une diplomatie agressive et efficace en adéquation avec ses ambitions de puissance. Nous concluons qu’une telle stratégie vise à éviter à la Chine pour le moment tout risque de confrontation directe qui aurait pour principal effet de nuire à son ascension. Cependant, à mesure que sa puissance s’accroît, elle pourrait afficher une posture plus agressive, quitte à engager également, avec la seule superpuissance du monde, des compétitions de nature sécuritaire en Asie et au-delà de cette région.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les études portant sur l’adéquation entre le niveau de formation des individus et celui requis pour l’emploi occupé se sont peu attardées à la dimension temporelle de cette relation. De plus, peu ont abordé la question chez les immigrants canadiens, et de surcroît chez les travailleurs immigrants sélectionnés du Québec. Une seule étude abordant le sujet sous un angle longitudinal a été recensée et se limite à l’accès des travailleurs qualifiés à un premier emploi correspondant à leur niveau de compétences. Cette thèse cherche à aller au-delà des premières transitions sur le marché du travail et vise à mieux comprendre l’évolution de la relation formation-emploi au fil du temps d’établissement. Plus spécifiquement, l’objectif y est de mieux circonscrire l’évolution de la relation formation-emploi au cours des premières années suivant l’arrivée du migrant, d’en identifier les déterminants, mais également de voir l’impact de cette relation sur d’autres dimensions de la qualité de l’emploi : le statut socioéconomique et le salaire. Afin de mieux comprendre les déterminants de l’occupation d’emplois correspondant à son niveau de compétences et d’emplois pour lesquels l’individu est suréduqué ainsi que leur impact respectif sur le statut d’emploi et le salaire, cette thèse considère l’apport de théories sociologiques et économiques. D’une part, différentes théories s’opposent quant au caractère temporaire ou permanent de la suréducation. Ce faisant, elles soulèvent l’impact potentiel des expériences en emploi passées sur le parcours futur et la nécessité d’une vision longitudinale de l’insertion professionnelle. D’autre part, d’autres approches soulèvent, en plus des déterminants individuels, le rôle du contexte social et institutionnel dans lequel l’individu s’insère. Ces différentes approches trouvent écho dans la perspective empirique du parcours de vie qui permet de considérer l’interrelation entre des facteurs micro, méso et macro sociaux et de se représenter les parcours biographiques au fil du temps. L'Enquête sur les travailleurs sélectionnés (ETS) a rendu possible l'étude des parcours en emploi de cette catégorie d'immigrant sélectionnée en fonction de son potentiel d'insertion à la société québécoise dans la mesure où celle-ci comporte à la fois des données administratives sur la situation prémigratoire des travailleurs immigrants, de même que de l'information datée sur chacun des emplois occupés après la migration. L’analyse a été effectuée en trois temps soit : une description du lien entre le niveau de formation et l’emploi, l’étude des déterminants de la relation formation-emploi et finalement, l’étude des salaires et effet de la relation formation-emploi sur ceux-ci. Chacun de ces trois volets est présenté sous forme d’articles soumis pour publication. Les résultats montrent que la proportion d’individus occupant des emplois correspondant à leur niveau de compétences augmente avec le temps passé dans la société d’accueil. Cependant, la suréducation demeure un phénomène présent chez la catégorie des travailleurs immigrants sélectionnés. À ce titre, les premières expériences en emploi sont déterminantes dans la mesure où elles ont un impact non seulement sur l’évolution de la relation formation-emploi, mais également sur les salaires et les statuts des emplois décrochés par les nouveaux arrivants. La grille de sélection, élément central du processus par lequel un candidat peut devenir immigrant au Québec, à travers les attributs des individus qu’elle retient, contribue aussi à façonner les parcours en emploi. La région de provenance des immigrants distingue également les immigrants entre eux, toutes choses égales par ailleurs. La majorité des groupes sont désavantagés lorsqu’ils sont comparés à leurs compatriotes de l’Europe de l’Ouest et des États-Unis, et ce désavantage perdure au fil des années. Cette thèse a démontré que l’insertion professionnelle et la relation formation-emploi sont des sujets se devant d’être abordés sous un angle longitudinal pour bien saisir la complexité des processus à l’œuvre. Au niveau social, les analyses auront permis de montrer l’importance de se pencher sur les services offerts aux immigrants pour les aider dans leur insertion professionnelle, surtout dans un contexte où des départs à la retraite massifs et des pénuries de main-d'œuvre qualifiée sont à prévoir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les fichiers qui accompagnent le document incluent une archive .jar du zoom-éditeur (qui peut être lancé via un browser) et des exemples de z-textes réalisés avec ce logiciel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire est consacré à la question de la réception spectatorielle des films en IMAX 3-D. Dans un premier temps, nous retracerons l’histoire du cinéma stéréoscopique, des origines jusqu’à l’inauguration de l’IMAX 3-D en 1986. Nous verrons que le modèle de l’attraction cinématographique s’est maintenu de tout temps dans l’économie de ce format, ce qui a contribué aux échecs de son institutionnalisation dans les années 50 et 80. En un deuxième temps, nous nous intéresserons à l’« expérience IMAX », afin de cerner la position qui y est attribuée au spectateur. Nous montrerons que les films IMAX misent à la fois sur leur potentiel immersif et sur la mise en évidence du dispositif. L’état d’immersion du spectateur entre donc en dialogue avec la réflexivité du médium. Par l’analyse des films Sea Monsters : A Prehistoric Adventure et Haunted Castle, il sera démontré que cette tension entre immersion et réflexivité sert un discours de glorification de l’IMAX. Aussi, nous interrogeons les liens entre la structure ponctuelle imposée par le modèle attractionnel et le fil narratif immanquablement mis en place dans les films IMAX.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La voix humaine constitue la partie dominante de notre environnement auditif. Non seulement les humains utilisent-ils la voix pour la parole, mais ils sont tout aussi habiles pour en extraire une multitude d’informations pertinentes sur le locuteur. Cette expertise universelle pour la voix humaine se reflète dans la présence d’aires préférentielles à celle-ci le long des sillons temporaux supérieurs. À ce jour, peu de données nous informent sur la nature et le développement de cette réponse sélective à la voix. Dans le domaine visuel, une vaste littérature aborde une problématique semblable en ce qui a trait à la perception des visages. L’étude d’experts visuels a permis de dégager les processus et régions impliqués dans leur expertise et a démontré une forte ressemblance avec ceux utilisés pour les visages. Dans le domaine auditif, très peu d’études se sont penchées sur la comparaison entre l’expertise pour la voix et d’autres catégories auditives, alors que ces comparaisons pourraient contribuer à une meilleure compréhension de la perception vocale et auditive. La présente thèse a pour dessein de préciser la spécificité des processus et régions impliqués dans le traitement de la voix. Pour ce faire, le recrutement de différents types d’experts ainsi que l’utilisation de différentes méthodes expérimentales ont été préconisés. La première étude a évalué l’influence d’une expertise musicale sur le traitement de la voix humaine, à l’aide de tâches comportementales de discrimination de voix et d’instruments de musique. Les résultats ont démontré que les musiciens amateurs étaient meilleurs que les non-musiciens pour discriminer des timbres d’instruments de musique mais aussi les voix humaines, suggérant une généralisation des apprentissages perceptifs causés par la pratique musicale. La seconde étude avait pour but de comparer les potentiels évoqués auditifs liés aux chants d’oiseaux entre des ornithologues amateurs et des participants novices. L’observation d’une distribution topographique différente chez les ornithologues à la présentation des trois catégories sonores (voix, chants d’oiseaux, sons de l’environnement) a rendu les résultats difficiles à interpréter. Dans la troisième étude, il était question de préciser le rôle des aires temporales de la voix dans le traitement de catégories d’expertise chez deux groupes d’experts auditifs, soit des ornithologues amateurs et des luthiers. Les données comportementales ont démontré une interaction entre les deux groupes d’experts et leur catégorie d’expertise respective pour des tâches de discrimination et de mémorisation. Les résultats obtenus en imagerie par résonance magnétique fonctionnelle ont démontré une interaction du même type dans le sillon temporal supérieur gauche et le gyrus cingulaire postérieur gauche. Ainsi, les aires de la voix sont impliquées dans le traitement de stimuli d’expertise dans deux groupes d’experts auditifs différents. Ce résultat suggère que la sélectivité à la voix humaine, telle que retrouvée dans les sillons temporaux supérieurs, pourrait être expliquée par une exposition prolongée à ces stimuli. Les données présentées démontrent plusieurs similitudes comportementales et anatomo-fonctionnelles entre le traitement de la voix et d’autres catégories d’expertise. Ces aspects communs sont explicables par une organisation à la fois fonctionnelle et économique du cerveau. Par conséquent, le traitement de la voix et d’autres catégories sonores se baserait sur les mêmes réseaux neuronaux, sauf en cas de traitement plus poussé. Cette interprétation s’avère particulièrement importante pour proposer une approche intégrative quant à la spécificité du traitement de la voix.