957 resultados para Microhardness tester
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La consommation de poisson et de mammifères marins représente une source importante d’acides gras oméga-3 connus pour leurs effets bénéfiques sur le développement des fonctions cérébrales et notamment, sur le développement du système visuel. Afin de tester l’hypothèse selon laquelle l’exposition prénatale aux acides gras oméga-3 a des effets bénéfiques à long terme, nous avons examiné les fonctions visuelles chez des enfants Inuits d’âge scolaire exposés à de grandes quantités d’oméga-3 durant la période de gestation. Des enfants Inuits (n = 136; moyenne d’âge = 11.3 ans) du nord du Québec (Nunavik) ont participé à cette étude. Un protocole de potentiels évoqués visuels (PEVs) utilisant des stimuli en couleur et en mouvement a été employé afin d’appréhender les réponses parvo- et magnocellulaires respectivement. Les concentrations d’acide docosahexaénoïque (ADH) ont été mesurées à la naissance à partir du sang de cordon ombilical et au moment du testing, reflétant ainsi les expositions pré- et post-natales. Les relations entre les niveaux sanguins d’ADH et les PEVs ont été examinées à l’aide d’analyses de régression multiples, en tenant compte des contaminants environnementaux et d’autres variables potentiellement confondantes. Aucune association significative n’a été trouvée en ce qui concerne les stimuli de mouvement. Cependant, après ajustement pour les covariables, les concentrations d’ADH à la naissance étaient associées à une latence plus courte des composantes N1 et P1 des PEVs couleur. Notre étude démontre, pour la première fois, des effets bénéfiques de l’exposition prénatale à l’ADH sur le système parvocellulaire à l’âge scolaire.
Resumo:
La réparation par excision de nucléotides (NER) est une voie critique chez l'homme pour enlever des lésions qui déforment l’hélice d'ADN et qui bloquent à la fois la réplication et la transcription. Parmi ces lésions, il y a les dimères cyclobutyliques de pyrimidines (CPDs) et les adduits pyrimidine (6-4) pyrimidone (6-4PPs) induient par les rayons ultraviolets. L'importance physiologique de la NER est mise en évidence par l’existence de la maladie Xeroderma pigmentosum (XP), causée par des mutations affectant des gènes impliqués dans cette voie de réparation. Les personnes atteintes sont caractérisées par une photosensibilité extrême et une forte prédisposition à développer des tumeurs cutanées (plus de 1000 fois). Les patients atteints du type variant de la maladie Xeroderma pigmentosum (XPV), apparemment compétents en réparation, portent plutôt des mutations dans le gène codant pour l'ADN polymérase η (polη). Polη est une ADN polymérase translésionnelle capable de contourner avec une grande fidélité certaines lésions telles que les CPDs, qui autrement bloquent les polymérases réplicatives. Ainsi, la polη prévient la formation de mutations et permet la reprise de la synthèse d'ADN. L'objectif principal de cette thèse est d'évaluer le rôle potentiel de voies de signalisation majeures dans la régulation de la NER, dont celles régulées par la kinase ATR (Ataxia Télangiectasia and Rad3-related kinase). Suite à l'irradiation UV, ATR est rapidement activée et phosphoryle des centaines de protéines qui régulent les points de contrôle du cycle cellulaire et joue un rôle notoire dans le maintient de la stabilité génomique. Nous avons postulé qu’ATR puisse réguler la NER de manière dépendante du cycle cellulaire. Cependant, tester cette hypothèse représente un grand défi car, pour des raisons techniques, les méthodes conventionnelles n’ont pas à ce jour été adaptées pour l'évaluation de la cinétique de réparation au cours des différentes phases du cycle cellulaire. Nous avons donc développé une méthode novatrice basée sur la cytométrie en flux permettant de quantifier avec grande précision la cinétique de réparation des 6-4PPs et CPDs dans chacune des phases G0/G1, S et G2/M. Avec cette nouvelle méthode, nous avons pu démontrer que l'inhibition d'ATR ou polη résulte en une très forte inhibition de la NER exclusivement durant la phase S du cycle cellulaire. Ces études ont révélé, pour la première fois, une fonction critique pour ces protéines dans le retrait des lésions qui bloquent la réplication. En outre, nous avons démontré que la synthèse d'ADN est indispensable pour l’inhibition de la réparation en phase-S, reflétant un lien potentiel entre la NER et la réplication. Curieusement, nous avons également montré que parmi six lignées cellulaires tumorales choisies aléatoirement, trois présentent une abrogation totale de la NER uniquement pendant la phase S, ce qui indique que de nombreux cancers humains pourraient être caractérisés par un tel défaut. Nos observations pourraient avoir d'importantes implications pour le traitement du cancer. En effet, le statut de la NER semble constituer un déterminant majeur dans la réponse clinique aux médicaments chimiothérapeutiques tels que le cisplatine, qui inhibent la croissance des cellules cancéreuses via l'induction de lésions à l’ADN.
Resumo:
La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.
Resumo:
Les émotions jouent un rôle primordial dans les processus cognitifs et plus particulièrement dans les tâches d’apprentissage. D’ailleurs, plusieurs recherches neurologiques ont montré l’interrelation qui existe entre la cognition et les émotions. Elles ont aussi déterminé plusieurs formes d’intelligence humaine autre que l’intelligence rationnelle parmi lesquelles nous distinguons la forme ayant comme dimension émotionnelle, à savoir l’intelligence émotionnelle, vu son impact sur les processus d’apprentissage. L’intelligence émotionnelle est alors un facteur significatif de réussite scolaire et professionnelle. Sous la lumière de ces constatations présentées, les informaticiens à leur tour, vont alors tenter de consentir de plus en plus de place au facteur émotionnel dans les systèmes informatiques et plus particulièrement dans ceux dédiés à l’apprentissage. L’intégration de l’intelligence émotionnelle dans ces systèmes et plus précisément, dans les Systèmes Tutoriels Intelligents (STI), va leur permettre de gérer les émotions de l’apprenant et par la suite améliorer ses performances. Dans ce mémoire, notre objectif principal est d’élaborer une stratégie d’apprentissage visant à favoriser et accentuer la mémorisation chez les enfants. Pour atteindre cet objectif, nous avons développé un cours d’anglais en ligne ainsi qu’un tuteur virtuel utilisant des ressources multimédia tels que le ton de la voix, la musique, les images et les gestes afin de susciter des émotions chez l’apprenant. Nous avons conduit une expérience pour tester l’efficacité de quelques stratégies émotionnelles ainsi qu’évaluer l’impact des émotions suscitées sur la capacité de mémorisation des connaissances à acquérir par l’apprenant. Les résultats de cette étude expérimentale ont prouvé que l’induction implicite des émotions chez ce dernier a une influence significative sur ses performances. Ils ont également montré qu’il n’existe pas une stratégie efficace pour tous les apprenants à la fois, cependant l’efficacité d’une telle stratégie par rapport à une autre dépend essentiellement du profil comportemental de l’apprenant déterminé à partir de son tempérament.
Resumo:
La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.
Resumo:
Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.
Resumo:
Selon plusieurs auteurs, l’intelligence générale et les traits de personnalité sont des construits fondamentaux nécessaires à l’adaptation psychosociale des individus. Bien que plusieurs études menées à partir d’échantillons d’adultes aient démontré des liens significatifs entre ces deux construits, peu d’entre elles ont tenté de vérifier si ces relations pouvaient être observées aussi chez les adolescents. De plus, un nombre très restreint d’études ont étudié la question de savoir si les relations entre l’intelligence générale et les traits de personnalité étaient significatives de façon prospective avec un intervalle de temps entre les évaluations. Enfin, les études disponibles ne permettent pas de déterminer si les relations entre l’intelligence générale et les traits de personnalité sont différentes selon le sexe. La présente étude visait à combler ces vides. Les objectifs étaient, d’une part, de déterminer s’il existe des relations prédictives concurrentes et prospectives entre l’intelligence générale et les traits de personnalité chez les adolescents et, d’autre part, de vérifier si ces relations sont différentes entre les garçons et les filles. Les données utilisées proviennent de l’étude longitudinale de la Stratégie d’intervention agir autrement (SIAA). Un large échantillon d’adolescents évalués une première fois en secondaire un et réévalués à nouveau quatre ans plus tard en secondaire cinq a été employé. À la première vague de collecte de données, seule l’intelligence générale a été évaluée, tandis qu’à la deuxième vague, autant l’intelligence générale que les traits de personnalité l’ont été. La modélisation par équations structurales sur des variables latentes a été utilisée pour tester les différentes hypothèses de recherche. Les résultats ont démontré que, sur le plan concurrent, l’intelligence générale et tous les traits de personnalité considérés sont reliés significativement de façon positive, ce qui va partiellement à l’encontre des données obtenues à partir des échantillons d’adultes. Sur le plan prospectif, les résultats ont confirmé que les corrélations diminuent avec le temps, et ce, pour presque tous les traits étudiés. Finalement, les modèles d’équations structurales multi-groupes ont confirmé la présence de différences significatives entre les garçons et les filles pour certains traits de personnalité. Dans l’ensemble, bien que plusieurs résultats de la présente étude obtenus à partir d’un échantillon d’adolescents soient conformes à ceux observés auprès d’échantillons d’adultes, certaines différences intéressantes sont observées.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La présente recherche a comme premier objectif d’étudier l’effet de la formation des ressources humaines sur la performance organisationnelle. Le concept de formation des ressources humaines, tel que considérée ici, comporte deux dimensions : l’intensité et l’incidence de la formation mesurées respectivement par la proportion des coûts investis et par la proportion d’employés formés. Les dimensions de la performance organisationnelle retenues sont la productivité et la rentabilité financière. Le second objectif de cette recherche est d’étudier l’effet modérateur du roulement du personnel dans la relation entre la formation et la performance organisationnelle. Les données de la présente recherche sont de nature secondaire. Il s’agit des données colligées par Jalette (1998) auprès de la Fédération des Caisses Desjardins de Montréal et de l’Ouest-du-Québec pour sa thèse de doctorat. Au total, 288 caisses ont été considérées pour la présente étude. Les analyses de régression multiple ont été effectuées dans le but de vérifier l’effet de chaque dimension de la formation sur chaque dimension de la performance organisationnelle. Quatre analyses de régression hiérarchiques nous ont permis de tester l’effet modérateur du roulement du personnel dans la relation entre la formation des ressources humaines et la performance organisationnelle. Les résultats de cette recherche indiquent que les relations examinées sont plus complexes qu’il n’y paraissait à première vue. Tout d’abord, l’effet de la formation sur la performance organisationnelle n’était pas significatif ou allait dans le sens contraire de nos attentes. Par contre, un effet modérateur significatif du roulement du personnel a été identifié dans trois régressions. Ainsi, la relation négative entre l’intensité de la formation et la rentabilité financière est moins prononcée dans un milieu où le roulement est élevé que dans un milieu où il est faible. Aussi, dans un milieu où le roulement est élevé, la relation entre l’incidence de la formation et la productivité est positive tandis qu’elle est négative dans un contexte où le roulement est bas. Ces deux effets modérateurs vont cependant dans le sens contraire à celui attendu. Cependant, l’hypothèse huit a été vérifiée : ainsi, dans un contexte où le roulement du personnel est élevé, la relation entre l’incidence de la formation et la rentabilité financière est négative tandis qu’elle est positive dans un contexte où le roulement est bas.
Resumo:
This article is an excellent example of applied ethics in public health policy development.
Resumo:
Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.
Resumo:
Dans ce travail, nous explorons la faisabilité de doter les machines de la capacité de prédire, dans un contexte d'interaction homme-machine (IHM), l'émotion d'un utilisateur, ainsi que son intensité, de manière instantanée pour une grande variété de situations. Plus spécifiquement, une application a été développée, appelée machine émotionnelle, capable de «comprendre» la signification d'une situation en se basant sur le modèle théorique d'évaluation de l'émotion Ortony, Clore et Collins (OCC). Cette machine est apte, également, à prédire les réactions émotionnelles des utilisateurs, en combinant des versions améliorées des k plus proches voisins et des réseaux de neurones. Une procédure empirique a été réalisée pour l'acquisition des données. Ces dernières ont fourni une connaissance consistante aux algorithmes d'apprentissage choisis et ont permis de tester la performance de la machine. Les résultats obtenus montrent que la machine émotionnelle proposée est capable de produire de bonnes prédictions. Une telle réalisation pourrait encourager son utilisation future dans des domaines exploitant la reconnaissance automatique de l'émotion.
Resumo:
Les études mettent en évidence des problèmes de santé psychologique chez les professionnels de la santé. Par contre, les facteurs permettant d’expliquer ces difficultés sont peu connus (p. ex., Cohen & Patten, 2005). Le but de cette thèse est d’étudier les déterminants de la santé psychologique des professionnels de la santé en se basant sur une théorie validée empiriquement. À cette fin, la théorie de l’autodétermination (Deci & Ryan, 1985, 2000) est utilisée comme cadre conceptuel et le soutien à l’autonomie (Black & Deci, 2000; Grolnick & Ryan, 1989) est proposé comme déterminant principal de la santé psychologique. Le premier article consiste en une recension des conséquences et corrélats associés au soutien à l’autonomie dans divers domaines de vie. Le deuxième article a pour objectif de tester un modèle prédictif de la santé psychologique auprès de médecins résidents. Le modèle propose que la concordance des tâches (Sheldon & Elliot, 1999) et la conscience de soi (Goldman & Kernis, 2002) sont deux sources distinctes d’autonomie qui prédisent de façon indépendante la santé psychologique. De plus, le soutien à l’autonomie de la part des superviseurs est suggéré comme étant un déterminant important de la concordance des tâches et de la conscience de soi. Au total, 333 médecins résidents de la province de Québec (Canada) ont rempli un questionnaire comportant différentes mesures. Des analyses par équations structurelles révèlent une excellente adéquation du modèle. Le troisième article examine l’influence du soutien à l’autonomie des collègues sur la satisfaction au travail ainsi que sur la santé psychologique des professionnels de la santé. Au total, 597 jeunes professionnels de la santé ont rempli un questionnaire incluant diverses mesures. Les résultats confirment que le soutien à l’autonomie perçu de la part des collègues prédit la santé psychologique et la satisfaction au travail. De plus, des régressions hiérarchiques démontrent que le soutien à l’autonomie des collègues contribue à la prédiction de la satisfaction au travail, du bien-être subjectif et des idéations suicidaires au-delà de ce qui est prédit par le soutien à l’autonomie des superviseurs. Les implications théoriques et pratiques de ces recherches sont discutées.
Resumo:
The growing epidemic of allergy and allergy-induced asthma poses a significant challenge to population health. This article, written for a target audience of policy-makers in public health, aims to contribute to the development of policies to counter allergy morbidities by demonstrating how principles of social justice can guide public health initiatives in reducing allergy and asthma triggers. Following a discussion of why theories of social justice have utility in analyzing allergy, a step-wise policy assessment protocol formulated on Rawlsian principles of social justice is presented. This protocol can serve as a tool to aid in prioritizing public health initiatives and identifying ethically problematic policies that necessitate reform. Criteria for policy assessment include: 1) whether a tentative public health intervention would provide equal health benefit to a range of allergy and asthma sufferers, 2) whether targeting initiatives towards particu- lar societal groups is merited based on the notion of ‘worst-off status’ of certain population segments, and 3) whether targeted policies have the potential for stigmatization. The article concludes by analyzing three examples of policies used in reducing allergy and asthma triggers in order to convey the general thought process underlying the use of the assessment protocol, which public health officials could replicate as a guide in actual, region-specific policy development.