790 resultados para représentation
Resumo:
Dans cette thèse, nous présentons les problèmes d’échange de documents d'affaires et proposons une méthode pour y remédier. Nous proposons une méthodologie pour adapter les standards d’affaires basés sur XML aux technologies du Web sémantique en utilisant la transformation des documents définis en DTD ou XML Schema vers une représentation ontologique en OWL 2. Ensuite, nous proposons une approche basée sur l'analyse formelle de concept pour regrouper les classes de l'ontologie partageant une certaine sémantique dans le but d'améliorer la qualité, la lisibilité et la représentation de l'ontologie. Enfin, nous proposons l’alignement d'ontologies pour déterminer les liens sémantiques entre les ontologies d'affaires hétérogènes générés par le processus de transformation pour aider les entreprises à communiquer fructueusement.
Resumo:
Dans le cadre de ce mémoire, nous nous penchons sur les relations du travail (RT) dans les entreprises multinationales (EMs) ayant des opérations au Canada. Notre question de recherche est la suivante: « Le pays d’origine d’une entreprise multinationale a-t-il un impact sur les pratiques de relations du travail dans ses opérations canadiennes? » Deux thèses principales ont été élaborées afin d’expliquer les choix des EMs dans l’adoption et l’implantation de pratiques. La première thèse, celle de la diversité, tient pour acquis que plusieurs déterminants endogènes et exogènes à l’EM influencent ses pratiques (Mcgraw et Harley, 2003). Tant les caractéristiques du pays hôte que celles du pays d’origine influenceraient les choix de pratiques des EMs contribuant ainsi à leur diversité (Almond et al., 2005). Par exemple, certains chercheurs avancent que les EMs sont littéralement imprégnées des caractéristiques provenant du pays qui les a vues naître, qu’elles feraient littéralement partie de leur ADN affectant ainsi les pratiques qu’elles mettent en place dans leurs filiales à l’étranger (Berger, 2006). Par ailleurs, la thèse de la convergence soutient que les EMs auraient tendance à utiliser les mêmes pratiques en cette ère de mondialisation et d’hégémonie économique américaine (Mcgraw et Harley, 2003). Les tenants de cette thèse croient plutôt à une convergence des pratiques à travers les EMs en raison notamment de la vaste diffusion du modèle anglo-saxon de gestion, de l’approche des best pratices et du one best way (Mcgraw et Harley, 2003; Royle, 2006). Convergence ou divergence des pratiques? Le débat demeure entier dans la littérature. Outre sa contribution à ce débat, notre recherche permet d’en apprendre davantage sur le comportement des EMs étrangères au Canada, mais aussi d’examiner les spécificités des EMs canadiennes. Le modèle conceptuel développé par ce mémoire se base sur la thèse de la diversité en examinant plus particulièrement l’effet du pays d’origine. Selon la littérature, plusieurs variables influencent les pratiques des EMs, soit le pays d’origine (Almond et al., 2005; Kvinge et Ulrichsen, 2008; Marginson, 2008; Edwards et Ferner, 2002; Collings, 2003; Ferner, 1997, Moore et Rees, 2008; etc.) et les caractéristiques propres à l’EM (Bartlett et Ghosal, 1998; Kidger, 2002; Perlmutter, 1969; Edwards, 2003). Aux fins de notre recherche, notre variable dépendante, les pratiques de RT, comporte cinq dimensions, soit la reconnaissance syndicale des nouveaux établissements, la politique d’implication du syndicat, la perception à l’égard des représentants syndicaux, la structure de la négociation collective et l’autonomie de la filiale dans l’élaboration de politiques en matière de RT (Bélanger et al., 2006). L’hypothèse principale de notre recherche est : le pays d’origine d’une EM a un impact sur le choix des pratiques de RT dans ses opérations canadiennes. Cinq sous-hypothèses, touchant cinq dimensions du concept de RT, ont été testées : 1) les EMs américaines reconnaissent moins souvent le syndicat dans leurs nouveaux établissements que les EMs d’autres pays; 2) les EMs américaines ont une moins bonne perception patronale du syndicat que celles provenant d’autres pays; 3) les négociations collectives sont plus décentralisées dans les EMs américaines que dans celles d’autres pays; 4) les EMs américaines impliquent moins les syndicats dans la prise de décision que celles provenant d’autres pays; 5) l’autonomie dans l’élaboration de politiques concernant la représentation syndicale est plus faible dans les EMs américaines que dans les EMs d’autres pays. Sur le plan méthodologique, cette étude utilise des données secondaires provenant de l’Enquête sur la gestion des ressources humaines, les politiques publiques et la chaîne de valeur mondiale menée par Bélanger, Harvey, Jalette, Lévesque et Murray (2006). Nous étudions un sous-échantillon de la base de données, soit une centaine d’EMs dont les employés sont syndiqués. Les résultats indiquent que les opérations canadiennes des EMs canadiennes se différencient de celles des EMs américaines par une meilleure perception patronale des syndicats et une plus grande implication syndicale. De plus, les EMs européennes reconnaissent plus le syndicat dans leurs nouveaux établissements, perçoivent davantage de la collaboration de la part du syndicat et octroient une plus grande autonomie en matière de RT à leurs opérations canadiennes que les EMs américaines. Enfin, les opérations canadiennes des EMs du reste du monde se distinguent de celles des EMs américaines par une meilleure perception patronale de collaboration de la part du syndicat.
Resumo:
L’application aux civils du concept de « sortie de guerre » offre aux historiens de nouvelles pistes de recherche. Bien que la mobilisation culturelle de l’enfance dans la Grande Guerre ait fait l’objet de plusieurs études depuis les dernières années, le processus de démobilisation reste, quant à lui, peu exploré. Ce mémoire s’intéressera donc à la « sortie de guerre » chez les enfants français, à travers des sources inédites : des lettres adressées au président des États-Unis, Woodrow Wilson, à la fin de 1918. L’analyse met en lumière la perception des enfants sur la paix, la guerre, les Américains, et les changements de leur quotidien depuis l’armistice. Après une première partie historiographique, le deuxième chapitre portera sur la représentation de Wilson, des Américains et de la paix. Dans le dernier chapitre seront analysés le quotidien des enfants dans les mois suivant l’armistice, les représentations de la guerre et le processus de démobilisation. Fin 1918, la guerre tient encore beaucoup de place dans les propos des enfants et peu de signes de démobilisation émergent de leurs lettres. Ainsi, le président américain est représenté comme le sauveur de la France et le grand vainqueur de la guerre plutôt qu’en apôtre de la paix. Le sujet principal des lettres porte ainsi sur la reconnaissance et la gratitude des enfants envers le président et les États-Unis pour leur participation à la guerre et pour l’aide à la victoire. Les valeurs et le passé communs entre les deux pays alliés, exploités par la propagande de guerre, sont soulignés par les enfants. La fin de la guerre commence à peine à se faire ressentir dans le quotidien des enfants. La période est marquée par les célébrations de la victoire. De plus, la peur tend à s’atténuer avec la fin des violences de guerre et des nouveaux deuils. Les perturbations de la guerre demeurent cependant chez plusieurs enfants, particulièrement chez les réfugiés et les orphelins de guerre : la pauvreté, les séparations familiales et les privations alimentaires en affectent ainsi plusieurs. La perpétuation de ce climat de guerre influence la démobilisation des enfants, qui manifestent leur patriotisme et leur haine de l’ennemi. Les représentations de l’ennemi et des combattants du temps de la guerre prévalent donc encore, mais les enfants expriment néanmoins leur lassitude du conflit et leur désir d’un rapide retour à la normale.
Resumo:
Notre recherche s’intéresse à la transformation des rapports aux nombres rationnels d’élèves de 1re secondaire présentant des difficultés d’apprentissage. Comme le montrent plusieurs recherches, le défi majeur auquel sont confrontés les enseignants, ainsi que les chercheurs, est de ne pas s’enliser dans le cercle vicieux d’une réduction des enjeux de l’apprentissage des nombres rationnels et des possibilités d’apprentissage de l’élève en difficultés d’apprentissage, cet élève n’ayant pas ainsi la chance de mettre à l’épreuve ses connaissances, d’oser s’engager dans une démarche de construction de connaissances et d’apprécier les effets de son engagement cognitif. Afin de relever ce défi, nous avons misé sur l’intégration harmonieuse de situations problèmes. Il nous a semblé que, dans une démarche d’acculturation, l’approche écologique soit tout indiquée pour penser une «dé-transposition/re-transposition didactique» (Antibi et Brousseau, 2000) et reconstruire une mémoire porteuse d’espoirs (Brousseau et Centeno, 1998). Notre recherche vise à: 1) caractériser la progression des démarches d’acculturation institutionnelle de l’enseignant, du chercheur et des élèves et leurs effets sur les processus d’élaboration et de gestion des situations d’enseignement; 2) préciser l’évolution des connaissances, des habitus et des rapports des élèves aux nombres rationnels. Notre intégration en classe, d’une durée de 6 mois, nous a permis d’apprécier les effets du processus d’acculturation. Nous avons noté des changements importants dans la topogénèse et la chronogénèse des savoirs (Mercier, 1995); alors qu’à notre entrée, l’enseignante adoptait la démarche suivante, soit effectuer un exposé des savoirs et des démarches que les élèves devaient consigner dans leurs notes de cours, afin de pouvoir par la suite s’y référer pour effectuer des exercices et résoudre des problèmes, elle modifiait progressivement cette démarche en proposant des problèmes qui pouvaient permettre aux élèves de coordonner diverses connaissances et de construire ainsi des savoirs auxquels ils pouvaient faire référence dans la construction de leurs notes de cours qu’ils pouvaient par la suite consulter pour effectuer divers exercices. Nous avons également pu apprécier les effets de l’intégration de diverses représentations des nombres rationnels sur l’avancée du temps didactique (Mercier, 1995) et la transformation des rapports et habitus des élèves aux nombres rationnels (Bourdieu, 1980). Ces changements se sont manifestés, entre autres, par : a) un investissement important lors de situations complexes; b) l’adoption de pratiques mathématiques plus attentives aux données numériques et aux relations entre ces données; c) l’apparition de conduites « inusitées » [ex. coordination de divers registres sémiotiques,exploitation de compositions additives/multiplicatives et d’écritures non conventionnelles]. De telles conduites sont similaires à celles observées dans plusieurs recherches effectuées auprès d’une population d’élèves qui ne présentent pas de difficultés d’apprentissage (Moss et Case, 1999). Les résultats de notre recherche soutiennent donc l’importance indéniable de considérer les élèves en difficultés comme étant mathématiquement compétents, comme le soulignent Empson (2003) et Houssart (2002). Il nous semble enfin important de souligner que le travail sur la représentation des nombres rationnels a constitué une niche particulièrement fertile, pour un travail fondamental sur les nombres rationnels, travail qui puisse permettre aux élèves de poursuivre plus harmonieusement leurs apprentissages, les nombres rationnels étant des objets de savoir incontournables.
Resumo:
Ce mémoire porte sur le travail de l’intertextualité dans les quatre oeuvres que Jorge Semprun (1923-) a consacrées à ses souvenirs de déportation au camp de Buchenwald : Le grand voyage (1963), Quel beau dimanche! (1980), L’écriture ou la vie (1994) et Le mort qu’il faut (2001). Chaque oeuvre poursuit la recherche d’un langage approprié à la narration d’une expérience qui résiste obstinément à sa représentation. L’intertextualité, de même que les réminiscences musicales, filmiques ou picturales, composent chez Semprun une image complexe de l’expérience du déporté, faisant coexister l’ombre et la lumière, l’angoisse et la joie, le mal radical et la fraternité, loin de tout cliché manichéen. Il s’agira ici de lire ce témoignage magnifique sur les camps nazis comme un dialogue profond entre l’art et la barbarie, la création et la destruction, la mémoire culturelle et la mémoire traumatique.
Resumo:
La présente étude propose d’éclairer la dynamique interactive de construction quotidienne de la culture du travail de rue. Tel qu’elle est présentée au premier chapitre, cette piste de recherche fait écho à différentes préoccupations soulevées par l’indétermination des conditions d’existence et d’exercice du travail de rue aux niveaux de la légitimation sociale de cette pratique, de sa consolidation organisationnelle, de son articulation méthodologique et de l’identification professionnelle de ses praticiens. Après avoir mis en relief les contraintes et défis engendrés par ces différentes formes d’incertitude, la problématique met en lumière l’opportunité de voir dans cette indétermination un révélateur des processus quotidiens de construction culturelle du travail de rue. Un deuxième chapitre présente le cadre théorique constructiviste, interactionniste et ethnométhodologique qui a inspiré la conception de la culture adoptée dans cette recherche. Un troisième chapitre résume la stratégie ethnographique de l’enquête de terrain menée dans l’univers du travail de rue par le biais d’une démarche d’observation participante d’une année au sein d’une équipe locale de travailleurs de rue et des espaces associatifs fréquentés par ces acteurs à l’échelle régionale, provinciale et internationale. Empruntant la métaphore dramaturgique d’Erving Goffman pour décrire « la mise en scène de la vie quotidienne » des travailleurs de rue, une deuxième section d’analyse des données décrit en trois chapitres les interactions sociales des travailleurs de rue dans les « coulisses » de leurs espaces entre pairs, « dans le décor du milieu » à la rencontre de leurs « publics » ainsi que lors de « représentation de leur rôle » en situation d’intervention. Recourant à des récits d’observation et à divers exemples, chacun de ces chapitres explicite les activités routinières et les conversations ordinaires qui prennent forme dans ces différents contextes d’interaction sociale. Le quatrième chapitre décrit la quotidienneté de ma propre incursion comme chercheure dans l’univers des travailleurs de rue et celle dont j’ai été témoin dans la dynamique de l’équipe qui m’a accueillie pendant une année sur une base hebdomadaire. Le cinquième chapitre raconte la vie de tous les jours ayant cours à travers l’intégration des travailleurs de rue sur le terrain et l’activation de leur rôle dans le milieu. Le sixième chapitre reflète différentes manières dont les travailleurs de rue s’inscrivent au quotidien dans des situations d’intervention avec les personnes du milieu et avec les acteurs de la communauté. Un septième chapitre dégage de la description de cet assemblage de routines et de codes de langage des travailleurs de rue une interprétation des processus et des produits de la « culturation » de cette pratique, c’est-à-dire une certaine lecture des processus interactifs de production de cette culture et de la constellation de significations produites et mobilisées par les acteurs impliqués.
Resumo:
La perception est décrite comme l’ensemble des processus permettant au cerveau de recueillir et de traiter l’information sensorielle. Un traitement perceptif atypique se retrouve souvent associé au phénotype autistique habituellement décrit en termes de déficits des habilités sociales et de communication ainsi que par des comportements stéréotypés et intérêts restreints. Les particularités perceptives des autistes se manifestent à différents niveaux de traitement de l’information; les autistes obtiennent des performances supérieures à celles des non autistes pour discriminer des stimuli simples, comme des sons purs, ou encore pour des tâches de plus haut niveau comme la détection de formes enchevêtrées dans une figure complexe. Spécifiquement pour le traitement perceptif de bas niveau, on rapporte une dissociation de performance en vision. En effet, les autistes obtiennent des performances supérieures pour discriminer les stimuli définis par la luminance et inférieures pour les stimuli définis par la texture en comparaison à des non autistes. Ce pattern dichotomique a mené à l’élaboration d’une hypothèse suggérant que l’étendue (ou complexité) du réseau de régions corticales impliquées dans le traitement des stimuli pourrait sous-tendre ces différences comportementales. En effet, les autistes obtiennent des performances supérieures pour traiter les stimuli visuels entièrement décodés au niveau d’une seule région corticale (simples) et inférieures pour les stimuli dont l’analyse requiert l’implication de plusieurs régions corticales (complexes). Un traitement perceptif atypique représente une caractéristique générale associée au phénotype autistique, avec de particularités rapportées tant dans la modalité visuelle qu’auditive. Étant donné les parallèles entre ces deux modalités sensorielles, cette thèse vise à vérifier si l’hypothèse proposée pour expliquer certaines particularités du traitement de l’information visuelle peut possiblement aussi caractériser le traitement de l’information auditive dans l’autisme. Le premier article (Chapitre 2) expose le niveau de performance des autistes, parfois supérieur, parfois inférieur à celui des non autistes lors du traitement de l’information auditive et suggère que la complexité du matériel auditif à traiter pourrait être en lien avec certaines des différences observées. Le deuxième article (Chapitre 3) présente une méta-analyse quantitative investiguant la représentation au niveau cortical de la complexité acoustique chez les non autistes. Ce travail confirme l’organisation fonctionnelle hiérarchique du cortex auditif et permet d’identifier, comme en vision, des stimuli auditifs pouvant être définis comme simples et complexes selon l’étendue du réseau de régions corticales requises pour les traiter. Le troisième article (Chapitre 4) vérifie l’extension des prédictions de l’hypothèse proposée en vision au traitement de l’information auditive. Spécifiquement, ce projet compare les activations cérébrales sous-tendant le traitement des sons simples et complexes chez des autistes et des non autistes. Tel qu’attendu, les autistes montrent un patron d’activité atypique en réponse aux stimuli complexes, c’est-à-dire ceux dont le traitement nécessitent l’implication de plusieurs régions corticales. En bref, l’ensemble des résultats suggèrent que les prédictions de l’hypothèse formulée en vision peuvent aussi s’appliquer en audition et possiblement expliquer certaines particularités du traitement de l’information auditive dans l’autisme. Ce travail met en lumière des différences fondamentales du traitement perceptif contribuant à une meilleure compréhension des mécanismes d’acquisition de l’information dans cette population.
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
À partir des années 90, parmi les transformations qu’entraine l’effondrement de l’Union soviétique à Cuba et au milieu des redéfinitions de la cubanité, apparaissent des œuvres narratives contre-discursives et actualisées sur la négritude, la race et le racisme. La représentation du Noir dans les romans de cette période prend toute sa signification du fait que se configure alors un champ de discussion dans lequel convergent différentes modalités et perceptions. Notre recherche explore le terrain discursif entourant les définitions de la cubanité et la négritude qui circulent à cette période à Cuba, pour ensuite voir de quelle manière elles se répercutent sur les auteurs et textes littéraires. À travers l’analyse des oeuvres des écrivains Eliseo Altuanga et Marta Rojas, cette thèse reconstruit leurs dialogues avec l’historiographie littéraire cubaine, l’Histoire de l’Ile et les discours plus actualisés quant au débat ethno-racial. Au moyen de visualisations opposées par rapport à l’histoire de Cuba, Altuanga et Rojas élaborent des œuvres et des personnages avec des différences idéoesthétiques marquées. Ainsi, le premier focalisera sur la recherche d’une rupture épistémologique quant à la conception du Noir dans l’imaginaire cubain, soulignant les événements de l’histoire nationale qui considèrent le Noir comme protagoniste, ce qui renforce l’idée d’une continuité dans son état de subalternisation. En ce qui concerne les protagonistes de Rojas, elle fait appel à des mulâtresses pour raconter le processus de transculturation par lequel, à son point de vue, s’est consolidée l’identité culturelle actuelle des Cubains. Suspendue dans un espace d’énonciation intermédiaire entre les premières décennies de la Révolution et la Période spéciale en Temps de Paix, Rojas construit une trilogie romanesque qui s’efforce à signaler la coupure entre les périodes pré- et postrévolutionnaires quant au traitement du Noir.
Resumo:
Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.
Resumo:
Cette étude tente de saisir l’ambiguïté du propos pessimiste dans trois romans de Catulle Mendès (1841-1909). D’un côté, la construction du héros suggère une critique psychopathologique du pessimisme conforme au moralisme de la doxa fin-de-siècle qui dénie à cette pensée toute valeur spéculative. De l’autre, la représentation d’une société dissimulatrice contre laquelle le héros est en lutte confère à celui-ci un pouvoir de dévoilement. Cette tension se trouve condensée dans le concept de monstre qui fait l’objet d’une double lecture, à la fois pathologique et herméneutique. La conscience du héros étant conforme par sa stérilité à la conscience décadente telle qu’elle est définie par Jankélévitch, le système de pensée qu’elle féconde peut être assimilé à un monstre. Or, le sens premier du monstre pessimiste est le caractère inhumain de la vérité, autant comme quête que comme révélation. Seul un monstre peut porter la vérité car celle-ci est à sa mesure, intolérable. Elle renvoie l’homme à la toute-puissance de l’instinct dont découlent ses idéaux. Partant d’une conception pessimiste, le propos de Mendès débouche ainsi sur une morale idéaliste qui prône contre l’universelle tare le mensonge universel.
Resumo:
Cette étude de cas, composée de trois articles, examine les diverses sources d’explication de l’écart salarial selon le genre chez les professeurs d’une grande université de recherche canadienne. Le premier article analyse les écarts selon le genre sur les primes “de marché” à partir de données d’un sondage réalisé auprès des professeurs en 2002. Une analyse des correspondances donne une solution à deux facteurs dans laquelle le second facteur oppose clairement les professeurs qui ont reçu une prime à ceux qui n’en n’ont pas reçue. Le genre est fortement associé à ce facteur, la catégorie “femme” se retrouvant du côté de l’axe associé à l’absence de primes de marché. Les résultats de la régression logistique confirment que le secteur d’activité, la fréquence des contrats de recherche, la valorisation du salaire ainsi que le rang combiné à l’ancienneté sont reliés à la présence de primes de marché, tel que proposé par les hypothèses. Toutefois, même après avoir contrôlé pour ces relations, les femmes sont toujours près de trois fois moins susceptibles de s’être vu attribuer des primes de marché que leurs homologues masculins. Dans l’ensemble, les résultats suggèrent que dans un contexte où les salaires sont déterminés par convention collective, la réindividualisation du processus de détermination des salaires — en particulier le versement de primes de marché aux professeurs d’université — peut favoriser la réapparition d’écarts de salaire selon le genre. Le second article est réalisé à partir de données administratives portant sur les années 1997 à 2006. Les contributions respectives de quatre composantes de la rémunération à l’écart salarial selon le genre y sont analysées, soit le salaire de base, l’accès au rang de professeur titulaire, l’accès aux primes de marché et chaires de recherche du Canada, de même que les montants reçus. Les composantes varient quant à leur degré de formalisation. Ceci permet de tester l’hypothèse selon laquelle l’ampleur de l’écart salarial selon le genre varie en fonction du degré de formalisation des composantes salariales. Nous déterminons également dans quelle mesure l’écart selon le genre sur les diverses composantes de la rémunération varie en fonction de la représentation relative des femmes professeurs au sein des unités. Les résultats démontrent l’existence de variations dans l’ampleur des différences selon le genre en fonction du degré de formalisation des pratiques de rémunération. Qui plus est, après contrôles, la rémunération est plus faible dans les unités où les femmes sont fortement représentées. Le dernier article examine les mécanismes pouvant mener à un écart selon le genre en ce qui a trait à l’accès aux primes de marché chez les professeurs de l’institution. Les processus d’attribution de ces suppléments salariaux sont examinés à partir d’entretiens réalisés avec 17 administrateurs à tous les niveaux hiérarchiques de l’institution et dans une diversité d’unités académiques. Les résultats suggèrent que les différences selon le genre pourraient être liées à des caractéristiques spécifiques du processus d’attribution et à une distribution inégale des primes aux unités à forte représentation féminine. De façon générale, les résultats démontrent que l’écart de rémunération selon le genre chez les professeurs de cette université n’est pas totalement expliqué par des différences dans les caractéristiques individuelles des hommes et femmes. L’analyse révèle que l’écart réside dans des différences selon le genre en ce qui a trait à l’accès aux primes de marché et aux chaires de recherches du Canada et, dans une moindre mesure, au rang de professeur titulaire. Aucune différence n’est observée sur le salaire de base et le montant des primes salariales reçues, que celles-ci soient dites de “marché” ou associées à une chaire de recherche du Canada. Qui plus est, on constate que la rémunération est plus faible dans les unités où les femmes sont le mieux représentées. L’accès différencié selon le genre aux primes de marché qui est observé pourrait être lié à certains processus organisationnels qui limitent les probabilités d’octrois à des femmes. Les femmes pourraient être particulièrement désavantagées dans ce système d’octroi, pour plusieurs raisons. L’existence de différences selon le genre en ce qui a trait aux dispositions ou habiletés des individus à négocier leur salaire est évoquée et supposée par certains administrateurs. Un accès limité aux informations concernant la politique de primes pourrait réduire la probabilité que des femmes tentent d’obtenir ces suppléments salariaux. Les directeurs d’unités, qui sont en majorité des hommes, pourraient être biaisées en faveur des professeurs masculins dans leurs évaluations s’ils tendent à favoriser ceux qui leurs ressemblent. Il est également possible que les directeurs d’unités où les femmes sont les mieux représentées n’aient pas reçu d’information sur les primes de marché ou que des traditions disciplinaires les aient rendu réticents à demander des primes.
Resumo:
Le partenariat demeure l’un des éléments les plus flous du commerce équitable. Il est composé de trois éléments principaux (un régime de représentation, des mécanismes de contrôle et des espaces de négociation) qui coexistent et prennent une importance variables selon les époques. À partir de l’étude du partenariat entre CIAP au Pérou, Solidarmonde et Artisans du Monde en France, le texte propose une analyse de ces différentes dimensions. D’une primauté des représentations et du contrôle dans le CÉ actuel, nous proposons une réflexion sur les outils qui permettraient de tabler sur les espaces de négociation présents dans cette relation. Inspiré de la littérature sur la coopération internationale et l’évaluation, l’idée d’outils de cogestion partenariale est proposée comme base principale à la relation entre acteurs du Nord et du Sud.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.