974 resultados para Restructuration productive
Resumo:
Le vieillissement normal est associé à une réorganisation cérébrale qui peut être influencée par plusieurs facteurs. Des théories comme la réserve cognitive de Stern (2002) tentent d’expliquer les effets de ces différents facteurs. Certains, le niveau de scolarité par exemple, sont encore mal connus. Pourtant, le niveau de scolarité est connu pour avoir un impact sur les performances cognitives tout au long de la vie. Le but de ce mémoire est d’étudier les effets du niveau de scolarité sur l’oxygénation cérébrale de personnes âgées en santé lors d’une tâche d’évocation lexicale orthographique et sémantique. Chaque tâche est divisée selon un critère « plus productive » et « moins productive ». Les âgés faiblement scolarisés produisent moins de mots que les âgés fortement scolarisés. De plus, la différence de mots produits entre le critère plus productif et moins productif est plus grande pour la tâche sémantique que pour la tâche orthographique. Du point de vue hémodynamique, les deux groupes ont des activations semblables, contredisant le phénomène HAROLD. De plus, les participants peu scolarisés tendent à activer de façon plus importante l’hémisphère gauche, peu importe la tâche ou la condition. Par contre, les activations varient selon la tâche et la condition dans le cas du groupe fortement scolarisé.
Resumo:
The Vpu accessory protein promotes HIV-1 release by counteracting Tetherin/BST-2, an interferon-regulated restriction factor, which retains virions at the cell-surface. Recent reports proposed beta-TrCP-dependent proteasomal and/or endo-lysosomal degradation of Tetherin as potential mechanisms by which Vpu could down-regulate Tetherin cell-surface expression and antagonize this restriction. In all of these studies, Tetherin degradation did not, however, entirely account for Vpu anti-Tetherin activity. Here, we show that Vpu can promote HIV-1 release without detectably affecting Tetherin steady-state levels or turnover, suggesting that Tetherin degradation may not be necessary and/or sufficient for Vpu anti-Tetherin activity. Even though Vpu did not enhance Tetherin internalization from the plasma membrane (PM), it did significantly slow-down the overall transport of the protein towards the cell-surface. Accordingly, Vpu expression caused a specific removal of cell-surface Tetherin and a re-localization of the residual pool of Tetherin in a perinuclear compartment that co-stained with the TGN marker TGN46 and Vpu itself. This re-localization of Tetherin was also observed with a Vpu mutant unable to recruit beta-TrCP, suggesting that this activity is taking place independently from beta-TrCP-mediated trafficking and/or degradation processes. We also show that Vpu co-immunoprecipitates with Tetherin and that this interaction involves the transmembrane domains of the two proteins. Importantly, this association was found to be critical for reducing cell-surface Tetherin expression, re-localizing the restriction factor in the TGN and promoting HIV-1 release. Overall, our results suggest that association of Vpu to Tetherin affects the outward trafficking and/or recycling of the restriction factor from the TGN and as a result promotes its sequestration away from the PM where productive HIV-1 assembly takes place. This mechanism of antagonism that results in TGN trapping is likely to be augmented by beta-TrCP-dependent degradation, underlining the need for complementary and perhaps synergistic strategies to effectively counteract the powerful restrictive effects of human Tetherin.
Resumo:
Vers la fin du 19ème siècle, le moine et réformateur hindou Swami Vivekananda affirma que la science moderne convergeait vers l'Advaita Vedanta, un important courant philosophique et religieux de l'hindouisme. Au cours des décennies suivantes, suite aux apports scientifiques révolutionnaires de la théorie de la relativité d'Einstein et de la physique quantique, un nombre croissant d'auteurs soutenaient que d'importants "parallèles" pouvaient être tracés entre l'Advaita Vedanta et la physique moderne. Encore aujourd'hui, de tels rapprochements sont faits, particulièrement en relation avec la physique quantique. Cette thèse examine de manière critique ces rapprochements à travers l'étude comparative détaillée de deux concepts: le concept d'akasa dans l'Advaita Vedanta et celui de vide en physique quantique. L'énoncé examiné est celui selon lequel ces deux concepts pointeraient vers une même réalité: un substratum omniprésent et subtil duquel émergent et auquel retournent ultimement les divers constituants de l'univers. Sur la base de cette étude comparative, la thèse argumente que des comparaisons de nature conceptuelle favorisent rarement la mise en place d'un véritable dialogue entre l'Advaita Vedanta et la physique moderne. Une autre voie d'approche serait de prendre en considération les limites épistémologiques respectivement rencontrées par ces disciplines dans leur approche du "réel-en-soi" ou de la "réalité ultime." Une attention particulière sera portée sur l'épistémologie et le problème de la nature de la réalité dans l'Advaita Vedanta, ainsi que sur le réalisme scientifique et les implications philosophiques de la non-séparabilité en physique quantique.
Resumo:
Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Thèse dirigée sous la direction conjointe de Lise Lamarche et Jean Trudel.
Resumo:
Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.
Resumo:
La hausse démographique de la population des aînés dans le dernier tiers du XX siècle et leur désir d’une retraite productive où ils puissent réinventer une nouvelle étape de leur vie, ont produit un changement dans les salles de classes des institutions formelles et informelles au Québec. Les aînés d’aujourd’hui retournent aux salles de classes mais pas pour la même raison que lorsqu’ils étaient adolescents ou étudiants à l’université, là où l’éducation était connectée aux objectifs professionnels et à la promotion sociale, mais plutôt avec le désir d’intégration continue et de la croissance personnelle. Ce désir est traduit par un apprentissage tout au long de la vie. En effet, l’éducation du Troisième âge devient importante, ainsi que la gérontagogie (branche de la gérontologie) qui étudie le processus d’apprentissage des aînés. Le rôle des Universités du troisième âge (UTA) demeure important mais aussi celui des institutions diverses comme par exemple les « Elder Hostels » et les Centres Communautaires. Dans ce contexte-ci, et basé sur nôtre expérience d’animateur d’ateliers d’espagnol d’une Université (de la province) du Québec, nous présentons quelques méthodologies et stratégies appliquées aux cours d’espagnol langue étrangère (ELE). Ces méthodologies et stratégies sont résumées dans un journal du professeur qui nous aidera à observer le niveau d’efficacité de celles-ci dans les ateliers de conversation. Ainsi, nous avons la possibilité de créer notre propre approche méthodologique qui pourra venir en aide à d’autres professeurs d’espagnol.
Resumo:
Toutes les illustrations qui ponctuent cette thèse ont été réalisées par Chantal Poirier. Elles ont été insérées dans le texte selon un ordre méticuleusement aléatoire.
Resumo:
Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.
Resumo:
Cette thèse s'articule autour de trois essais portant sur des questions internationales en économie des ressources naturelles. Le premier essai examine la production et l'échange des ressources non-renouvelables dans un modèle spatial et souligne le rôle de la superficie des pays et du coût des transports dans la détermination du sens de l'échange. Le deuxième essai considère le tarif d'extraction de la rente de rareté liée aux ressources naturelles non-renouvelables avec le modèle spatial développé dans premier essai. Le cadre spatial (plus général) permet de représenter des pays qui sont à la fois importateurs et producteurs de la ressource, ce qui n'est pas possible dans les modèles traditionnels de commerce international où les pays sont traités comme des points (sans dimension). Le troisième essai aborde la question des droits de propriétés sur les zones maritimes et examine l'allocation d'une population de pêcheurs entre les activités productives et non-productives dans une communauté côtière. Le premier chapitre propose un modèle spatial de commerce international des ressources non-renouvelables. Le cadre spatial considère explicitement la différence de taille géographique (superficie) entre les pays et permet ainsi de tenir compte du fait que les gisements naturels et leurs utilisateurs soient dispersés dans l'espace, même à l'intérieur d'un pays. En utilisant un modèle spatial à la Hotelling, nous examinons l'évolution dans le temps du sens de l'échange entre deux pays (ou régions) qui diffèrent du point de vue de leur technologie de production, de leur superficie et de leur dotation en gisement d'une ressource naturelle non-renouvelable. Le chapitre met en évidence le rôle de la taille géographique dans la détermination du sens de l'échange, à côté des explications traditionnelles que sont l'avantage comparatif et les dotations des facteurs. Notre analyse est fondamentalement différente des autres contributions dans la littérature sur le commerce international des ressources naturelles parce qu'elle souligne l'importance de la taille géographique et du coût de transport par rapport à d'autres facteurs dans la détermination des flux de ressource à l'équilibre. Le coût unitaire de transport joue un rôle capital pour déterminer si la différence de superficie entre les pays influence le sens de l'échange à l'équilibre plus que les autres facteurs. Le chapitre discute aussi du caractère régional des échanges qui a été observé pour certaines ressources telles que le minerai de fer et la bauxite. Le chapitre deux aborde la question de la répartition de la rente de rareté liée aux ressources naturelles non-renouvelables entre les pays producteurs et les pays consommateurs. Cette question a été abordée dans la littérature sous une hypothèse quelque peu restrictive. En effet, dans la plupart des travaux portant sur ce sujet le pays importateur est automatiquement considéré comme dépourvu de gisement et donc non producteur de la ressource. Pourtant la réalité est qu'il existe des ressources pour lesquelles un pays est à la fois producteur et importateur. Le cadre d'analyse de ce second essai est le modèle spatial développé dans le premier essai, qui permet justement qu'un pays puisse être à la fois importateur et producteur de la ressource. Le pays importateur détermine alors simultanément le tarif optimal et le taux d'extraction de son propre stock. Nous montrons que le tarif optimal croît au taux d'intérêt et de ce fait, ne crée aucune distorsion sur le sentier d'extraction de la ressource. Le tarif optimal permet de récupérer toute la rente lorsque le pays exportateur ne consomme pas la ressource. Néanmoins, la possibilité pour le pays exportateur de consommer une partie de son stock limite la capacité du pays importateur à récupérer la rente chez le pays exportateur. La présence de gisements de la ressource dans le pays importateur réduit la rente du pays exportateur et de ce fait renforce la capacité du pays importateur à récupérer la rente chez le pays exportateur. Le tarif initial est une fonction décroissante du stock de ressource dans le pays importateur. Cet essai aborde également la question de la cohérence dynamique du tarif obtenu avec la stratégie en boucle ouverte. Le troisième chapitre examine un problème d'allocation de l'effort entre les activités productives (par exemple la pêche) et les activités non productives (par exemple la piraterie maritime) dans une population de pêcheurs. La répartition de la population entre les activités de pêche et la piraterie est déterminée de façon endogène comme une conséquence du choix d'occupation. Nous établissons l'existence d'une multiplicité d'équilibres et mettons en évidence la possibilité d'une trappe de piraterie, c'est-à-dire un équilibre stable où une partie de la population est engagée dans les actes de piraterie. Le modèle permet d'expliquer l'augmentation significative des attaques de piraterie dans le Golfe d'Aden au cours des dernières années. Le chapitre discute aussi des différents mécanismes pour combattre la piraterie et souligne le rôle crucial des droits de propriété.
Resumo:
La présente thèse de doctorat porte sur les processus internes au sein des équipes de travail pluriculturelles. Cette thèse se compose de trois articles et propose, d’une part, une mesure validée des valeurs culturelles au niveau individuel en langue française et, d’autre part, une mesure du degré d’homogénéité culturelle au sein des équipes de travail (ci-après ÉT). En outre, elle se penche sur la vérification empirique des nombreux liens entre l’homogénéité culturelle et les processus internes au sein des ÉT postulés par les auteurs mais jamais vérifiés empiriquement. Le premier article a pour but de faire le point sur la documentation scientifique concernant les équipes de travail pluriculturelles. Il présente une recension de la documentation portant sur ce type d’équipe, notamment l’impact présumé de la culture sur les comportements d’équipier, et les effets de la diversité culturelle sur la performance de l’équipe et sur ses processus internes. Le deuxième article, quant à lui, a pour objectif de valider la mesure des dimensions culturelles de Hofstede (1980, 1991, 1994) sur une base individuelle et en langue française. Cette étude a été réalisée en adaptant deux questionnaires, l’un développé par Hellmann (2000) et mesurant les dimensions culturelles de distance hiérarchique, de masculinité, de contrôle de l’incertitude et de collectivisme, et le second développé par Bearden, Money et Nevins (2006) et mesurant la dimension d’orientation à long terme. L’échantillon se compose de 453 répondants tous étudiants dans des programmes de baccalauréat à l’Université de Montréal et à l’Université du Québec à Montréal. Les résultats des deux analyses factorielles exploratoires effectuées ont fait ressortir sept facteurs distincts expliquant 41.6% de la variance pour le premier questionnaire et 61.6% de la variance pour le second. La composition de l’échantillon n’a pas permis de conduire d’analyse de variance afin de vérifier s’il se trouvait des différences significatives entre les différents groupes culturels de l’échantillon à l’étude, et ce, pour chacune des dimensions culturelles. Les limites de la recherche ainsi que des suggestions de recherches futures sont proposées. Enfin, le troisième article se penche sur les liens, postulés par de nombreux auteurs mais jamais confirmés empiriquement, entre l’homogénéité culturelle dans les équipes et les processus internes de l’équipe en termes de comportements productifs et de comportements contre-productifs. Afin d’étudier cette réalité, l’instrumentation de Hofstede (1980, 1991), conçue pour capter des différences au niveau des nations, a été opérationnalisée au niveau des individus (Temimi, Savoie et Duguay, 2008) et mis en relation avec les processus internes se déroulant au sein de l’équipe (Duguay, Temimi et Savoie, 2008; Rousseau, 2003; Temimi et Savoie, 2007). Cette étude a été réalisée auprès de 67 équipes variant en termes d’homogénéité culturelle. Les résultats indiquent que le degré d’homogénéité culturelle global s’avère positivement relié aux comportements productifs de l’équipe et négativement relié aux comportements contre-productifs. De plus, le degré d’homogénéité de la dimension culturelle de féminité ressort négativement relié aux comportements contre-productifs de flânerie sociale et de domination.
Resumo:
L’infection à VIH-1 est associée à une forte déplétion des lymphocytes T CD4+ à polarisation Th17 au niveau des tissus lymphoïdes associés aux muqueuses intestinales (GALT, gut-associated lymphoid tissues). Ceci conduit à la translocation microbienne, qui est une cause d’activation immunitaire chronique et de progression de la maladie. Les cellules épithéliales (CE) jouent un rôle critique dans le maintien de l’intégrité et de l’homéostasie au niveau des muqueuses intestinales via le recrutement des cellules de l’immunité innée (e.g., neutrophiles) et adaptative (e.g., cellules Th17). Les neutrophiles produisent des molécules antivirales (e.g., défensines-) et ont la capacité de limiter la réplication virale au niveau des muqueuses. Les cellules Th17 jouent un double rôle lors de l’infection à VIH. Elles contribuent d’une part à la défense contre différents pathogènes opportunistes en augmentant, via la production d’IL-17, la capacité des CE à attirer les cellules Th17 et les neutrophiles. D’autre part, les cellules Th17 jouent un rôle délétère en tant que cibles de réplication virale et sources de cytokines pro-inflammatoires. La fréquence des cellules Th17 est diminuée dans les GALT mais pas dans les poumons des patients infectés par le VIH, suggérant qu’il existe des mécanismes différents par lesquels les cellules Th17 sont recrutées vers ces sites anatomiques. Nous avons testé l’hypothèse selon laquelle le VIH interfère avec la capacité des CE intestinales et non pas pulmonaires à produire des chimiokines (CK) responsables de l’attraction des cellules Th17 et des neutrophiles. Nous avons démontré que les CE intestinales et pulmonaires produisent des CK spécifiques pour les cellules Th17 (CCL20) et les neutrophiles (CXCL8) en réponse à des stimuli pro-inflammatoires tels que l’IL-1 et le TNF-. Le TNF- agit en synergie avec l’IL-17, un « signal de danger » récemment identifié, et augmente la capacité des CE intestinales mais pas pulmonaires à produire la chimiokine CCL20. Cette synergie s’explique par l’augmentation préférentielle de l’expression du récepteur à l’IL-17 à la surface des CE intestinales suite à la stimulation par le TNF-. L’exposition au VIH n’affecte pas la production de CCL20 et de CXCL8 par les CE intestinales, mais altère la capacité des CE alvéolaires à produire ces chimiokines en accord avec la permissivité sélective de ces dernières à l’infection par le VIH. En conclusion, nos résultats démontrent que (i) le VIH n’interfère pas directement avec la capacité des CE intestinales à recruter des cellules Th17 et des neutrophils et que (ii) la production de CCL20 par ces cellules est dépendantes de la synergie entre le TNF- et l’IL-17. Ainsi, la déplétion des cellules Th17 et la pénurie en IL-17 dans les GALT des sujets infectés pourrait causer de façon préférentielle des altérations fonctionnelles au niveau des CE intestinales, se traduisant par l’altération du recrutement des cellules Th17 en réponse au CCL20.
Resumo:
Des données de Statistique Canada montrent que le Québec a perdu 86 700 emplois manufacturiers nets entre 2004 et 2008, ce qui représente un recul de 13,8% (Bernard, 2009). Un dollar canadien fort, la concurrence internationale, les délocalisations de la production et les consolidations globales d'opérations sont souvent mentionnés comme étant les causes des difficultés du secteur manufacturier canadien - principalement concentré au Québec et en Ontario. La crise financière amorcée à l’été 2007, a contribué à aggraver la crise propre au secteur manufacturier dont les origines remontent au début des années 2000 (Weir, 2007; AgirE, 2008; Pilat et al., 2006). Cette recherche examine le processus de restructuration du secteur manufacturier québécois de manière détaillée au niveau des établissements afin d’en évaluer l’ampleur et la nature entre 2003 et 2008. Les données colligées permettent de poser un regard unique et original sur les restructurations ayant impliqué des licenciements collectifs au Québec. Ces données sont issues de deux sources. D'abord, nous avons utilisé une liste d‘entreprises qui ont envoyé un avis de licenciement collectif au Ministère de l’Emploi et de la Solidarité sociale du Québec entre 2003 et 2008. En second lieu, nous avons eu recours aux archives en ligne des médias pour trouver d’autres évènements de restructuration non rapportés par le ministère ainsi que pour obtenir des informations complémentaires sur les évènements déjà compilés dans la liste du ministère. Notre méthodologie de recherche et notre typologie analytique des types de restructuration sont basées sur celles développées par l’European Monitoring Center on Change (EMCC) et reprises dans certaines études comme celles de Bronfenbrenner et Luce (2004) et Hickey et Schenk (soumis). Les résultats, présentés en termes d’événements de restructuration et d’emplois perdus, sont ventilés en fonction de quelques variables (année d’occurrence, taille de l’établissement, sous-secteur d’activité, intensité technologique, région administrative, types de restructuration). Les raisons données par l’entreprise afin de justifier la restructuration ont aussi été colligées. Au cours de la période étudiée, nous avons identifié au total 1 631 évènements de restructurations dans le secteur manufacturier à travers toutes les régions du Québec, qui ont entraîné la perte de 129 383 emplois. Ainsi, 78 246 emplois ont été perdus suite à la réduction des activités de l‘établissement et 51 137 emplois l’ont été suite à la fermeture de leur établissement. La forme la plus fréquente de restructuration est la restructuration interne, suivi par la faillite/fermeture. Les types de restructuration qui ont engendré le plus de pertes d’emplois en moyenne par évènement sont dans l’ordre, la délocalisation, la sous-traitance, la consolidation d’activités ainsi que la fusion-acquisition. L’année 2008 fut celle où il y a eu le plus grand nombre de restructurations. Montréal et la Montérégie sont les régions qui ont le plus été touchées par la restructuration, les pertes d’emplois et les fermetures d’établissements. Les industries à faible intensité technologique ont davantage été frappées par la crise manufacturière. C’est le sous-secteur du papier et du bois qui connu le plus grand nombre d’événements de restructurations. Ce sous-secteur a aussi subi les pertes d’emplois les plus importantes, suivi par le sous-secteur du textile et du vêtement. Ces deux industries se partagent plus de la moitié des fermetures d’établissements. L’insuffisance de la demande (22,1%), la concurrence internationale (14,3%), la hausse de la valeur du dollar canadien (11,2%), la réorganisation interne de l’entreprise (11,1%), la rationalisation des coûts visant une augmentation de la profitabilité (10,1%) ainsi que les difficultés financières (9,9%) sont les motifs principaux donnés par les employeurs. Nos résultats montrent qu’il y a eu deux temps dans l’évolution de la restructuration du secteur manufacturier au Québec. Un premier temps au début de la période où des changements structurels profonds ont été observés dans certaines industries (p.ex. le bois-papier et le textile-vêtement) et un second temps, en fin de période caractérisé par des changements davantage liés à la conjoncture en raison de la crise économique dont les effets commençaient à se faire sentir à ce moment (Institut de la statistique du Québec, 2009a).
Resumo:
On s’accorde à dire que les adolescents constituent l’avenir quel que soit le temps et l’espace considéré. Il est également reconnu que le développement de leur capital humain et social, nécessaire pour une vie adulte de qualité, dépend des conditions dans lesquelles ils vivent et de l’environnement dans lequel s’opérera la transition vers cette vie adulte. Plus que dans toute autre partie du monde, ce constat est encore plus d’actualité en Afrique sub-Saharienne où, à la situation socio-économique déjà précaire, s’ajoutent d’importants problèmes de santé sexuelle et reproductive auxquels font face les adolescents en particulier le VIH. Conscients de l’enjeu majeur que représente la santé des adolescents, les gouvernements en Afrique sub-Saharienne, aidés en cela par les organismes non-gouvernementaux et toute la communauté internationale, ont inscrit la promotion de stratégies efficientes en santé sexuelle et reproductive des adolescents comme haute priorité dans leurs agendas. Mais force est de constater que l’élaboration et la mise en œuvre de telles stratégies supposent la production de connaissances sans cesse actualisées ainsi que la formulation de politiques innovatrices basées sur des données probantes et éprouvées en matière de santé sexuelle et reproductive, ce qui n’est pas toujours le cas. De plus, le fait que ce segment particulier de la population ne constitue pas un groupe homogène pose un défi supplémentaire quant à l’élaboration de stratégies généralisables. Fort de ce qui précède, le présent travail, qui porte sur le Burkina Faso, le Ghana, le Malawi et l’Ouganda, fait d’abord le point sur les problèmes majeurs de santé sexuelle et reproductive auxquels fait face cette frange spécifique de la population, tout en jetant un regard critique sur les efforts déployés par les sciences sociales pour les analyser. Il apporte ensuite des réponses à des questions spécifiques de recherche que nous nous sommes posées à travers les trois articles qui constituent l’ossature de cette thèse et dont l’essentiel de l’analyse empirique peut être résumé comme suit : Dans le premier article, nous sommes partis du constat suivant : dans les quatre pays étudiés, une importante proportion des adolescents qui se déclarent non encore sexuellement actifs pensent paradoxalement que leurs chances de contracter le VIH sont très grandes. Face à un tel constat, la question que l’on est en droit de se poser est celle de savoir pourquoi sont-ils si préoccupés? Quels sont les facteurs qui déterminent cette perception du risque? Les résultats confirment ce que certaines études ont déjà démontré à savoir que les individus élaborent leur propre définition du risque qui peut ne pas se résumer nécessairement à une opposition binaire «risque/aucun risque», mais est plutôt fonction des caractéristiques individuelles mais aussi du contexte social et épidémiologique dans lesquels ils vivent. Le deuxième article de la thèse analyse le contexte dans lequel s’opère la transition vers le premier rapport sexuel chez les adolescentes des quatre pays étudiés. Il part du constat selon lequel les recherches ont très souvent abordé les comportements sexuels des adolescents sous un angle marqué par la dichotomie entre les «sexuellement actifs» et les «non encore sexuellement actifs». Or le calendrier de l’entrée en sexualité et le contexte dans lequel elle a lieu (dans l’union ou hors union) sont non seulement des marqueurs des comportements sexuels à risque vis-à-vis du VIH, mais ils conditionnent aussi et surtout la qualité de la transition vers l’entrée dans la vie adulte. Les résultats montrent ici également que le contrôle parental est significativement associé à une faible probabilité pour les adolescents d’initier la sexualité hors de l’union. Quant au troisième article, il se penche sur un cas précis de comportement à risques chez les adolescents: le multipartenariat sexuel aggravé par la non utilisation systématique du condom, pourtant le seul moyen pour l’instant (en dehors de l’abstinence) de se protéger contre les infections sexuellement transmissibles et le VIH/SIDA. Les résultats montrent entre autres que le contrôle parental est significativement associé à une faible probabilité de comportement sexuel à risque, défini ici comme étant la co-occurrence de plusieurs partenaires sexuels au cours de 12 derniers mois et la non-utilisation systématique du condom avec chacun des partenaires. Sur un plan programmatique, ce résultat est plutôt encourageant car il prouve que l’autorité parentale jadis considérée comme érodée, demeure une pierre angulaire dans les stratégies de prévention du VIH chez les adolescents.