222 resultados para Transferts technologiques
Resumo:
Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.
Resumo:
La théorie de la guerre juste a fournit les principes qui forment la base de nos intuitions concernant l’éthique de la guerre pendant plus de milles ans. Cependant, la nature de la guerre a changé drastiquement dans les derniers 50 ans. Avec les avancés technologiques, tous les aspects de la guerre, du champ de bataille aux armes utilisées, sont aujourd’hui très différents. Ce qui est proposé dans ce texte est que les principes de jus in bello sont malgré tout encore adéquats pour les guerres contemporaines. Spécifiquement, en utilisant une analyse historique, ce texte argumentera contre la condition de l’urgence suprême de Michael Walzer pour proposer une approche qui laisse les principes de bases du jus in bello intactes. Ce texte suggère que les théoriciens de la guerre juste se penchent sur la question des armes prohibées pour avoir un impacte positif dans le domaine de l’éthique de la guerre.
Resumo:
Les innovations technologiques pullulent dans le milieu policier depuis quelques années. Devant cette abondance de choix technologiques, et dans une conjoncture de ralentissement économique, la police doit s’assurer de faire une sélection favorisant le meilleur retour sur investissement. L’évaluation des technologies est la meilleure méthode permettant d’atteindre cet objectif. Ce projet de recherche analyse les différentes stratégies d’évaluation des technologies des corps policiers fédéraux et provinciaux du Canada en se basant sur le domaine baromètre de l’identité judiciaire. Cette étude s’appuie sur plusieurs données qualitatives : 1) observation participative à la Sûreté du Québec; 2) entrevues semi-directives (n=11) avec des membres de l’Ontario Provincial Police et de la Gendarmerie Royale du Canada. L’analyse intégrée des données colligées permet de mieux comprendre la dynamique de l’évaluation technologique dans la police. Même si une évolution est perceptible, certaines améliorations pourraient accroître l’efficacité du mini-PTA (Police Technology Assessment) dans un contexte où l’opérationnel et le théorique doivent cohabiter en parfaite harmonie afin de faciliter le travail des utilisateurs. Le mini-PTA est un outil facilitant l’adaptation de l’évaluation des technologies aux réalités régionales, mais ne peut en aucun cas remplacer unilatéralement le PTA fait par les grosses organisations d’évaluation des technologies policières.
Resumo:
La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore.
Resumo:
L'avènement des nouvelles technologies a modifié considérablement le marché des valeurs mobilières. Le certificat représentant les actions de personnes morales s'est dématérialisé, facilitant et augmentant la rapidité des échanges, mais en causant de nouveaux problèmes, notamment à cause de l'incertitude juridique entourant les transferts et les sûretés sur les valeurs mobilières et autres actifs financiers. Pour répondre à ces problématiques, le Uniform Commercial Code américain a créé de nouveaux concepts et de nouvelles règles applicables au régime de détention indirecte. S'inspirant du modèle américain, un effort international d'harmonisation a été déployé, comme en témoignent, entre autres, les initiatives de la Conférence de La Haye, d'UNIDROIT et de la Conférence pour l'harmonisation des lois au Canada. C'est ainsi que le Québec a adopté la Loi sur le transfert de valeurs mobilières et l'obtention de titres intermédiés, afin de combler les lacunes d'un régime devenu désuet. Toutefois, le projet de loi s'inscrit-il avec le régime civiliste du Québec? Le particulier peut-il hypothéquer des valeurs mobilières? Où se situent les titres dématérialisés et intermédiés? Nous tenterons de répondre à ces questions en deux temps ; premièrement, nous étudierons l'évolution des régimes de transfert et de sûretés sur les valeurs mobilières et autres actifs financiers ainsi que leurs particularités. Ensuite, nous étudierons la loi québécoise en parallèle avec les différents instruments d'harmonisation et avec le régime civiliste québécois des sûretés.
Resumo:
Le droit des brevets a pour but premier de favoriser les développements technologiques et industriels. Cependant, à l’heure actuelle, ce domaine voit son rôle confronté à une forme de crise, à cause plus précisément des avancées constatées dans le secteur des biotechnologies. De difficiles questions fondamentales se posent à différents niveaux, que ce soit socialement, moralement et légalement. Au vu de ces observations, la question est de savoir, dans le cadre de cette étude, si la régulation devrait être plus signifiante en tenant compte des considérations morales et éthiques dans le processus de brevetabilité. Cette étude a donc pour but de comparer et d’évaluer les diverses solutions proposées en Europe, aux États-Unis et au Canada, afin de déterminer quelle serait la voie envisageable vers la résolution de cette problématique. Par exemple, dans ce contexte, on peut pointer l’approche européenne, où la CBE et la Directive du Parlement européen relative à la protection des inventions biotechnologiques (98/44/CE) semblent introduire des notions éthiques dans leurs textes juridiques. Un tel procédé apporte des notions qui peuvent être considérées comme vagues et évolutives dans un processus qui se veut apparemment technique. Alors que si l’on prend l’approche nord-américaine, celle-ci se fonde sur des critères de brevetabilité dénués de toutes considérations morales. Par l’analyse de ces éléments, une voie possible pourrait être décrite vers un système des brevets qui répondrait mieux aux exigences actuelles.
Resumo:
Le principe de précaution est devenu une véritable méta-norme, censée encadrer les décisions concernant certains choix scientifiques et technologiques en situation d’incertitudes cumulées et de controverses. Il lie des dimensions scientifique, éthique et politique. Puisqu’il est souvent associé au principe de participation, voire parfois au pluralisme, l’objet principal de cet article est d’analyser les différentes interprétations, souvent partielles, et parfois contradictoires, qui lui furent attribuées lors d’un débat national organisé par le Conseil Economique et Social (français), « Débat sur les OGM et les essais au champ » (2002). Il est vrai que ce principe doit normalement s’appliquer dans des circonstances spécifiques, notamment dans le cas d’une forte incertitude due aux limites de l’expertise scientifique qui ne peut pas servir d’excuses pour ne pas prendre les décisions appropriées, face à des risques qui pourraient provoquer des dommages graves et/ou irréversibles. En 2002 il était déjà formulé dans des lois françaises, censées connues par les principaux protagonistes de ce débat. Plutôt que de raisonner sur le principe de précaution in abstracto, nous allons analyser comment il est « mis à l’épreuve » dans ce cadre institutionnel très original, puisqu’il réunissait experts, étudiants, et quatre “sages”.
Resumo:
Le principe de précaution révèle un changement majeur du rapport entre l’homme et la nature, perçue maintenant comme fin plutôt que comme moyen. Nous sommes passés d’un rapport historique dominant – dominé à un rapport d’interdépendance où la nature est devenue un objectif de l’activité humaine, objectif auquel le principe de précaution contribue par son éclairage sur les risques des innovations technologiques. Le principe de précaution transpose en particulier des pratiques médicales (notion de prudence, pharmaco-vigilance) aux pratiques environnementales, symbole de l’effacement de l’opposition entre intérieur (corps humain) et extérieur (nature). Le principe de précaution révèle donc l’intégration de la nature dans les fins de l’homme, un élargissement de la conscience humaine à son environnement, qui ne peut plus impunément être négligé ou oublié, et cela même au nom de l’incertitude scientifique.
Resumo:
La schizophrénie est une maladie psychiatrique grave qui affecte approximativement 1 % de la population. Il est clairement établi que la maladie possède une composante génétique très importante, mais jusqu’à présent, les études ont été limitées au niveau de l’identification de facteurs génétiques spécifiquement liés à la maladie. Avec l’avènement des nouvelles avancées technologiques dans le domaine du séquençage de l’ADN, il est maintenant possible d’effectuer des études sur un type de variation génétique jusqu’à présent laissé pour compte : les mutations de novo, c.-à-d. les nouvelles mutations non transmises de manière mendélienne par les parents. Ces mutations peuvent avoir deux origines distinctes : une origine germinale au niveau des gamètes chez les parents ou une origine somatique, donc au niveau embryonnaire directement chez l’individu. L’objectif général de la présente recherche est de mieux caractériser les mutations de novo dans la schizophrénie. Comme le rôle de ces variations est peu connu, il sera également nécessaire de les étudier dans un contexte global au niveau de la population humaine. La première partie du projet consiste en une analyse exhaustive des mutations de novo dans la partie codante (exome) de patients atteints de schizophrénie. Nous avons pu constater que non seulement le taux de mutations était plus élevé qu’attendu, mais nous avons également été en mesure de relever un nombre anormalement élevé de mutations non-sens, ce qui suggère un profil pathogénique. Ainsi, nous avons pu fortement suggérer que les mutations de novo sont des actrices importantes dans le mécanisme génétique de la schizophrénie. La deuxième partie du projet porte directement sur les gènes identifiés lors de la première partie. Nous avons séquencé ces gènes dans une plus grande cohorte de cas et de contrôles afin d’établir le profil des variations rares pour ces gènes. Nous avons ainsi conclu que l’ensemble des gènes identifiés par les études de mutations de novo possède un profil pathogénique, ce qui permet d’établir que la plupart de ces gènes ont un rôle réel dans la maladie et ne sont pas des artéfacts expérimentaux. De plus, nous avons pu établir une association directe avec quelques gènes qui montrent un profil aberrant de variations rares. La troisième partie du projet se concentre sur l’effet de l’âge paternel sur le taux de mutations de novo. En effet, pour la schizophrénie, il est démontré que l’âge du père est un facteur de risque important. Ainsi, nous avons tenté de caractériser l’effet de l’âge du père chez des patients en santé. Nous avons observé une grande corrélation entre l’âge du père et le taux de mutations germinales et nous avons ainsi pu répertorier certaines zones avec un grand nombre de mutations de novo, ce qui suggère l’existence de zone chaude pour les mutations. Nos résultats ont été parmi les premiers impliquant directement les mutations de novo dans le mécanisme génétique de la schizophrénie. Ils permettent de jeter un nouveau regard sur les réseaux biologiques à l’origine de la schizophrénie en mettant sous les projecteurs un type de variations génétiques longtemps laissé pour compte.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
La séquence culturelle régionale de l’Archaïque supérieur et terminal de la vallée de l’Outaouais n’est pas complétée, mais les variations stylistiques, technologiques et fonctionnelles des artéfacts sur le plan régional et local facilitent le découpage culturel. La reconstruction de la chaîne opératoire des haches, des herminettes et des gouges en pierre polie des sites Muldoon et Lamoureux, deux sites du sud-est ontarien, pourrait permettre de déceler une tradition technologique régionale à cheval entre l’Archaïque laurentien, l’Archaïque post-laurentien et d’autres courants des Grands Lacs. L’analyse des haches, des herminettes et des gouges des sites Muldoon et Lamoureux démontre l’utilisation massive de l’amphibolite. La moitié distale de ces outils est surtout polie et finement abrasée et la moitié proximale souvent éclatée, mais parfois abrasée. Ces éléments technologiques et l’industrie de pierre taillée démontrent des ressemblances et des différences avec les sites laurentiens de la région, et certains sites post-laurentiens du Québec et de l’Ontario méridional. Le matériel en pierre polie des sites Muldoon et Lamoureux démontre des liens technologiques vers l’Ouest tout en gardant un contact avec la sphère d’interaction postlaurentienne. La vallée de l’Outaouais semble alors prendre une place indépendante dans l’Archaïque supérieur, certaines continuités technologiques s’observent entre l’Archaïque laurentien et l’Archaïque post-laurentien.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
La fin de la guerre froide amorça une nouvelle ère de privatisation, de libéralisation et de dérégulation sans précédent. L’internet et les nombreuses autres avancées technologiques ont rapproché les citoyens du monde à un degré impressionnant. Le monde au XXIème siècle semble être plus interdépendant que jamais. De nombreuses problématiques contemporaines dépassent largement les contrôles et les frontières étatiques, des problématiques reliées par exemple aux investissements étrangers directs, aux droits de l’homme, à l’environnement, à la responsabilité sociale des entreprises, etc. La globalisation des marchés marque par ailleurs le recul de l’État face aux acteurs non étatiques. La société civile et les multinationales surgissent dès lors en tant que véritables partenaires dans l’ordre juridique international. Cela est illustré notamment par l’accès accordé aux multinationales/investisseurs à la justice internationale économique. Ces derniers ont la capacité de poursuivre un État qui violerait leurs droits marchands découlant d’un TBI devant une juridiction arbitrale internationale. Qu’en est-il par contre des droits non marchands violés par les investisseurs ? Cette étude explore les motifs militant pour un accès de la société civile à la justice internationale économique. Le but d’un tel accès serait d’opposer les droits non marchands, suscités par des problématiques inhérentes à la globalisation des marchés, à la fois à l’égard des États et à l’égard des multinationales, et auxquelles aucune réponse étatique unilatérale ou interétatique ne peut remédier adéquatement.
Resumo:
L’introduction du développement durable apporte de nouvelles préoccupations environnementales au niveau de la construction et de la rénovation résidentielles, une industrie qui représente un marché économique important au Canada. En plus d’engendrer plusieurs impacts sur l’environnement, la conception actuelle ne permet pas d’accommoder le changement initié par l’évolution des pratiques, les avancées technologiques, mais également par l’évolution des patrons de vie des occupants. Dans un premier temps, la revue de littérature dresse le portrait de l’industrie de la construction, rénovation et démolition (CRD) au Canada, ainsi que le profil de gestion des débris de CRD. Ensuite, une analyse documentaire traite de différents outils de conception développés pour améliorer la performance du secteur : 3RV-E, écoconception, écoconstruction et LEED®. De plus, la recension des écrits permet également de cerner les concepts d’adaptabilité et de flexibilité au niveau du bâtiment et dans les approches et mouvements émergents en architecture. Cette démarche nous amène à établir l’hypothèse que l’intégration des critères d’adaptabilité et de flexibilité au niveau du logement aurait pour effet d’améliorer l’adéquation entre les besoins évolutifs des occupants et les nouvelles considérations environnementales. Au niveau méthodologique, l’analyse du cycle de vie simplifiée par l’Eco-indicator99 encadre l’analyse environnementale de l’ossature de trois types de construction de cloison. De cette évaluation, on conclut que c’est la construction traditionnelle à ossature de bois qui produit le moins d’impacts. Dans l’ordre suivant la proposition de construction de cloison à ossature d’aluminium, plus adaptable et flexible, et finalement la construction à ossature d’acier qui est le système le plus dommageable. Par contre, en intégrant le facteur temporel, cette analyse démontre que l’intégration de l’adaptabilité et de la flexibilité procure plusieurs cycles de vie et de rénovation au produit et à ses composantes. Finalement, ces concepts offrent également le potentiel de diminuer les impacts générés par la construction et la rénovation, un constat qui mériterait d’être abordé dans une approche plus systémique.
Resumo:
Dans la foulée des récents travaux sur les transferts culturels, Robert Dion a consacré un ouvrage (L’Allemagne de Liberté : sur la germanophilie des intellectuels québécois, 2007) au rapport de fascination « à distance » entretenu avec l’Allemagne par plusieurs collaborateurs regroupés autour de la revue Liberté. Se situant dans le prolongement de l’étude de Dion, ce mémoire propose des analyses de nouvelles et de romans québécois écrits par trois collaborateurs de la revue : Diane-Monique Daviau, Yvon Rivard et Pierre Turgeon. Comportant des références plutôt étoffées à l’Allemagne, leurs textes offrent une perception de l’Autre que l’on peut, suivant la perspective des études interculturelles, examiner sous l’angle d’une « rencontre » entre les cultures. C’est donc à la relation avec la langue, avec les lieux, avec l’histoire et la littérature allemands que nous nous intéressons, cherchant non seulement à qualifier le rapport à l’altérité allemande qu’introduisent les textes, mais aussi à identifier certaines conséquences formelles d’une mise en scène littéraire de l’Autre – pratiques polyphoniques, types de procédés intertextuels, etc. Ce travail, qui a également pour objectif de présenter une réflexion novatrice sur l’inscription des thèmes de l’exil, du décentrement et de la migration dans la littérature québécoise contemporaine, lie la référence allemande à l’« enquête sur soi » qu’accomplissent les personnages de Daviau, de Rivard et de Turgeon, révélant que dans leur quête, ces protagonistes prennent souvent la mesure de leur propre « précarité », et, dans certains cas, d’un « héritage de la pauvreté » (Yvon Rivard) qui serait leur – deux motifs majeurs de la littérature québécoise.