48 resultados para Cône de croissance
Resumo:
L’expatriation est une stratégie organisationnelle en constante croissance et considérée comme un puissant moteur de développement du leadership. Les entreprises internationales qui l’emploient font toutefois face à de nombreux défis, dont celui de fidéliser les expatriés, qui sont nombreux à quitter dans les deux années suivant leur rapatriement. Comme solution à cette problématique, il a été proposé de faire une meilleure utilisation de l’expérience acquise à l’international. La présente étude vise donc à répondre aux questions suivantes : a) quels sont les acquis développés par les expatriés pendant leur assignation à l’étranger?, b) comment les expatriés réinvestissent-ils ces acquis au sein de leur organisation au retour de leur expérience d’expatriation?, et c) quels sont les facteurs facilitant le réinvestissement des acquis de l’expatriation? Pour ce faire, une méthode qualitative a été utilisée et des entretiens individuels en profondeur, semi-directifs, ont été effectués avec dix rapatriés francophones de quatre multinationales québécoises. L’analyse qualitative a été effectuée à l’aide d’un procédé inductif de catégories conceptualisantes permettant d’expliquer un phénomène, ici le réinvestissement des acquis de l’expérience d’expatriation, selon le point de vue des rapatriés. Premièrement, les participants affirment avoir fait des apprentissages de différents ordres. Il s’agit d’habiletés de gestion de soi, relationnelles, interculturelles, techniques, stratégiques, ainsi que des habiletés managériales. Deuxièmement, cette étude met en lumière qu’une fois de retour de leur assignation à l’international, les rapatriés utilisent, de manière consciente et volontaire, les acquis auxquels ils accordent de la valeur et déploient plusieurs comportements de réinvestissement des acquis tels que : partager des informations techniques, prévenir les problèmes potentiels et améliorer les façons de faire, représenter la compagnie à l’étranger, maintenir un réseau de contacts internationaux, agir à titre d’interprète culturel, gérer du personnel, former ou coacher d’autres expatriés, relever de nouveaux défis au sein de l’entreprise ou mettre en valeur leurs acquis dans le cadre d’un entretien d’embauche. Finalement, les rapatriés ont mis de l’avant des facteurs à la fois personnels et organisationnels qui faciliteraient, selon eux, le réinvestissement des acquis. Parmi les facteurs personnels, il y a la motivation de l’expatrié à transférer ses connaissances et à réinvestir ses acquis, la capacité à nommer et à affirmer ses besoins, le sentiment d’appartenance à l’entreprise et l’intention de rester, de même que de la patience et des attentes réalistes face au retour. Les facteurs organisationnels identifiés sont : la reconnaissance de la part du supérieur immédiat et de l’organisation, l’intérêt de la part des collègues et du supérieur immédiat, une culture organisationnelle de communication et de transparence, la présence d’une structure organisationnelle de transfert des connaissances et de gestion des talents, une diversité culturelle au sein de l’entreprise, la présence d’opportunités et de projets motivants en continuité avec le mandat à l’international et la tenue d’une rencontre-bilan avec les Ressources Humaines.
Resumo:
Dans ce travail, on utilise un MEGC statique pour aborder l'impact du développement des biocarburants sur la croissance économique et sociale au Sénégal. Notre choix d’utiliser un modèle d’équilibre général calculable (MEGC) pour cette étude se justifie par le fait qu’ils sont de nos jours des modèles macroéconomiques particulièrement adaptés à l’étude de politiques structurelles à moyen ou long terme. Le modèle a été développé sur la base du modèle EXTER issu de deux matrices légèrement différentes : l’une reflétant l’économie réelle du Sénégal de 2011 et mise à jour pour 2014 et l’autre étant une matrice hypothétique intégrant les données sur les agrocarburants obtenues à partir des calculs de l’auteure. Le modèle met en exergue les spécificités de l’intégration de ce secteur dans l’économie sénégalaise. Il met plus l’accent sur les secteurs énergivores vu que l’objectif principal étant la réduction de la dépendance énergétique du pays. Deux simulations sont réalisées afin d'effectuer cette analyse : une hausse de l’offre de travail et une subvention accordée aux secteurs des biocarburants comme première simulation et la deuxième simulation reprend la première simulation en y ajoutant une hausse du prix des importations des produits pétroliers. Ainsi, par les mécanismes d’équilibre général, les résultats nous montrent une évolution des agrégats macroéconomiques dans leur ensemble dans les deux simulations. Cependant, sauf dans certains secteurs, en généralité, l’intégration des agrocarburants et leur exploitation avantage beaucoup le pays sur presque tous les secteurs de l’économie.
Resumo:
La municipalité régionale de comté des Pays-d'en-Haut, située dans les Laurentides possède, sur son territoire, de nombreux milieux humides. Ils subissent une forte pression anthropique due au développement domiciliaire et à la croissance démographique dans la région, ayant pour conséquence la perte continue de superficie de milieux humides. Les biens et services écologiques qu’ils procurent à la société, qu’ils soient d’ordre économique, écologique, culturel ou social, sont autant d’arguments ayant poussé la municipalité régionale de comté des Pays-d'en-Haut à mieux connaitre et protéger ces milieux sensibles. Dans l’optique de réaliser une meilleure gestion du territoire, en dotant toutes ses municipalités d’un outil d’information et d’aide à la décision fiable et à jour, répondant de manière adéquate aux besoins des gestionnaires du territoire impliqués dans l’aménagement, la protection et la mise en valeur des espaces naturels, la municipalité régionale de comté des Pays-d'en-Haut veut réaliser un plan de conservation des milieux humides sur l’ensemble de son territoire. Un tel plan permet non seulement de favoriser l’intégration des milieux humides d’intérêt à la planification territoriale, mais peut également faciliter la préparation des demandes d’autorisations exigées par le Ministère du Développement durable, de l’Environnement et de la Lutte contre les changements climatiques, en vertu de la Loi sur la qualité de l’environnement et de la Loi concernant des mesures de compensation pour la réalisation de projets affectant un milieu humide ou hydrique. Afin de rédiger ce plan de conservation, plusieurs étapes sont nécessaires. Premièrement, des campagnes d’inventaire et de caractérisation ont eu lieu lors des dernières années. Deuxièmement, une cartographie détaillée des milieux humides a été réalisée. L’étape suivante consistait à développer une manière d’évaluer la valeur des écosystèmes humides dans le but de les prioriser. La démarche méthodologique d’évaluation des milieux humides représente le cœur d’un plan de conservation. Il fallait qu’elle se base sur des critères fiables et quantifiables. Un des objectifs principaux de cet essai était de proposer une méthodologie en se basant sur des sources scientifiques reconnues et crédibles. Aussi, la méthodologie proposée repose sur l’évaluation des valeurs écologique, économique et socioculturelle par la prise en compte des biens et services écosystémiques. L’autre objectif de l’essai était de mieux comprendre et apprivoiser les aspects législatifs relatifs à la protection des milieux humides. Une revue des lois et règlements fédéraux, provinciaux et municipaux a été faite. Un examen de la doctrine juridique est venu compléter l’analyse. Finalement, des constats sur la démarche et sur les aspects juridiques ont été faits, et des recommandations ont été formulées afin que la municipalité régionale de comté des Pays-d'en-Haut et les municipalités poursuivent leur démarche visant la protection et la conservation des milieux humides.
Resumo:
La réalisation de l’évaluation environnementale, en France, est encouragée par l’existence de règlements, lois, directives et normes Européennes (notamment la Directive 2001/42/CE du Parlement européen et du Conseil du 27 juin 2001 relative à l'évaluation des incidences de certains plans et programmes sur l'environnement et la Loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte). La compréhension du cadre Drivers – Pressures – State – Impacts – Responses permet de replacer les différentes méthodologies dans un cadre conceptuel plus large. Les méthodes d’analyse de flux de matières (Pressures) et d’analyse de cycle de vie (Impacts) sont les deux familles d’évaluation environnementale considérées dans ce travail. C’est plus précisément l’analyse de flux de matières selon Eurostat et l’analyse de cycle de vie territoriale qui ont été appliquées au territoire métropolitain d’Aix-Marseille-Provence. Un état de l’art relevant les études dans lesquelles sont réalisées des analyses de flux de matières a pu montrer que cette famille de méthodes informe sur le métabolisme des territoires à partir de différents types de flux. L’importance des flux indirects et des ressources minérales dans les métabolismes a ainsi été démontrée. Du côté des études analysant les cycles de vie sur les territoires, comme c’est le cas dans l’analyse de cycle de vie territoriale, la distinction faite entre les impacts et dommages, directs ou globaux, permet d’offrir des recommandations ciblées, améliorant la qualité de vie des citoyens. La mise en œuvre de ces deux méthodes sur le territoire métropolitain a mis en évidence l’importance dominante des flux indirects liés aux importations et exportations que génèrent les activités du territoire, elles-mêmes fortement influencées par la présence du port de Marseille-Fos. L’activité pétrochimique, qui caractérise elle aussi la métropole, est une grande consommatrice de combustibles fossiles, ce qui se reflète dans les volumes de flux calculés et leurs impacts associés. Les deux méthodologies s’avèrent complémentaires, chacune ayant ses forces et faiblesses respectives. Pour l’analyse de cycle de vie, la pensée cycle de vie et la prise en compte de la qualité de la matière, d’une part, et la facilité d’application et la marge d’erreur réduite de l’analyse de flux de matières, d’autre part, en plus de leurs résultats complémentaires, justifient un usage hybride pour la prise d’actions ciblées. En effet, la collecte commune des données rend intéressante leur exploitation et l’interprétation croisée de leurs résultats.
Resumo:
La Chine est l’acteur le plus important dans la lutte internationale aux changements climatiques. Depuis 2007, ce pays est le plus grand émetteur de dioxyde de carbone avec près du quart des émissions mondiales et la croissance de sa consommation d’énergie depuis les années 2000 met en grand danger l’ensemble de la planète. L’objectif de cet essai est d’analyser la capacité de la Chine à réduire ses émissions de gaz à effet de serre et de participer à sa juste part à l’effort international d’atténuation des changements climatiques. Pour ce faire, la croissance économique chinoise des dernières décennies et ses impacts environnementaux sont présentés. On remarque que le modèle de croissance qui a permis à la Chine de se hisser au sommet de l’économie mondiale a montré ses limites et que le gouvernement a développé une nouvelle stratégie économique qui se veut plus durable. Ensuite, les cibles et engagements climatiques de la Chine sont analysés selon quatre critères (capacité, adéquation, responsabilité et effort). Les résultats de cette analyse montrent que la capacité du pays à réduire ses émissions est grande, mais que ses cibles ne sont ni suffisantes pour maintenir la hausse de la température à 2 °C, ni assez contraignantes et larges. Puis, l’impact de la nouvelle stratégie économique sur différents indicateurs est évalué. Cette évaluation montre que les facteurs qui ont largement contribué à la hausse des émissions de gaz à effet de serre en Chine – à savoir une croissance économique effrénée, une forte dépendance au charbon et une économie dominée par le secteur industriel – subissent d’importants changements. En effet, ces mutations majeures dans l’économie chinoise laissent croire que la Chine atteindra ses cibles d’intensité énergétique, d’énergie renouvelable et de plafonnement des émissions de dioxyde de carbone plus rapidement que prévu. Il est recommandé de bonifier les engagements climatiques de la Chine en imposant une cible absolue sur les émissions de dioxyde de carbone et en élargissant la portée de ces engagements pour inclure d’autres gaz à effet de serre. Aussi, certaines recommandations sont faites pour assurer le bon fonctionnement d’un éventuel système de plafonnement et d’échange en Chine. Le travail se conclut sur l’effort à venir dans la lutte internationale aux changements climatiques et sur la nécessité d’étudier la réduction des émissions de gaz à effet de serre en Chine après leur plafonnement, prévu d’ici 2025.
Écologie industrielle et territoriale : un outil pour favoriser le développement durable au Viêt Nam
Resumo:
L’écologie industrielle et territoriale constituant un pilier de l’économie circulaire est de plus en plus déployée dans le monde pour prévenir les pollutions industrielles et éradiquer la raréfaction des ressources. L’objectif de l’essai est de trouver des solutions possibles pour promouvoir ce concept au Viêt Nam afin de relever les défis environnementaux pour aboutir aux objectifs de la croissance verte d’ici 2035. Pour l’atteindre, les trois objectifs secondaires sont la justification de l’applicabilité du concept proposé dans les pays en développement, le diagnostic des barrières de déploiement de ce concept au Viêt Nam et l’analyse des bonnes pratiques réalisées au Québec et en Chine. Un changement de paradigme dans les politiques publiques qui touchent la rationalité économique est incontournable pour faciliter la mise en œuvre de l’écologie industrielle. Les pays en développement ont entrepris certaines démarches de développement durable comme la responsabilité sociale des organisations selon ISO 26 000, l’Agenda 21 local et, très timidement, l’approche de The Natural Step. Le Viêt Nam connaît, depuis les trente dernières années, une industrialisation rapide. La croissance économique est un avantage mobilisant, pourtant les externalités industrielles représentent une des menaces importantes pour ce pays du Sud. Le secteur industriel a contribué au tiers du revenu de ce pays. Les 299 zones industrielles ont été mises en service pour accroître les valeurs ajoutées industrielles. Ce pays de l’Asie du Sud-Est fait face à des risques environnementaux comme l’augmentation des déchets industriels, le doublement de consommation d’énergie et l’augmentation d’un facteur six des émissions de CO2. Le diagnostic sur les sept barrières de création d’une symbiose industrielle démontre la maturité du Viêt Nam au deuxième niveau de déploiement de l’écologie industrielle. Cela signifie que les efforts initiaux ont été bien mobilisés. Cependant, les incitatives économiques et la participation publique sont plus préoccupantes. La méthodologie de création d’une symbiose industrielle au Québec se caractérise par une approche volontaire ainsi que l’acceptabilité sociale. À l’opposé, les outils juridiques constituent un des principaux facteurs de succès de la mise en œuvre de l’économie circulaire en Chine. Les recommandations pour l’implantation de l’écologie industrielle au Viêt Nam sont formulées en compilant les deux approches réglementaires et volontaires. L’adoption de la pensée écosystémique dans les politiques de développement durable, le renforcement de l’information, sensibilisation et éducation, la communication sur les bénéfices de l’écologie industrielle et territoriale auprès des intervenants, la création d’un centre de recherche et développement, la restructuration législative, l’adoption de la gouvernance participative et l’internalisation des externalités par l’écofiscalité doivent se combiner pour faciliter la transformation des zones industrielles vers les parcs éco-industriels au Viêt Nam.
Resumo:
Les actinomycètes filamenteux du sol appartenant au genre Frankia peuvent vivre librement en tant que saprophytes, ou encore s'associer aux racines de plantes pour former une symbiose. Malgré leur importance écologique et l'intérêt biologique qu'ils suscitent, plusieurs aspects de la biologie des Frankiaceae demeurent mal compris. Ceci est dû, entre autres, à leur faible taux de génération et à la difficulté de maintenir des cultures en croissance active, mais surtout, à l’absence d’outils génétiques fonctionnels et efficaces pour les étudier. En raison de l’importance environnementale de Frankia, la mise au point d’un système de modification génétique chez cette actinobactérie est devenue essentielle pour procéder à l’analyse fonctionnelle des gènes d’intérêt et étudier plus efficacement la physiologie et les interactions de ce symbiote actinorhizien avec ses plantes hôtes. Parmi les différentes méthodes de modification génétique, la conjugaison bactérienne semble un moyen efficace pour permettre l’échange de matériel génétique chez plusieurs actinomycètes. Ainsi, la souche Escherichia coli ET12567, fréquemment utilisée lors des conjugaisons intergénériques avec diverses actinobactéries, dont Streptomyces, Amycolatopsis, Kitasatospora et Micromonospora, semble une bonne candidate pour servir de bactérie donneuse lors des conjugaisons intergénériques. Comme l'utilisation d'une souche donneuse auxotrophe permet de faciliter l'étape de contre-sélection, la mutation dapA, codant pour la synthèse de l'acide diaminopimélique (DAP), sera introduite chez E. coli ET12567/pUZ8002. Étant donné que le DAP est un constituant essentiel de la paroi de peptidoglycane et un précurseur de la lysine, cette souche sera totalement dépendante de l'ajout de DAP exogène dans le milieu de culture. Ainsi, la contre-sélection se fera simplement en cessant l'ajout de DAP, rendant cette étape non seulement plus facile et efficace, mais aussi permettant d'éviter l'utilisation d'antibiotique. La croissance des exconjugants peut ainsi se faire dans des conditions optimales, ce qui est particulièrement intéressant pour les actinomycètes présentant une croissance lente comme c'est le cas pour Frankia. Les résultats obtenus montrent que l'utilisation de l'acide nalidixique est moins efficace que la déplétion en DAP pour contre-sélectionner la souche donneuse après conjugaison. L'utilisation d'un mutant ΔdapA comme alternative à l'utilisation d'antibiotique rend la conjugaison bactérienne accessible à un plus large spectre de microorganismes potentiellement sensibles à l'acide nalidixique. Il est clair que les stratégies de clonage qui seront développées auront un impact significatif sur la recherche fondamentale et appliquée chez les actinomycètes, permettant des analyses fonctionnelles des gènes d’intérêts, que ce soit par interruption ou remplacement de gènes ou encore par complémentation génique.
Resumo:
Cet essai visait à étudier comment des étudiantes et étudiants du profil interculturel transfèrent leurs compétences d’intervention en contexte de stage à l’international, puis, s’il y avait lieu, à proposer des améliorations pour favoriser davantage ce transfert. La conjoncture combinée de cinq moments charnières – croissance des partenariats, ouverture des membres du département en Techniques d’éducation spécialisée (TES) pour questionner leur pratique sur le plan interculturel, appui de la direction par l’entremise d’une politique prônant l’internationalisation des programmes, demande croissante des étudiantes et étudiants pour des stages à l’international, transformation du visage culturel de la région Lanaudière – allait donner l’élan à deux membres du département pour développer, à l’automne 2011, le profil interculturel. La mise en oeuvre de ce profil a donné lieu à des changements substantiels et récents dans le programme TES, que ce soit dans son orientation (profil de sortie) et dans l’articulation des compétences ministérielles dans un nouveau logigramme et de nouvelles grilles de cours. Ces changements n’avaient pas encore été étudiés dans la pratique. Le modèle récent de développement des compétences d’intervention en contexte interculturel n’avait pas été, non plus, étudié sur les terrains de stage. De plus, le nombre important de stratégies et d’outils pédagogiques développés en peu de temps pour préparer les étudiantes et étudiants à intervenir en contexte interculturel n’avaient pas été examinés. Pour déterminer le contenu étudié dans le transfert, la chercheuse a mis en relation les éléments du modèle de développement interculturel dans la formation TES, les compétences transversales propres au stage à l’international et les objectifs du stage de consolidation du profil interculturel dans un schéma intégrateur. Pour examiner le transfert, elle a développé un modèle qui combine des composantes du transfert issues de trois auteurs, Bizier et coll., Basque et Barth. Ce modèle a été schématisé et présenté à la fin du chapitre deux. C’est à partir de ce dernier modèle qu’elle a tiré des catégories pour présenter et analyser les résultats. L’essai utilise la méthodologie de l’étude de cas à laquelle ont participé quatre étudiantes en stage à l’international et leur superviseure de stage. Les données ont été recueillies à partir de journaux de pratique réflexive, de grilles de supervision, d’une entrevue semi-dirigée de groupe et d’une autre auprès de la superviseure de stage. Tout au long du processus de recherche, la chercheuse notait ses impressions, questionnements ou commentaires dans un journal de bord. L’analyse des résultats a démontré que les quatre étudiantes sont arrivées à transférer leurs compétences d’intervention en stage à l’international. Elles ont réussi à communiquer sur le plan interculturel, donc à adapter leur communication en fonction des particularités des personnes rencontrées dans leur milieu de stage. Pour ce faire, elles ont pris le temps de bien comprendre, n’ont pas hésité à questionner les personnes autour d’elles, et elles se sont validées tout au long de leur stage autant dans leur milieu qu’auprès de la superviseure de stage. Dans les situations de choc culturel, elles ont réussi à se décentrer pour comprendre le cadre de référence de l’autre, mais elles ont, parfois, eu besoin du support de la superviseure pour le faire. Elles ont toutes démontré une capacité à adapter leurs interventions en fonction du milieu où elles étaient. Elles ont également fait spontanément référence aux connaissances reliées à la relation d’aide et aux notions sur l’éthique. Elles sont arrivées à utiliser des connaissances sur les caractéristiques des clientèles vues dans les cours qu’elles ont suivis, la majorité du temps, avec le support de la superviseure de stage. La recherche démontre aussi l’importance du rôle de la superviseure dans le transfert, plus précisément dans le support qu’elle offre pour guider l’analyse des situations de stage que les étudiantes amènent en supervision. Les supervisions leur permettent d’utiliser des connaissances utiles vues dans les cours, mais aussi de s’approprier l’approche interculturelle. Par ailleurs, la recherche met aussi en évidence la difficulté des étudiantes à comprendre les deux dernières étapes de l’approche interculturelle : la négociation et la médiation. Ces habiletés qui présentent un haut niveau de complexité mettent en évidence les limites de la formation que reçoivent les étudiantes et étudiants. Le même constat a été observé sur les caractéristiques et principes de fonctionnement d’un groupe, qui demande un plus grand niveau d’abstraction. Cela demande de se défaire de ses propres caractéristiques culturelles où les dimensions individuelles sont prépondérantes sur les dimensions collectives. On peut supposer que cette difficulté limite l’analyse qu’elles font sur le plan interculturel. Ce qui rend aussi compte des limites de la formation actuelle en ce qui a trait aux compétences interculturelles. La recherche confirme que, dans leur façon de transférer, les participantes utilisent d’abord les schèmes procéduraux et s’y réfèrent plus qu’aux schèmes conceptuels. C’est au retour du stage qu’elles arriveront à mettre en mots et à utiliser plus de notions sur l’interculturel. La chercheuse a constaté une évolution dans le transfert à travers le temps. Les résultats changent selon le moment où les données sont collectées. Par exemple, le principe de décentration était moins présent dans les journaux de pratique réflexive qui étaient faits sur le vif que lors de l’entrevue de groupe réalisée un mois après le retour du stage.
Resumo:
Le procédé Bayer est cyclique et il permet d'extraire les hydrates d'alumine, contenu dans le minerai de bauxite. L'alumine est la matière première nécessaire pour la production de l'aluminium métallique par le procédé d'électrolyse. La solubilisation des hydrates d'alumine est effectuée dans une solution d'hydroxyde de sodium concentrée, liqueur Bayer, à haute température et pression. Il existe deux types de procédé : un procédé dit à basse température (150ÀC) et un procédé dit haute température (250ÀC). Selon la température utilisée, certaines impuretés présentes dans la bauxite vont être solubilisées comme par exemple la silice, le fer ou le titane. Comme le procédé est basé sur la solubilisation puis sur la précipitation des hydrates d'alumine, la solution est chauffée puis refroidie par une série d'échangeurs de chaleur. Ces changements de température impliquent des variations dans les conditions de saturation et sursaturation ce qui va conséquemment causer la formation de tartre dans le procédé. Selon la température du procédé utilisé, la composition chimique du tartre formé peut être différente. Dans le but d'inhiber partiellement ou totalement la cristallisation de la gibbsite, ou hydrate d'alumine, sur les surfaces métalliques, la compréhension des paramètres influençant sa formation est nécessaire. L'un des moyens de réduire ou d'inhiber la formation du tartre est de modifier les énergies de surface entre les surfaces métalliques et la solution de liqueur Bayer. Pour ce faire, des métaux ayant des propriétés différentes seront étudiés en entartrage et des composés organiques seront ajoutées à la solution d'hydroxyde de sodium afin de modifier l'interface entre ces métaux et la solution. L'influence des hydrates d'alumine et des différents composés organiques sur les métaux sera déterminer [i.e. déterminée] par des mesures d'isothermes d'adsorption, de potentiels zêta et d'angles de contact, dans le but d'établir une corrélation entre l'interface métal/solution et les temps de nucléation mesurés en entartrage. Un deuxième volet consiste en la fabrication d'un montage en laboratoire permettant d'effectuer la formation reproductible du tartre de freudenbergite. La freudenbergite est un tartre à base de titane qui se forme dans le procédé à haute température. Cette étude démontre que la formation du tartre dans le procédé Bayer est un phénomène de formation de cristaux de gibbsite en solution qui vont adhérer aux défauts de surfaces des surfaces métalliques. En ce sens, la rugosité de surface des métaux est le facteur déterminant pour la formation du tartre dans le procédé Bayer. Des tests d'entartrage réalisés au laboratoire sur cinq métaux différents démontrent une corrélation évidente entre la rugosité de surface, mesurée par microscope à force atomique, et les temps de nucléation obtenus en entartrage. Les mesures d'interactions interfaciales des aluminates de sodium sur les métaux étudiés, en présence ou non de composés organiques, ne permettent pas d'établir de corrélation avec les temps de nucléation obtenus en entartrage. Par contre, l'allongement de l'entartrage en présence de gluconate et de tartrate de sodium, des composés inhibiteurs de croissance des cristaux de gibbsite, confirme le phénomène de formation du tartre par des cristaux formés en solution. La croissance des cristaux de tartre étant partiellement inhibée, les temps de nucléation vont être allongés lors des tests d'entartrage. À l'inverse, l'EDTA favorise la formation de plusieurs cristaux en solution, ce qui diminue significativement la vitesse d'entartrage lorsqu'elle est ajoutée dans la liqueur Bayer. Afin de confirmer que la rugosité de surface est le facteur prédominant dans la formation du tartre dans le procédé Bayer, dans nos conditions de laboratoire, des tests d'entartrage sont effectués sur une surface d'or recouverte d'une monocouche d'alcane thiols. Ces tests démontrent que le changement de nature de la surface d'or ne permet pas de changer significativement le temps de nucléation de l'or dans nos conditions d'entartrage. Un montage expérimental comportant un four et quatre autoclaves, contrôlé par un système informatique a permis d'effectuer la formation de tartre de freudenbergite de façon reproductible au laboratoire.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
L’objectif de cet essai est de proposer pour Montréal une stratégie de participation publique visant l’implantation de projets de piétonnisation porteurs d’acceptabilité sociale dans tous les secteurs de la métropole. En effet, malgré quelques initiatives en faveur des modes de déplacement actif, les intérêts des piétons sont souvent délaissés au profit de ceux des automobilistes qui s’imposent plus facilement. Ainsi, la motorisation en constante croissance sur l’île a pour effet de dégrader l’environnement résiduel disponible pour les personnes. Au contraire, le choix d’aménagements favorisant les modes de déplacement doux comme la marche s’avère profitable, dans toutes les sphères du développement durable, tant sur le plan personnel que collectif. L’étude des pratiques d’aménagement urbain à Montréal démontre que les mécanismes de participation des citoyens à la transformation de l’environnement bâti comportent plusieurs lacunes et participent à cette dévalorisation du piéton. L’organisme responsable de la participation publique, l’Office de consultation publique de Montréal, propose une approche inadéquate pour traiter une question aussi complexe que la piétonnisation. Par conséquent, il n’y a pas de trame cohérente et consensuelle de la piétonnisation en ville. Ainsi les aménagements sont de qualité très inégale d’un arrondissement à l’autre, voire d’une rue à l’autre. La définition des concepts démontre qu’une organisation de l’espace à échelle humaine, soit à échelle piétonne, est incontournable lorsqu’il est question de l’aménagement de collectivités viables. Mettre en place des conditions favorables à la marchabilité permet effectivement de développer une vision structurante, à la base d’un milieu de vie plus sain et d’aborder en amont les problématiques propres à l’urbanisation. Par ailleurs, l’emploi d’une approche participative en urbanisme se présente comme une réponse incontournable dans la conception de projets porteurs d’acceptabilité sociale. La stratégie proposée dans le cadre de cet essai vise la mise en place des conditions nécessaires au partage du pouvoir en accord avec les théories de la gouvernance participative. D’abord, la vision de la piétonnisation montréalaise doit être construite en collaboration avec les membres de la collectivité. Ensuite, les projets doivent être co-construits en partenariat avec les parties prenantes afin de bien s’harmoniser avec le milieu d’accueil. 10 recommandations accompagnent cette stratégie de participation en deux volets. Il est entre autres question de redéfinir la culture de la participation publique à Montréal vers la construction de l’acceptabilité sociale des projets, de favoriser une démarche de participation flexible et de communiquer de manière continue, proactive et mobilisatrice.
Resumo:
Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.
Resumo:
Les mesures satellitaires de réflectance de télédétection (Rrs) associée à la fluorescence de la chlorophylle-a induite par le soleil (FCIS), notées Rrs,f , sont largement utilisées dans le domaine de l’océanographie converties sous la forme de rendement quantique de la fluorescence (QYF). Le QYF permet de déterminer l’impact de l’environnement sur la croissance du phytoplancton. Tout comme les autres mesures qui reposent sur la luminance montante, le QYF, et donc la Rrs,f , sont influencés par les effets de bidirectionnalité. Ainsi, sachant que la variabilité naturelle du QYF est faible, les biais engendrés par une normalisation inadéquate de la Rrs,f peuvent avoir des impacts importants sur l’interprétation des mesures de QYF à l’échelle planétaire. La méthode actuelle utilisée pour corriger la dépendance angulaire du signal observé dans la bande de fluorescence par le spectroradiomètre imageur à résolution moyenne (MODIS), embarqué à bord du satellite Aqua, repose sur l’application d’une table de correspondance (LUT) développée par Morel et al. (2002). Toutefois, l’approche de Morel et al. (2002) ne tient pas compte du caractère isotrope de la FCIS ce qui induit des biais systématiques sur les mesures de Rrs,f selon la latitude, par exemple. Dans ce mémoire, une nouvelle méthode de calcul de la LUT ayant pour but de réduire ces biais est introduite. Tout d’abord, celle-ci intègre une mise à jour des propriétés optiques inhérentes (IOPs) dans le modèle de transfert radiatif sur la base de publications plus récentes. Ensuite, la gamme spectrale de son application est élargie à la bande de fluorescence contrairement à la méthode actuelle qui se limite à la longueur d’onde de 660 nm. Finalement, la LUT révisée tient compte des trois composantes principales de la réflectance de télédétection que sont (1) la rétrodiffusion élastique de la lumière par les molécules d’eau et par les particules en suspension, (2) la diffusion Raman (inélastique) par les molécules d’eau et (3) la FCIS. Les résultats de Rrs,f normalisées avec la nouvelle méthode présentent une différence de dispersion moyenne par rapport à celle obtenue par l’application de la méthode de Morel et al. (2002) de l’ordre de -15 %. Des différences significatives, de l’ordre de -22 %, sont observées à de grands angles d’observation et d’éclairement (> 55 %).
Resumo:
Résumé : Le carcinome hépatocellulaire (HCC) est la troisième cause commune de décès de cancer et affecte plus les hommes que les femmes. Le HCC résulte d’une dérégulation des voies de signalisation impliquées dans l’initiation de l’inflammation menant ainsi à des répercussions désastreuses. De part la complexité de ce type de cancer, les traitements qui existent à ce jour ne sont pas très prometteurs et ont un faible pourcentage de « rémission ». L’immunothérapie soulève beaucoup d’espoir quant à l’orientation vers un traitement efficace plausible. En effet, plusieurs suppresseurs de tumeur se retrouvent réprimés, parmi lesquels le SOCS1. C’est dans cette optique que nos recherches se sont orientées en mettant la lumière sur le SOCS1 «suppresseur de signalisation des cytokines 1 (SOCS1) » qui est réprimé au niveau du HCC et dont la restauration pourrait contribuer à un pronostic favorable à la rémission. La protéine SOCS1 a beaucoup attisé la curiosité des chercheurs de part son rôle suppresseur de tumeur. Pour comprendre les mécanismes d’action de SOCS1 et son implication dans la neutralisation de la tumeur, nous avons généré trois types stables de la lignée cellulaire du carcinome hépatocellulaire de souris Hepa1-6, une portant un vecteur vide, l’autre exprimant le type sauvage du gène SOCS1 (SOCS1-WT; Hepa-S) et une portant une mutation au niveau du domaine SH2 (SOCS1-R105K; Hepa-R). Le mutant ne peut plus inhiber la signalisation des cytokines. Lors de l'implantation sous-cutanée des cellules Hepa1-6 modifiées, chez des souris C57BL/6 et NOD.scid.gamma (NSG). Nous avons observé que les cellules Hepa1-6 exprimant le vecteur de contrôle (Hepa-V) formaient de grosses tumeurs tandis que les cellules Hepa-S formaient de petites tumeurs chez les deux types de souris. Les cellules Hepa-R quant à elles, formaient de grosses tumeurs seulement chez des souris immunodéficientes (NSG) mais montraient une croissance nettement retardée lorsqu’elles étaient greffées aux souris (C57BL/6) immunocompétentes. Partant de ce constat intrigant, nous avons postulé que SOCS1 favorise l'immunogénicité des cellules tumorales par son domaine SOCS Box. Par conséquent, les cellules Hepa-R offrent une occasion unique de démêler le potentiel pro-immunogène de SOCS1, et ceci dans le but d'élucider les fonctions immunogènes de SOCS1 dans le cancer du foie. Jusqu'à présent aucune précédente recherche ne s’est aventurée à chercher l’implication de SOCS1 dans l’augmentation de l’immunogénicité.