938 resultados para Chaîne de Markov cachée
Resumo:
Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.
Resumo:
L’acidose lactique du Saguenay-Lac-St-Jean, ou syndrome de Leigh de forme canadienne-française (LSFC), est une maladie mitochondriale neurodégénérative causée par des mutations du gène LRPPRC et caractérisée par des crises d’acidose menant au décès en bas âge. On ne comprend pas encore les causes exactes de ces crises, et aucun traitement n’est actuellement disponible. L’objectif de cette étude a été de comparer le profil des métabolites sanguins et urinaires chez des sujets LSFC et des témoins, avant et après un repas, par une approche métabolomique ciblée. Le projet s’inscrit dans une démarche à long terme visant l’identification de biomarqueurs prédictifs des crises, permettant d'intervenir plus rapidement afin d’éviter le décès. Les échantillons biologiques ont été prélevés chez 9 sujets atteints du LSFC et 9 témoins appariés, à jeun et 90 minutes après un repas standardisé. Les analyses incluent un bilan biochimique et hormonal, un profil des acides aminés, des acides gras, des acides organiques et des acylcarnitines. Les métabolites significativement modifiés chez les patients peuvent être classés en deux catégories : (i) le reflet d’une dysfonction mitochondriale, et plus particulièrement de l’accumulation d’équivalents réduits en amont de la chaîne respiratoire, et (ii) des indices de risque cardiométabolique, qui s’observent davantage chez les patients adultes malgré leur jeune âge. Ainsi, il serait intéressant d’inclure au traitement des stratégies visant la diminution des facteurs de risque cardiométabolique, notamment par une modification des habitudes de vie. Notre étude démontre la pertinence d’avoir recours à la métabolomique dans l’étude des désordres de la phosphorylation oxydative.
Resumo:
“A Shine of Truth in the ‘universal delusional context of reification’ (Theodor W. Adorno)” comprend sept chapitres, un prologue et un épilogue. Chaque partie se construit à deux niveaux : (1) à partir des liens qui se tissent entre les phrases contiguës ; et (2) à partir des liens qui se tissent entre les phrases non contiguës. Les incipit des paragraphes forment l’argument principal de la thèse. Le sujet de la thèse, Schein (apparence, illusion, clarté) est abordé de manière non formaliste, c’est à dire, de manière que la forme donne d’elle-même une idée de la chose : illusion comme contradiction imposée. Bien que le sujet de la thèse soit l’illusion, son but est la vérité. Le Chapitre I présente une dialectique de perspectives (celles de Marx, de Lukács, de Hegel, de Horkheimer et d'Adorno) pour arriver à un critère de vérité, compte tenu du contexte d’aveuglement universel de la réification ; c’est la détermination de la dissolution de l’apparence. Le Chapitre II présente le concept d’apparence esthétique—une apparence réversible qui s’oppose à l’apparence sociale générée par l’industrie de la culture. Le Chapitre III cherche à savoir si la vérité en philosophie et la vérité en art sont deux genres distincts de vérités. Le Chapitre IV détermine si l’appel à la vérité comme immédiateté de l’expression, fait par le mouvement expressionniste du 20e siècle, est nouveau, jugé à l’aune d’un important antécédent à l’expressionisme musical : « Der Dichter spricht » de Robert Schumann. Le Chapitre V se penche sur la question à savoir si le montage inorganique est plus avancé que l’expressionisme. Le Chapitre VI reprend là où Peter Bürger clôt son essai Theorie de l’avant-garde : ce chapitre cherche à savoir à quel point l’oeuvre d’art après le Dada et le Surréalisme correspond au modèle hégélien de la « prose ». Le Chapitre VII soutient que Dichterliebe, op. 48, (1840), est une oeuvre d’art vraie. Trois conclusions résultent de cette analyse musicale détaillée : (1) en exploitant, dans certains passages, une ambigüité dans les règles de l’harmonie qui fait en sorte tous les douze tons sont admis dans l’harmonie, l’Opus 48 anticipe sur Schoenberg—tout en restant une musique tonale ; (2) l’Opus 48, no 1 cache une tonalité secrète : à l'oeil, sa tonalité est soit la majeur, soit fa-dièse mineur, mais une nouvelle analyse dans la napolitaine de do-dièse majeur est proposée ici ; (3) une modulation passagère à la napolitaine dans l’Opus 48, no 12 contient l’autre « moitié » de la cadence interrompue à la fin de l’Opus 48, no 1. Considérés à la lumière de la société fausse, l’Allemagne des années 1930, ces trois aspects anti-organiques témoignent d’une conscience avancée. La seule praxis de vie qu’apporte l’art, selon Adorno, est la remémoration. Mais l’effet social ultime de garder la souffrance vécue en souvenir est non négligeable : l’émancipation universelle.
Resumo:
En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.
Resumo:
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.
Analyse des processus de dérive lors de la gravure profonde du silicium dans des plasmas SF6 et C4F8
Resumo:
L’objectif de ce mémoire de maîtrise est de développer des outils de diagnostics non-invasifs et de caractériser in-situ les dérives de procédé dans un réacteur industriel utilisé en production pour la gravure profonde du silicium par le procédé Bosch. Ce dernier repose sur l’alternance d’un plasma de SF6 pour la gravure isotrope du Si et d’un plasma de C4F8 pour la passivation des parois dans l’optique d’obtenir des tranchées profondes et étroites. Dans un premier temps, nous avons installé une sonde courant-tension sur la ligne de transmission du signal rf au porte-substrat pour l’étude de son impédance caractéristique et un spectromètre optique pour l’étude de l’émission optique du plasma. Nos travaux ont montré que l’évolution temporelle de l’impédance constitue un excellent moyen pour identifier des changements dans la dynamique du procédé, notamment une gravure complète de la photorésine. De plus, à partir des spectres d’émission, nous avons pu montrer que des produits carbonés sont libérés du substrat et des parois lors de l’alternance passivation/gravure et que ceux-ci modifient considérablement la concentration de fluor atomique dans le plasma. Dans un second temps, nous avons développé un réacteur à « substrat-tournant » pour l’analyse in-situ des interactions plasma-parois dans le procédé Bosch. Nos travaux sur ce réacteur visaient à caractériser par spectrométrie de masse l’évolution temporelle des populations de neutres réactifs et d’ions positifs. Dans les conditions opératoires étudiées, le SF6 se dissocie à près de 45% alors que le degré de dissociation du C4F8 atteint 70%. Le SF6 est avant tout dissocié en F et SF3 et l’ion dominant est le SF3+ alors que le C4F8 est fragmenté en CF, CF3 et CF4 et nous mesurons plusieurs ions significatifs. Dans les deux cas, la chaîne de dissociation demeure loin d’être complète. Nous avons noté une désorption importante des parois de CF4 lors du passage du cycle de passivation au cycle de gravure. Un modèle d’interactions plasmas-parois est proposé pour expliquer cette observation.
Resumo:
Alors que la question de la responsabilité juridique des entreprises multinationales (EMNs) est sujette à de nombreuses controverses sur la sphère internationale, les victimes collatérales et directes des activités des EMNs sont engagées dans une tout autre bataille. En effet, de quels recours disposent les victimes de pollution environnementale causée par les activités d’une entreprise minière, ou les employés victimes de violations des droits fondamentaux du travail au sein d’une chaîne de production par les sous-traitants d’une très respectable EMN? Telles sont les interrogations animant la présente étude qui se focalise essentiellement sur la mise en oeuvre du droit à la réparation consacrée par le troisième pilier des Principes directeurs adoptés par l’ONU en 2011. Retraçant les fondements du droit à la réparation en droit international, elle met en évidence l’impossibilité de poursuivre les EMNs devant les instances internationales du fait de l’irresponsabilité juridique internationale découlant du statut actuel des EMNS. En l’absence de législation extraterritoriale et d’harmonisation juridique au niveau régional, l’analyse aborde ainsi en profondeur les opportunités et les limites de la mise en oeuvre du droit à réparation devant les instances judiciaires nationales les plus courues du moment par les victimes qui cherchent à obtenir des réparations pour les violations des droits humains par les EMNs. Si les obstacles rencontrés par les victimes devant le prétoire américain n’ont eu de cesse de se multiplier ces dernières années, l’émergence d’un principe de diligence raisonnable sous-tendant l’idée d’une responsabilité civile des EMNS devant le juge européen et canadien peut offrir une base adéquate pour asseoir l’encadrement d’un droit à réparation par les acteurs transnationaux à l’échelle locale. Les Principes directeurs privilégiant également l’implication des EMNs dans la mise en oeuvre du droit à réparation, la recherche se clôt avec l’étude du cas pratique de la réponse apportée par les EMNs aux victimes bangladaises de la tragédie du Rana Plaza survenue en 2013 à Dacca. L’analyse permet ainsi de conclure que de ce combat aux allures de David contre Goliath opposant les EMNs à leurs victimes, il est impératif que les mécanismes judiciaires nationaux soient renforcés et que l’encadrement juridique de la responsabilité internationale des EMNs sorte enfin des sentiers battus afin de remédier à l’asymétrie causée par la poursuite des intérêts économiques sur la protection effective des droits humains.
Resumo:
Le concept des Sociétés de fictions élaboré dans le cadre de ce mémoire vise l’exploration de la médiation à l’ère du numérique. Pour penser les modalités de fictions littéraires avec l’idée qu’elles puissent former des sociétés distinctes, ce travail d’analyse propose d’examiner diverses fictions, plus précisément des expressions gothiques américaines en littérature contemporaine, afin d’en extraire un mode de pensée significatif. Dans le dessein d’analyser la manière dont ces fictions se relient entre elles, cette recherche se focalise sur le rapport qu’entretient la fiction littéraire avec la technologie ainsi qu’avec divers modes de diffusion et de médiation. Afin de comprendre comment les mécanismes du discours positionnent des œuvres de fictions les unes par rapport aux autres, ces fictions individuées seront d’abord examinées au sein d’une société qui leur est propre. Ceci mènera à exposer en quoi et comment les rapports qu’entretient l’humain avec la littérature et la technologie se reconfigurent par le biais de nouvelles formes de médiations. La présente réflexion se penche ainsi sur les modes d’interactions des fictions qui s’organisent en sociétés afin de pouvoir analyser comment le glissement du paradigme de l’imprimé et des supports matériels, à l’âge du numérique, peut se traduire par une manière inédite de penser notre relation au littéraire. En somme, cette réflexion sur la mobilité des formes et des plateformes liées aux fictions et à leur société devrait permettre de mieux analyser les individus qui inventent et consomment ces fictions, leur univers social ainsi que leur rapport intime à la technologie et ses médiations. Ces sociétés de fictions deviennent alors une clé pour comprendre notre rapport à la virtualisation de nos univers sociaux. Entre les sociétés de fictions et les sociétés des Hommes se noue un lien substantiel laissant entrevoir une véritable co-évolution de ces univers distincts. Les principales œuvres de fiction étudiées et citées seront celles du romancier et scénariste américain Bret Easton Ellis, plus précisément les romans Less Than Zero et Imperial Bedrooms. Il sera également question de la série télévisuelle Twin Peaks, diffusée sur la chaîne ABC en 1990 et réalisée par David Lynch, ainsi que d’une nouvelle de John Cheever, The enormous radio, parue en 1947, dans le New Yorker.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.
Resumo:
Depuis la découverte d’archées capables d’oxyder l’ammoniac en milieu aérobie, de nombreuses études ont mesuré en simultané les taux de nitrification et la diversité des organismes oxydant l’ammoniac dans la colonne d’eau des milieux marins. Malgré l’importance globale des lacs d’eau douce, beaucoup moins d’études ont fait la même chose dans ces milieux. Dans cette étude, nous avons évalué l’importance de la nitrification et caractérisé la communauté microbienne responsable de la première étape limitante de la nitrification dans un lac tempéré durant une année entière. L’utilisation de traceur isotopique 15NH4 nous a permis de mesurer des taux d’oxydation d’ammoniac à deux profondeurs dans la zone photique tout au long de l’année. Les taux d’oxydation d’ammoniac varient de non détectable à 333 nmol L-1 j-1 avec un pic d’activité sous la glace. De toutes les variables environnementales mesurées, la concentration d’ammonium dans la colonne d’eau semble avoir le plus grand contrôle sur les taux d’oxydation d’ammoniac. Nous avons détecté la présence d’archées (AOA) et de bactéries oxydante d’ammoniac (BOA) à l’aide de tests par réaction en chaîne de la polymérase (PCR) ciblant une partie du gène ammoniac monoxygénase (amoA). Les AOA et les BOA ont été détectées dans la zone photique du lac, cependant seules les AOA étaient omniprésentes durant l’année. Le séquençage du gène amoA des archées révèle que la majorité des AOA dans le lac sont membres du groupe phylogénétique Nitrosotalea (également appelé SAGMGC-1 ou groupe I.1a associé), ce qui confirme la pertinence écologique de ce groupe dans les eaux douces oligotrophes. Globalement, nos résultats indiquent l’hiver comme étant un moment propice pour l’oxydation de l’ammoniac dans les lacs tempérés. Cette étude fournit un point de référence pour la compréhension du processus d’oxydation de l’ammoniac dans les petits lacs oligotrophes.
Resumo:
Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.
Resumo:
En mars 2013, trois cent treize artefacts précolombiens, exposés auparavant dans le musée barcelonais des Suisses Jean-Paul Barbier et Monique Mueller, furent mis en vente chez Sotheby’s à Paris par ce couple de collectionneurs. L’affaire fut l’objet une couverture médiatique internationale lorsque des pays d’Amérique centrale et d’Amérique du Sud, notamment le Pérou, le Mexique et le Guatemala, protestèrent contre la tenue de cette vente, avançant que leur patrimoine culturel national n’est pas à vendre. La question centrale de ce mémoire porte sur le trafic illicite des biens culturels et elle se décline en trois axes, à partir d’une étude de cas : la collection Barbier-Mueller. Les relations complexes entre les musées et les grands collectionneurs sont observées dans le premier chapitre à la lumière des règles déontologiques qui régissent habituellement les institutions, afin de ne pas encourager l’acquisition d’objets impliqués dans des transactions illicites. Dans un deuxième temps, au moyen d’une succincte présentation du marché actuel de l’art mondial, l’influence des maisons de ventes aux enchères sera examinée. Tandis que la provenance des artefacts en vente n’est pas toujours clairement affichée, il est difficile de retracer la lignée des propriétaires ou leur nation d’origine. Or, sachant que la commercialisation illicite des biens culturels se développe à l’intérieur même du marché de l'art régulier, les auteurs parlent alors d’un « marché gris ». Ce mémoire remonte, depuis l’excavation en passant par leur exportation illégale, la chaîne de transactions de ces biens culturels qui aboutissent dans les expositions des plus prestigieuses institutions. Cette recherche aborde en dernier lieu certaines incongruités du marché de l’art en auscultant les particularités des outils fournis par l’UNESCO et l’ICOM, ainsi que la question de l’aliénation, en plus de celle des limites juridiques des pays requérants. Finalement, cette étude présente les oppositions entre le discours officiel et les actions réellement entreprises pour la protection du patrimoine culturel.
Resumo:
La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.
Resumo:
La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.