924 resultados para chaîne de Markov
Resumo:
Alors que la question de la responsabilité juridique des entreprises multinationales (EMNs) est sujette à de nombreuses controverses sur la sphère internationale, les victimes collatérales et directes des activités des EMNs sont engagées dans une tout autre bataille. En effet, de quels recours disposent les victimes de pollution environnementale causée par les activités d’une entreprise minière, ou les employés victimes de violations des droits fondamentaux du travail au sein d’une chaîne de production par les sous-traitants d’une très respectable EMN? Telles sont les interrogations animant la présente étude qui se focalise essentiellement sur la mise en oeuvre du droit à la réparation consacrée par le troisième pilier des Principes directeurs adoptés par l’ONU en 2011. Retraçant les fondements du droit à la réparation en droit international, elle met en évidence l’impossibilité de poursuivre les EMNs devant les instances internationales du fait de l’irresponsabilité juridique internationale découlant du statut actuel des EMNS. En l’absence de législation extraterritoriale et d’harmonisation juridique au niveau régional, l’analyse aborde ainsi en profondeur les opportunités et les limites de la mise en oeuvre du droit à réparation devant les instances judiciaires nationales les plus courues du moment par les victimes qui cherchent à obtenir des réparations pour les violations des droits humains par les EMNs. Si les obstacles rencontrés par les victimes devant le prétoire américain n’ont eu de cesse de se multiplier ces dernières années, l’émergence d’un principe de diligence raisonnable sous-tendant l’idée d’une responsabilité civile des EMNS devant le juge européen et canadien peut offrir une base adéquate pour asseoir l’encadrement d’un droit à réparation par les acteurs transnationaux à l’échelle locale. Les Principes directeurs privilégiant également l’implication des EMNs dans la mise en oeuvre du droit à réparation, la recherche se clôt avec l’étude du cas pratique de la réponse apportée par les EMNs aux victimes bangladaises de la tragédie du Rana Plaza survenue en 2013 à Dacca. L’analyse permet ainsi de conclure que de ce combat aux allures de David contre Goliath opposant les EMNs à leurs victimes, il est impératif que les mécanismes judiciaires nationaux soient renforcés et que l’encadrement juridique de la responsabilité internationale des EMNs sorte enfin des sentiers battus afin de remédier à l’asymétrie causée par la poursuite des intérêts économiques sur la protection effective des droits humains.
Resumo:
Le concept des Sociétés de fictions élaboré dans le cadre de ce mémoire vise l’exploration de la médiation à l’ère du numérique. Pour penser les modalités de fictions littéraires avec l’idée qu’elles puissent former des sociétés distinctes, ce travail d’analyse propose d’examiner diverses fictions, plus précisément des expressions gothiques américaines en littérature contemporaine, afin d’en extraire un mode de pensée significatif. Dans le dessein d’analyser la manière dont ces fictions se relient entre elles, cette recherche se focalise sur le rapport qu’entretient la fiction littéraire avec la technologie ainsi qu’avec divers modes de diffusion et de médiation. Afin de comprendre comment les mécanismes du discours positionnent des œuvres de fictions les unes par rapport aux autres, ces fictions individuées seront d’abord examinées au sein d’une société qui leur est propre. Ceci mènera à exposer en quoi et comment les rapports qu’entretient l’humain avec la littérature et la technologie se reconfigurent par le biais de nouvelles formes de médiations. La présente réflexion se penche ainsi sur les modes d’interactions des fictions qui s’organisent en sociétés afin de pouvoir analyser comment le glissement du paradigme de l’imprimé et des supports matériels, à l’âge du numérique, peut se traduire par une manière inédite de penser notre relation au littéraire. En somme, cette réflexion sur la mobilité des formes et des plateformes liées aux fictions et à leur société devrait permettre de mieux analyser les individus qui inventent et consomment ces fictions, leur univers social ainsi que leur rapport intime à la technologie et ses médiations. Ces sociétés de fictions deviennent alors une clé pour comprendre notre rapport à la virtualisation de nos univers sociaux. Entre les sociétés de fictions et les sociétés des Hommes se noue un lien substantiel laissant entrevoir une véritable co-évolution de ces univers distincts. Les principales œuvres de fiction étudiées et citées seront celles du romancier et scénariste américain Bret Easton Ellis, plus précisément les romans Less Than Zero et Imperial Bedrooms. Il sera également question de la série télévisuelle Twin Peaks, diffusée sur la chaîne ABC en 1990 et réalisée par David Lynch, ainsi que d’une nouvelle de John Cheever, The enormous radio, parue en 1947, dans le New Yorker.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.
Resumo:
Depuis la découverte d’archées capables d’oxyder l’ammoniac en milieu aérobie, de nombreuses études ont mesuré en simultané les taux de nitrification et la diversité des organismes oxydant l’ammoniac dans la colonne d’eau des milieux marins. Malgré l’importance globale des lacs d’eau douce, beaucoup moins d’études ont fait la même chose dans ces milieux. Dans cette étude, nous avons évalué l’importance de la nitrification et caractérisé la communauté microbienne responsable de la première étape limitante de la nitrification dans un lac tempéré durant une année entière. L’utilisation de traceur isotopique 15NH4 nous a permis de mesurer des taux d’oxydation d’ammoniac à deux profondeurs dans la zone photique tout au long de l’année. Les taux d’oxydation d’ammoniac varient de non détectable à 333 nmol L-1 j-1 avec un pic d’activité sous la glace. De toutes les variables environnementales mesurées, la concentration d’ammonium dans la colonne d’eau semble avoir le plus grand contrôle sur les taux d’oxydation d’ammoniac. Nous avons détecté la présence d’archées (AOA) et de bactéries oxydante d’ammoniac (BOA) à l’aide de tests par réaction en chaîne de la polymérase (PCR) ciblant une partie du gène ammoniac monoxygénase (amoA). Les AOA et les BOA ont été détectées dans la zone photique du lac, cependant seules les AOA étaient omniprésentes durant l’année. Le séquençage du gène amoA des archées révèle que la majorité des AOA dans le lac sont membres du groupe phylogénétique Nitrosotalea (également appelé SAGMGC-1 ou groupe I.1a associé), ce qui confirme la pertinence écologique de ce groupe dans les eaux douces oligotrophes. Globalement, nos résultats indiquent l’hiver comme étant un moment propice pour l’oxydation de l’ammoniac dans les lacs tempérés. Cette étude fournit un point de référence pour la compréhension du processus d’oxydation de l’ammoniac dans les petits lacs oligotrophes.
Resumo:
Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.
Resumo:
En mars 2013, trois cent treize artefacts précolombiens, exposés auparavant dans le musée barcelonais des Suisses Jean-Paul Barbier et Monique Mueller, furent mis en vente chez Sotheby’s à Paris par ce couple de collectionneurs. L’affaire fut l’objet une couverture médiatique internationale lorsque des pays d’Amérique centrale et d’Amérique du Sud, notamment le Pérou, le Mexique et le Guatemala, protestèrent contre la tenue de cette vente, avançant que leur patrimoine culturel national n’est pas à vendre. La question centrale de ce mémoire porte sur le trafic illicite des biens culturels et elle se décline en trois axes, à partir d’une étude de cas : la collection Barbier-Mueller. Les relations complexes entre les musées et les grands collectionneurs sont observées dans le premier chapitre à la lumière des règles déontologiques qui régissent habituellement les institutions, afin de ne pas encourager l’acquisition d’objets impliqués dans des transactions illicites. Dans un deuxième temps, au moyen d’une succincte présentation du marché actuel de l’art mondial, l’influence des maisons de ventes aux enchères sera examinée. Tandis que la provenance des artefacts en vente n’est pas toujours clairement affichée, il est difficile de retracer la lignée des propriétaires ou leur nation d’origine. Or, sachant que la commercialisation illicite des biens culturels se développe à l’intérieur même du marché de l'art régulier, les auteurs parlent alors d’un « marché gris ». Ce mémoire remonte, depuis l’excavation en passant par leur exportation illégale, la chaîne de transactions de ces biens culturels qui aboutissent dans les expositions des plus prestigieuses institutions. Cette recherche aborde en dernier lieu certaines incongruités du marché de l’art en auscultant les particularités des outils fournis par l’UNESCO et l’ICOM, ainsi que la question de l’aliénation, en plus de celle des limites juridiques des pays requérants. Finalement, cette étude présente les oppositions entre le discours officiel et les actions réellement entreprises pour la protection du patrimoine culturel.
Resumo:
La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.
Resumo:
La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.
Resumo:
Contrairement à la plupart des eucaryotes non-photosynthétiques, les végétaux doivent assurer la stabilité d’un génome additionnel contenu dans le plastide, un organite d’origine endosymbiotique. Malgré la taille modeste de ce génome et le faible nombre de gènes qu’il encode, celui-ci est absolument essentiel au processus de photosynthèse. Pourtant, même si ce génome est d’une importance cruciale pour le développement de la plante, les principales menaces à son intégrité, ainsi que les conséquences d’une déstabilisation généralisée de sa séquence d’ADN, demeurent largement inconnues. Dans l’objectif d’élucider les conséquences de l’instabilité génomique chloroplastique, nous avons utilisé le mutant why1why3polIb d’Arabidopsis thaliana, qui présente d’importants niveaux de réarrangements génomiques chloroplastiques, ainsi que la ciprofloxacine, un composé induisant des brisures double-brins dans l’ADN des organites. Ceci nous a permis d’établir qu’une quantité importante de réarrangements génomiques provoque une déstabilisation de la chaîne de transport des électrons photosynthétique et un grave stress oxydatif associé au processus de photosynthèse. Étonnamment, chez why1why3polIb, ces hautes concentrations d’espèces oxygénées réactives ne mènent ni à la perte de fonction des chloroplastes affectés, ni à la mort cellulaire des tissus. Bien au contraire, ce déséquilibre rédox semble être à l’origine d’une reprogrammation génique nucléaire permettant de faire face à ce stress photosynthétique et conférant une tolérance aux stress oxydatifs subséquents. Grâce à une nouvelle méthode d’analyse des données de séquençage de nouvelle génération, nous montrons également qu’un type particulier d’instabilité génomique, demeuré peu caractérisé jusqu’à maintenant, constitue une des principales menaces au maintien de l’intégrité génomique des organites, et ce, tant chez Arabidopsis que chez l’humain. Ce type d’instabilité génomique est dénommé réarrangement de type U-turn et est vraisemblablement associé au processus de réplication. Par une approche génétique, nous démontrons que les protéines chloroplastiques WHY1, WHY3 et RECA1 empêchent la formation de ce type d’instabilité génomique, probablement en favorisant la stabilisation et le redémarrage des fourches de réplication bloquées. Une forte accumulation de réarrangements de type U-turn semble d’ailleurs être à l’origine d’un sévère trouble développemental chez le mutant why1why3reca1. Ceci soulève de nombreuses questions quant à l’implication de ce type d’instabilité génomique dans de nombreux troubles et pathologies possédant une composante mitochondriale.
Resumo:
Parmi la grande quantité de témoins culturels découverts sur le site Droulers/Tsiionhiakwatha (BgFn-1), la pierre taillée et polie forme un assemblage bien modeste. Les Iroquoiens de Droulers ont habité un village semi-permanent daté du Sylvicole supérieur, plus précisément entre l’an 1430 et 1500 ap. J.-C. Ils ont fabriqués des grattoirs, des pointes de flèches, des forets, des polissoirs et des meules à mains, en plus d’outils en quartz hyalin dont la fonction n’est pas bien définie. Parmi les 3595 objets lithiques, nous trouvons 18 outils et 1085 déchets de taille en cristal, ce qui représente près de 30% du total. Le quartz hyalin fut utilisé durant la préhistoire québécoise, mais jamais en aussi grande quantité que sur Droulers. Nous présentons la chaîne opératoire du quartz hyalin, de son extraction à son rejet sur les sites archéologiques. Nous explorons également son utilisation et sa symbolique chez les habitants du village Droulers, une enquête basée sur des données archéologiques et ethnographiques des Amérindiens actuels et de ceux de la période de Contact du nord-est de l’Amérique du nord.
Resumo:
Problématique: Le virus du papillome humain (VPH) est présent dans près de 50% des cancers de l’oropharynx. Le potentiel oncogénique du VPH est encodé dans les oncoprotéines E6 et E7, qui agissent en modulant différents gènes, dont les gènes suppresseurs de tumeur p53 et pRb. Les cellules VPH positives démontrent une altération au niveau de la signalisation de la réponse aux dommages à l’ADN (RDA), un mécanisme de contrôle dans l’arrêt de la croissance des cellules ayant subit des dommages au niveau de leur ADN. Hypothèse et objectifs : Nous croyons que les défauts au niveau de la RDA des cancers VPH positifs peuvent être exploités afin de sensibiliser préférentiellement les cellules cancéreuses aux traitements de radiothérapie. Cette stratégie de recherche nécessite l’élaboration d’un modèle cellulaire de carcinogenèse isogénique pour le cancer de l’oropharynx que nous proposons de développer et de caractériser. L’étude vise à dériver des lignées isogéniques à partir de kératinocytes primaires et cellules épithéliales de l’oropharynx pour ensuite valider la carcinogenèse de notre modèle in vitro & in vivo Méthodologie : Des lignées cellulaires de kératinocytes primaires et de cellules épithéliales de l’oropharynx ont été successivement modifiées par transduction afin de présenter les mutations associées aux cancers de l’oropharynx induits par le VPH. Les cellules ont été modifiées avec des lentivirus codants pour la télomérase (hTERT), les oncogènes E6, E7 et RasV12. Afin de valider la cancérogenèse in vitro de notre modèle, des études d’invasion en matrigel et de croissance sans ancrage en agar mou ont été réalisées. Les populations cellulaires transformées ont été ensuite introduites dans des souris immunodéficientes afin d’évaluer leur tumorogénicité in vivo. Résultats : À partir des plasmides recombinés construits par méthodes de clonage traditionnelle et de recombinaison « Gateway », nous avons produit des lentivirus codants pour la télomérase humaine (hTERT), les oncogènes viraux E6 et E7 et l’oncogène Ras. Les kératinocytes primaires et cellules épithéliales de l’oropharynx ont été infectés successivement par transduction et sélectionnés. Nous avons validé l’expression de nos transgènes par méthode d’immunofluorescence, de Western Blot et de réaction de polymérisation en chaîne quantitative en temps réel (qRT-PCR). Nous avons établi trois lignées des cellules épithéliales de l’oropharynx (HNOE) à partir d’échantillons tissulaires prélevés lors d’amygdalectomie (HNOE42, HNO45, HNOE46). Les cellules transduites avec le lentivirus exprimant le promoteur fort CMV/TO de l’oncogène RasV12 ont présenté un changement morphologique compatible avec une sénescence prématurée induite par l’oncogène Ras. En exprimant des quantités plus faibles du RasV12 mutant, la lignée cellulaire HEKn hTERT-E6-E7 PGK RasV12 a réussi à échapper à la sénescence induite par l’oncogène Ras. La population cellulaire exprimant HEKn hTERT-E6-E7-PGK RasV12 a présenté un phénotype malin en culture et à l’étude d'invasion, mais n’a pas démontré de résultats positifs à l’étude de croissance sans ancrage en agar mou ni en xénogreffe en souris immunodéficientes. Conclusion : Nos résultats démontrent qu’en présence des oncogènes viraux E6 et E7, il y a un troisième mécanisme suppresseur de tumeur qui médie la sénescence induite par l’oncogène Ras. Nous avons identifié que la présence de E6 seule ne suffit pas à immortaliser les kératinocytes primaires humains (HEKn). Nous n’avons pas réussi à créer un modèle in vitro de carcinogenèse pour les cancers de l’oropharynx induits par le VPH.
Resumo:
Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.
Resumo:
L'oxydoréduction des monocouches auto-assemblées («Self-assembled monolayers ou SAMs) de ferrocenyldodecanethiolates sur une surface d'or (Fc(CH2)12SAu) dans des solutions aqueuses de n-alkyle sulfate de sodium (6, 8, 10 et 12 atomes de carbone) est étudiée par spectroscopie de résonance des plasmons de surface («Surface Plasmons Resonance ou SPR) couplée avec de la voltampérométrie cyclique (VC). La technique SPR est utilisée pour suivre en temps réel l'adsorption des tensioactifs en fonction du potentiel appliqué. Elle permet de quantifier l'épaisseur et le recouvrement des molécules adsorbées pour déterminer l'organisation des tensioactifs anioniques sur la SAM. La VC est utilisée afin de caractériser l'oxydation du groupement ferrocène en présence des n-alkyle sulfate de sodium qui s'associent à la SAM grâce à l'appariement entre le ferrocénium et le groupement sulfate. Des mélanges binaires d'alkylesulfates de différentes compositions sont utilisés dans le but de déterminer l'organisation induite par une réaction d'oxydoréduction. L'effet de la longueur de la chaîne d'hydrocarbures sur la quantité de tensioactifs anioniques adsorbés ainsi que les affinités relatives d'appariement des anions alkyle sulfate aux ferrocéniums sont rapportés dans ce mémoire. Ces surfaces électrosensibles permettront la détection de molécules amphiphiles et la compréhension du comportement de mélanges binaires de tensioactifs. Ainsi, ces travaux apporteront une avancée sur la modulation électrochimique de l'organisation de matériaux sur des substrats solides basée sur l'appariement d'ions.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.