993 resultados para Systèmes multiagents
Resumo:
Dans la foulée des scandales financiers ayant secoué le milieu des affaires ces dernières années, l’efficacité des pratiques de régie d’entreprise, et, en particulier celles liées à l’indépendance des administrateurs, a été passée au crible. L’administrateur désigné par une partie pour la représenter est un type d’administrateur que l’on rencontre fréquemment au sein des conseils d’administration des entreprises. Toutefois, l’on peut se questionner sur l’indépendance réelle de ces administrateurs, considérant leur loyauté envers la personne les ayant désignés, laquelle détient habituellement un intérêt à titre d’actionnaire ou de partie prenante dans l’entreprise visée. En outre, alors que les principes légaux requièrent que les administrateurs agissent dans le meilleur intérêt de l’entreprise, la réalité pratique est parfois toute autre: aux prises avec les instructions ou les souhaits de la personne les ayant nommés, les administrateurs désignés se retrouvent placés en situation inhérente de conflit d’intérêts. Ce texte vise à offrir une analyse détaillée au sujet de l’administrateur désigné et du conflit d’intérêts résultant de cette double exigence de loyauté. L’objectif est de présenter un examen approfondi des diverses difficultés résultant de la nomination d’un administrateur désigné ou associées à celle-ci, ainsi que des réponses judiciaires et législatives liées à cette problématique. Cette réflexion mènera à une exploration de certains systèmes législatifs et légaux, en particulier ceux du Royaume-Uni, de l’Australie et de la Nouvelle-Zélande, afin d’obtenir une meilleure compréhension et d’offrir une perspective éclairée quant aux enjeux analysés par la présente.
Resumo:
In this paper, I argue that intersectionality, the prevailing way of conceptualizing the relation between axes or systems of oppression (race, class, gender), illicitly imports the very model it purports to overcome: that is, the unitary model of identity. I first define “intersectionality” and distinguish between three senses that are frequently conflated. Then I subject the model to an analytic critique, revealing its hidden presuppositions about identity. Finally, I suggest that solidarity serves as a better norm for feminist practice than inclusion of “difference,” which seems to be the norm underlying many intersectional accounts.
Resumo:
I argue that it is time for many feminists to rethink their attitudes towards evolutionary biology, not because feminists have been wrong to be deeply sceptical about many of its claims, both explicit and implicit, but because biology itself has changed. A new appreciation for the importance of development in biology has become mainstream and a new ontology, associated with developmental systems theory (DST), has been introduced over the last two decades. This turn challenges some of the features of evolutionary biology that have most troubled feminists. DST undermines the idea of biologicales sence and challenges both nature /nurture and nature/culture distinctions. Freed from these conceptual constraints, evolutionary biology no longer poses the problems that have justified feminist scepticism. Indeed, feminists have already found useful applications for DST and I argue that they should expand their use of DST to support more radical and wide-ranging political theories.
Resumo:
Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
Le cancer est la principale cause de mortalité au Canada. Les taxanes (e.g. le paclitaxel et le docétaxel (DCTX)) constituent des remèdes efficaces contre une série de tumeurs solides telles que les cancers du sein, du poumon et de l’ovaire. Par ailleurs, des acides nucléiques (e.g. les oligonucléotides antisens (AON) ou les petits ARN interférents (siRNAs)), capables de supprimer sélectivement certains oncogènes impliqués dans la carcinogénèse, sont actuellement étudiés pour traiter une large gamme de cancers. Bien que l’activité des taxanes et des acides nucléiques soit bien établie sur des modèles humains et/ou animaux, plusieurs aspects physico-chimiques et cliniques restent encore à améliorer. Leur solubilité limitée (pour les taxanes), leur dégradation rapide dans le sang (pour les acides nucléiques), leur élimination précoce, leur absence de sélectivité et leur toxicité envers les tissus sains sont les principaux facteurs limitant leur efficacité. C’est pourquoi de nombreux efforts ont porté sur l’élaboration de systèmes de vectorisation ciblés à base de polymères, dans le but de surmonter les problèmes associés aux thérapies actuelles. Dans cette thèse, deux types de micelles polymères ont été développés pour la vectorisation de DCTX et d’acides nucléiques. D’une part, des micelles de poly(oxyde d’éthylène)-bloc-poly(oxyde de butylène/styrène) ont été étudiées pour la première fois pour solubiliser le DCTX et le protéger de l’hydrolyse. Ces polymères se sont révélés moins toxiques que le surfactant utilisé commercialement pour solubiliser le DCTX (i.e. polysorbate 80) et ont permis une libération prolongée du principe actif. D’autre part, deux systèmes différents de micelles polyioniques (PICM) ont été mis au point pour la vectorisation d’acides nucléiques. De nouveaux conjugués de poly(éthylène glycol) (PEG)-oligonucléotide ont été proposés pour la protection et la libération contrôlée d’AON. Lorsque ces conjugués ont été formulés avec des dendrimères de poly(amidoamine) (PAMAM), des complexes de taille homogène ont été obtenus. Ces PICM ont permis de prolonger la libération de l’AON et de le protéger efficacement contre la dégradation enzymatique. De plus, des polymères de poly(oxyde d’éthylène)-bloc-poly(méthacrylate de propyle-co-acide méthacrylique) ont été incorporés afin de conférer des propriétés acido-sensibles aux PICM. Dans ces micelles, formées de ce dernier polymère formulé avec le dendrimère PAMAM, des oligonucléotides (AON et siRNA) ciblant l’oncogène Bcl-2 ont été encapsulés. L’internalisation cellulaire fut assurée par un fragment d’anticorps monoclonal (Fab’) situé à l’extrémité de la couronne de PEG. Après l’internalisation cellulaire et la protonation des unités d’acide méthacrylique sous l’effet de l’acidification des endosomes, les micelles se sont affranchies de leur couronne. Elles ont ainsi exposé leur cœur composé d’acide nucléique et de dendrimère PAMAM, qui possède une charge positive et des propriétés endosomolytiques. En effet, ces PICM acido-sensibles ciblées ont permis d’augmenter la biodisponibilité des acides nucléiques vectorisés et se sont avérées plus efficaces pour silencer l’oncoprotéine Bcl-2 que les micelles non ciblées ou que le dendrimère de PAMAM commercial seul. Finalement, les nanovecteurs polymères présentés dans cette thèse se révèlent être des systèmes prometteurs pour la vectorisation des anticancéreux et des acides nucléiques.
Resumo:
Le maintien de la stabilité du génome est essentiel pour la propagation de l’information génétique et pour la croissance et la survie des cellules. Tous les organismes possèdent des systèmes de prévention des dommages et des réarrangements de l’ADN et nos connaissances sur ces processus découlent principalement de l’étude des génomes bactériens et nucléaires. Comparativement peu de choses sont connues sur les systèmes de protection des génomes d’organelles. Cette étude révèle l’importance des protéines liant l’ADN simple-brin de la famille Whirly dans le maintien de la stabilité du génome des organelles de plantes. Nous rapportons que les Whirlies sont requis pour la stabilité du génome plastidique chez Arabidopsis thaliana et Zea mays. L’absence des Whirlies plastidiques favorise une accumulation de molécules rearrangées produites par recombinaison non-homologue médiée par des régions de microhomologie. Ce mécanisme est similaire au “microhomology-mediated break-induced replication” (MMBIR) retrouvé chez les bactéries, la levure et l’humain. Nous montrons également que les organelles de plantes peuvent réparer les bris double-brin en utilisant une voie semblable au MMBIR. La délétion de différents membres de la famille Whirly entraîne une accumulation importante de réarrangements dans le génome des organelles suite à l’induction de bris double-brin. Ces résultats indiquent que les Whirlies sont aussi importants pour la réparation fidèle des génomes d’organelles. En se basant sur des données biologiques et structurales, nous proposons un modèle où les Whirlies modulent la disponibilité de l’ADN simple-brin, régulant ainsi le choix des voies de réparation et permettant le maintien de la stabilité du génome des organelles. Les divers aspects de ce modèle seront testés au cours d’expériences futures ce qui mènera à une meilleure compréhension du maintien de la stabilité du génome des organelles.
Polysaccharide-based Polyion Complex Micelles as New Delivery Systems for Hydrophilic Cationic Drugs
Resumo:
Les micelles polyioniques ont émergé comme des systèmes prometteurs de relargage de médicaments hydrophiles ioniques. Le but de cette étude était le développement des micelles polyioniques à base de dextrane pour la relargage de médicaments hydrophiles cationiques utilisant une nouvelle famille de copolymères bloc carboxymethyldextran-poly(éthylène glycol) (CMD-PEG). Quatre copolymères CMD-PEG ont été préparés dont deux copolymères identiques en termes de longueurs des blocs de CMD et de PEG mais différent en termes de densité de charges du bloc CMD; et deux autres copolymères dans lesquels les blocs chargés sont les mêmes mais dont les blocs de PEG sont différents. Les propriétés d’encapsulation des micelles CMD-PEG ont été évaluées avec différentes molécules cationiques: le diminazène (DIM), un médicament cationique modèle, le chlorhydrate de minocycline (MH), un analogue semi-synthétique de la tétracycline avec des propriétés neuro-protectives prometteuses et différents antibiotiques aminoglycosidiques. La cytotoxicité des copolymères CMD-PEG a été évaluée sur différentes lignées cellulaires en utilisant le test MTT et le test du Bleu Alamar. La formation de micelles des copolymères de CMD-PEG a été caractérisée par différentes techniques telles que la spectroscopie RMN 1H, la diffusion de la lumière dynamique (DLS) et la titration calorimétrique isotherme (ITC). Le taux de relargage des médicaments et l’activité pharmacologique des micelles contenant des médicaments ont aussi été évalués. Les copolymères CMD-PEG n'ont induit aucune cytotoxicité dans les hépatocytes humains et dans les cellules microgliales murines (N9) après 24 h incubation pour des concentrations allant jusqu’à 15 mg/mL. Les interactions électrostatiques entre les copolymères de CMD-PEG et les différentes drogues cationiques ont amorcé la formation de micelles polyioniques avec un coeur composé du complexe CMD-médicaments cationiques et une couronne composée de PEG. Les propriétés des micelles DIM/CMDPEG ont été fortement dépendantes du degré de carboxyméthylation du bloc CMD. Les micelles de CMD-PEG de degré de carboxyméthylation du bloc CMD ≥ 60 %, ont incorporé jusqu'à 64 % en poids de DIM et ont résisté à la désintégration induite par les sels et ceci jusqu'à 400 mM NaCl. Par contre, les micelles de CMD-PEG de degré de carboxyméthylation ~ 30% avaient une plus faible teneur en médicament (~ 40 % en poids de DIM) et se désagrégeaient à des concentrations en sel inférieures (∼ 100 mM NaCl). Le copolymère de CMD-PEG qui a montré les propriétés micellaires les plus satisfaisantes a été sélectionné comme système de livraison potentiel de chlorhydrate de minocycline (MH) et d’antibiotiques aminoglycosidiques. Les micelles CMD-PEG encapsulantes de MH ou d’aminoglycosides ont une petite taille (< 200 nm de diamètre), une forte capacité de chargement (≥ 50% en poids de médicaments) et une plus longue période de relargage de médicament. Ces micelles furent stables en solution aqueuse pendant un mois; après lyophilisation et en présence d'albumine sérique bovine. De plus, les micelles ont protégé MH contre sa dégradation en solutions aqueuses. Les micelles encapsulant les drogues ont maintenu les activités pharmacologiques de ces dernières. En outre, les micelles MH réduisent l’inflammation induite par les lipopolysaccharides dans les cellules microgliales murines (N9). Les micelles aminoglycosides ont été quant à elles capable de tuer une culture bactérienne test. Toutefois les micelles aminoglycosides/CMDPEG furent instables dans les conditions physiologiques. Les propriétés des micelles ont été considérablement améliorées par des modifications hydrophobiques de CMD-PEG. Ainsi, les micelles aminoglycosides/dodecyl-CMD-PEG ont montré une taille plus petite et une meilleure stabilité aux conditions physiologiques. Les résultats obtenus dans le cadre de cette étude montrent que CMD-PEG copolymères sont des systèmes prometteurs de relargage de médicaments cationiques.
Resumo:
L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
Dans sa thèse, l’auteure analyse la fonction du système judiciaire dans le système juridique selon une double perspective historique et sociologique. Cette approche possède un potentiel euristique important, car elle révèle que la place réservée à la production judiciaire du droit se modifie au gré de la conception que se fait la société de l’origine et de la légitimité du droit. Grâce à la méthodologie proposée par la théorie des systèmes, il est possible d’analyser le phénomène de la montée en puissance des juges dans sa dimension scientifique, en substituant une interprétation sociologique à celle, traditionnelle, formulée par la science politique. Grâce à une réappropriation de la justice par la science juridique, la production judiciaire du droit peut être étudiée dans une perspective systémique. Celle-ci démontre la situation névralgique occupée par la fonction de juger dans le système juridique. Par le biais d’un retour aux sources de la fonction de juger, l’auteur identifie les stratégies empruntées par les titulaires de cette fonction pour maintenir et légitimer leur position dans l’organisation du système juridique. La thèse démontre que le discours judiciaire de la Cour suprême du Canada sur la norme d’indépendance judiciaire homologue la théorie de la place centrale du système judiciaire dans le système juridique. La thèse conclut enfin que des conditions sociologiques sont nécessaires pour assurer l’indépendance judiciaire et garantir la primauté du droit. Ces conditions sont la différenciation sociale, une structure de programme juridique conditionnelle et la limitation de la responsabilité des juges pour l’impact de leurs décisions dans le système social.
Resumo:
Le droit de la propriété intellectuelle présente, depuis quelques années, un intérêt particulier à l'évolution de la recherche sur les plantes. Ceci s'est traduit, au plan international, par l'adoption de plusieurs instruments visant à assurer une meilleure protection des investissements consentis dans ce domaine. Il s'agit notamment de la Convention de l'UPOV, qui s'inscrit dans une logique de protection par la voie sui generis avec la possibilité de délivrance de certificat d'obtention végétale aux sélectionneurs; de l'Accord ADPIC, qui, en plus de recommander un système sui generis efficace, ouvre l'option de protection par brevet ou en définitive par le cumul des deux systèmes; de la Convention sur la Diversité Biologique (CDB) et du Traité de la FAO portant sur les ressources phytogénétiques pour l'alimentation et l'agriculture, qui, favorables aux deux précédentes formes de protection, demandent que soient prises en compte des considérations relatives aux droits souverains des pays sur leurs ressources végétales, au partage des bénéfices, etc. Au plan régional, on distingue, entre autres, l'initiative de l'Afrique, visant à assurer la protection des plantes suivant une logique partagée entre l'alignement sur les normes internationales existantes (Accord de Bangui) ou l'institution d'une autre législation originale qui reflète les réalités et préoccupations du continent (Loi modèle). Il apparaît donc qu'il existe plusieurs instruments pour cerner la même réalité. Ceci est forcément la source de quelques difficultés qui sont d'ordre conceptuel, socioéconomique, environnemental et juridique. Pour les pallier, il est important que certaines conditions soient satisfaites afin d'harmoniser les points de vue entre les différents acteurs concernés par la question et d'assurer une appropriation conséquente des instruments adoptés.
Resumo:
Le présent mémoire a pour objet les formes, les caractéristiques et les défis de la gouvernance des déchets électroniques. L’auteure explore les impactes socioéconomiques et environnementales de divers types d’instruments conçus pour mitiger les risques à la santé humaine et à l’environnement que présentent les produits électroniques en fin de vie, notamment: les traités multilatéraux qui visent à prohiber le transfert des déchets hasardeux au pays en développement, les législations régionales, nationales et provinciales mettant en vigueur des systèmes de recyclage obligatoire des déchets électroniques, ainsi que d’autres initiatives, publics et privées, basées sur le principe de la responsabilité élargie des producteurs (REP). L’objectif de ce travail est de comprendre comment les acteurs impliqués dans le commerce de l’équipement électronique peuvent modeler les systèmes de production, d’usage et du traitement fin de vie des technologies contemporaines pour que ces dernières puissent continuer à faire élever les standards de vie et à avancer le développement des communautés humaines, en respectant simultanément le principe international de l’équité globale, l’environnement naturel et la qualité de vie des générations futures.
Resumo:
L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.