977 resultados para patrimonialisation de la nature
Resumo:
L'arbitrage a joué un rôle majeur dans l'élaboration d'un droit international ou «transnational», surtout par l'effort fourni au sein des institutions arbitrales qui se trouvent de nos jours partout dans le monde, et les conventions arbitrales qui jouent un rôle extraordinaire dans le domaine de la codification des principes et des dispositions internationales. Celles-ci visent entre autres à résoudre les problèmes liés aux désignations et récusations des arbitres. Il résulte que plusieurs ordres normatifs ont créé des règles pour régir les questions de nomination et de récusation des arbitres. Elles ont une importance proportionnelle qui dépend de l'organisme qui les établit, de sa réputation et de sa crédibilité parmi les commerçants. Nous pouvons trouver des règles sur des questions de nomination et de récusation des arbitres dans les lois étatiques, les conventions internationales, les lois types, et dans les règlements d'arbitrage. L'analyse de ces divers ordres normatifs qui ont disposé des règles pour résoudre les problèmes de désignation et de récusation des arbitres nous permet d'évaluer leur efficacité pour rendre des solutions appropriées aux problèmes rencontrés lors de la constitution du tribunal arbitral. Par ailleurs, nous savons que la finalité espérée de la sentence arbitrale est la possibilité d'être exécutoire, et que cette étape de la procédure est régie par la convention des Nations Unies de 1958, dite « convention de New York de 1958 » pour la reconnaissance et l'exécution des sentences arbitrales. Cette convention établit les conditions qu'on doit respecter - entre autres - lors de la constitution du tribunal arbitral pour qu'une sentence arbitrale puisse obtenir une force exécutoire, d'où nous observons que l'influence de l'irrégularité de la désignation des arbitres peut être très pénible, car, par l'application de l'article V de la convention de New York, la sentence peut être refusée par le juge étatique. En fait, quand les parties contractantes dans des contrats internationaux favorisent le choix de l'institution arbitrale pour régler les différends qui pourraient naître entre eux, cela veut dire que ces parties ont confiance envers cette institution de justice. Mais les problèmes rencontrés lors de la constitution du tribunal arbitral peuvent perturber la confiance de ces parties en cette institution de justice, d'où il sera nécessaire de trouver des solutions efficaces pour rendre l'étape de la constitution du tribunal sécuritaire pour pouvoir solliciter le recours à cette méthode de règlement de différends sans éprouver de crainte sur l'efficacité de la procédure de désignation, de récusation et de remplacement des arbitres. En somme, il est primordial d'assurer la nature privée et contractuelle du contrat d'arbitrage, et d'éviter les risques d'insécurité et d'imprévisibilité qui nuisent au bon développement des relations contractuelles internationales.
Resumo:
L’étoile Wolf-Rayet WR 46 est connue pour sa variabilité complexe sur des échelles de temps relativement courtes de quelques heures et sur des échelles de temps plus longues de plusieurs mois. Des décalages périodiques mais intermittents en vitesse radiale ont déjà été observés dans ses raies d’émission optiques. Plusieurs périodes photométriques ont aussi été mesurées dans le passé. Des pulsations non-radiales, une modulation liée à la rotation rapide, ou encore la présence d’un compagnon de faible masse dont la présence reste à confirmer ont été proposées pour expliquer le comportement de l’étoile sur des échelles de temps de quelques heures. Dans un effort pour dévoiler sa vraie nature, nous avons observé WR 46 avec le satellite FUSE sur plusieurs cycles de variabilité à court terme. Nous avons trouvé des variations sur une échelle de temps d’environ 7,5 heures dans le continu ultraviolet lointain, dans l’aile bleue de la composante d’absorption du profil P Cygni du doublet de O vi 1032, 1038, ainsi que dans la composante d’absorption du profil P Cygni de S vi 933, 944. Nous avons également récupéré des données archivées de cette étoile obtenues avec le satellite XMM-Newton. La courbe de lumière en rayons X montre des variations sur une échelle de temps similaire aux courbes de lumière du continu ultraviolet et ultraviolet lointain, et le spectre rayons X de WR 46 est très mou avec un pic d’émission à des énergies plus faibles que 1 keV. Nous discutons des différentes contraintes sur la nature de la variabilité de cette étoile que ces nouvelles observations aident à poser. Parmi les scénarios suggérés, nous concluons que celui des pulsations non-radiales est le plus probable, bien que nous soyons encore loin d’une compréhension détaillée de WR 46.
Resumo:
Ouvrant la réflexion sur les enjeux de la perte massive de la biodiversité, l'article s'appuie sur la question élémentaire de l'importance de la diversité biologique pour l'homme, à la fois sur le plan économique, biologique et éthique. La maîtrise de la nature par l'homme se révèle être une illusion. La réalité étant celle de l'interaction, il est permis de dire que les sociétés humaines agissent sur leurs propres conditions en modifiant les équilibres biologiques pour satisfaire leurs besoins, sans pour autant intégrer cette interaction fondamentale dans l'équation d'un rapport viable entre l'homme et la nature. L'approche récente par le biais des analyses des services écologiques constitue à cet égard un progrès sensible. Il aboutit néanmoins au constat de l'impossibilité pour l'humanité de se substituer aux mécanismes naturels permettant de tirer les services de la nature nécessaires à sa survie. Plutôt que de prétendre contrôler et maîtriser la nature à tout prix, l’homme devrait apprendre à se reconnaître comme une partie consciente de la nature et à vivre avec la vie qui l’entoure. Cet apprentissage soulève des défis scientifiques, humains et de gouvernance. L'article prône la nécessité d'une science de la biodiversité intégrée et non plus éclatée, condition essentielle pour l'élaboration de politiques économiques et sociales qui intègrent la viabilité de l'utilisation des ressources naturelles et des services qu'elles procurent.
Resumo:
La réalisation de dispositifs à des dimensions sous-micrométriques et nanométriques demande une maîtrise parfaite des procédés de fabrication, notamment ceux de gravure. La réalisation des ces dispositifs est complexe et les exigences en termes de qualité et de géométrie des profils de gravure imposent de choisir les conditions opératoires les mieux adaptées. Les simulations de l'évolution spatio-temporelle des profils de gravure que nous proposons dans cette thèse s'inscrivent parfaitement dans ce contexte. Le simulateur que nous avons réalisé offre la possibilité de mieux comprendre les processus qui entrent en jeu lors de la gravure par plasma de profils dans divers matériaux. Il permet de tester l'influence des paramètres du plasma sur la forme du profil et donc de déterminer les conditions opératoires optimales. La mise au point de ce simulateur s'appuie sur les concepts fondamentaux qui gouvernent la gravure par plasma. À partir de l'état des lieux des différentes approches numériques pouvant être utilisées, nous avons élaboré un algorithme stable et adaptable permettant de mettre en évidence l'importance de certains paramètres clés pour la réalisation de profils de gravure par un plasma à haute densité et à basse pression. Les capacités de cet algorithme ont été testées en étudiant d'une part la pulvérisation de Si dans un plasma d'argon et d'autre part, la gravure chimique assistée par les ions de SiO2/Si dans un plasma de chlore. Grâce aux comparaisons entre profils simulés et expérimentaux, nous avons montré l'importance du choix de certains paramètres, comme la nature du gaz utilisé et la pression du plasma, la forme initiale du masque, la sélectivité masque/matériau, le rapport de flux neutre/ion, etc. Nous avons aussi lié ces paramètres à la formation de défauts dans les profils, par exemple celle de facettes sur le masque, de parois concaves, et de micro-tranchées. Enfin, nous avons montré que le phénomène de redépôt des atomes pulvérisés entre en compétition avec la charge électrique de surface pour expliquer la formation de profils en V dans le Pt pulvérisé par un plasma d'argon.
Resumo:
La théorie de la guerre juste a fournit les principes qui forment la base de nos intuitions concernant l’éthique de la guerre pendant plus de milles ans. Cependant, la nature de la guerre a changé drastiquement dans les derniers 50 ans. Avec les avancés technologiques, tous les aspects de la guerre, du champ de bataille aux armes utilisées, sont aujourd’hui très différents. Ce qui est proposé dans ce texte est que les principes de jus in bello sont malgré tout encore adéquats pour les guerres contemporaines. Spécifiquement, en utilisant une analyse historique, ce texte argumentera contre la condition de l’urgence suprême de Michael Walzer pour proposer une approche qui laisse les principes de bases du jus in bello intactes. Ce texte suggère que les théoriciens de la guerre juste se penchent sur la question des armes prohibées pour avoir un impacte positif dans le domaine de l’éthique de la guerre.
Resumo:
Ce mémoire cherche à évaluer la culpabilité de Socrate face à l’échec et à la corruption d’Alcibiade, telle que la question se pose dans le Banquet de Platon. Il comprend quatre chapitres. Le premier démontre que le cadre dramatique lui-même fait occuper une place centrale à la vie et au déclin d’Alcibiade et au problème de la responsabilité de Socrate face aux accusations de corruption de la jeunesse qui ont pesé sur lui. Le deuxième chapitre interprète le discours d’Alcibiade comme une tentative de disculpation qui repose sur une critique acerbe du comportement de Socrate. Il se serait détourné de Socrate et de ses enseignements en raison de son ironie, de son arrogance et de son indifférence – de son hybris. Le troisième chapitre étudie le discours de Socrate sur l’accession à la beauté intelligible. Il expose la nature particulière de son éros, qui repose sur l’ironie et l’inversion des rôles comme moyens d’exhorter à la philosophie. Le quatrième chapitre pose la question de l’efficacité de ce type de pédagogie et de la responsabilité du philosophe vis-à-vis de ses disciples. L’étude conclut que l’amour et l’ironie de Socrate sont essentiellement des moyens d’inviter l’autre à se remettre lui-même en question et à prendre soin de son âme. Socrate n’est donc pas coupable d’avoir corrompu Alcibiade. La faute est entièrement celle du jeune homme. Il s’est montré incapable, par égocentrisme et fierté excessive, de réagir correctement à l’énigme posée par le comportement érotique de Socrate.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Dans le domaine de la déficience intellectuelle, des relations de nature partenariale entre les parents et les intervenants sont maintenant souhaitées. D’ailleurs, les avantages d’établir un partenariat dans les relations entre les parents et les intervenants ne sont plus à démontrer. Pourtant, les écrits portant sur ce sujet dressent un portrait où le partenariat est plutôt absent des relations entre les intervenants et les parents. En situation d’hébergement, le partenariat entre les parents et les intervenants est encore plus pertinent puisqu’il constitue un facteur influençant positivement l’implication des parents auprès de leur enfant ayant une déficience intellectuelle. Par contre, le sujet spécifique des relations entre les intervenants et les parents de personnes ayant une déficience intellectuelle en contexte d’hébergement a été peu exploré dans les écrits. Dans le cadre du présent mémoire, une recherche qualitative a été menée afin de connaître la perception de parents d’adultes ayant une déficience intellectuelle de leurs relations avec les intervenants dans un contexte d’hébergement. Dix parents ont donc été rencontrés en entrevue. Les objectifs de cette recherche étaient de qualifier, à partir de la perception de parents, la nature des relations qu’ils entretiennent avec les intervenants et de cibler les facteurs qui influencent leurs relations.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
Ce mémoire mélange théorie et fiction pour explorer la technique narrative du “nous” performatif. Le premier chapitre démontre le role du discours dans le processus de formation d’identité, pour éventuellement démontrer que la nature performative du langage est responsable de la creation des constructions sociales du soi et de l’autre. En étudiant les failles de ce système, cet essai tentera de créer une entité narrative libre de ces contraintes. Un second chapitre théorique, après des exemples de fiction, se penchera sur l’entité narrative du flâneur, qui à travers sa relation intime avec la cité, souligne une dichotomie présente dans la relation entre le soi et l’autre. Le flâneur emergera comme un site de traduction dans lequel le “nous” performatif peut prendre action. Toutefois, les limites du flâneur en tant qu’outil narratif l’empêchera d’être la representation ultime de cette dichotomie. Après d’autres exemples de fiction, un troisième chapitre combinera ce qui aura été apprit dans les chapitres précédents pour démontrer que le “nous” performatif et sa dissolution du “je” et du “tu” mène à une narration qui est responsable, consciente d’elle-même et représentative de la réalité urbaine moderne et ses effets sur la création de l’identité.
Resumo:
La présente étude vise à décrire les représentations sociales que des jeunes francophones en santé au Nouveau-Brunswick ont à l’égard du diabète. Cette étude découle d’un partenariat, initié entre l’Université de Moncton et divers organismes et collèges communautaires du Nouveau-Brunswick, qui ont identifié l’importance d’intervenir auprès des jeunes francophones en milieu scolaire pour prévenir le diabète. La théorie des représentations sociales est le cadre théorique utilisé pour décrire la vision que les jeunes ont du diabète, de son origine et des facteurs associés à sa prévention. À notre connaissance, cette étude est la première à examiner le concept du diabète chez des adolescents non atteints de diabète. Hypothèse principale: étant donné que l’expérience que les adolescents ont du diabète est limitée à leur environnement social et qu’ils ont de la difficulté à définir les concepts de santé et de maladie, ils ne seront pas capables de décrire le diabète en profondeur. Pour ce faire, des groupes de discussion, incluant une technique d’association libre, ont été réalisés, entre novembre et décembre 2005, auprès d’adolescents de 5e, 8e et 10e année recrutés dans quatre écoles francophones du Nouveau-Brunswick (Districts 1 et 11). Les réponses des élèves aux groupes de discussion et à l’association libre ont été classées dans des catégories et sous-catégories (analyse de contenu), et des tests de Khi-deux et de «Fisher» ont permis de déterminer les différences entre les sexes et les niveaux scolaires. Cent-trente adolescents (70 filles et 60 garçons) de 5e (n=44), 8e (n=46) et 10e année (n=40) ont participé à 19 groupes de discussion. Lors de l’activité d’association libre, les catégories les plus fréquemment mentionnées étaient : sucre (cité par 66% des participants), traitement (48%), nature du diabète (45%), nutrition (41%), sang (38%), complications (18%), manifestations physiologiques (11%), obésité (6%) et activité physique (6%). Aucune différence significative n’a été observée entre les sexes mais les élèves de 10e année ont cité plus fréquemment les catégories «traitement», «sang» et «obésité». Lors des groupes de discussion, les adolescents ont décrit le diabète comme une maladie (13/19 groupes) reliée au sucre (15/19 groupes) et au sang (13/19 groupes). Cependant, seulement quelques groupes ont discuté en profondeur de la nature du diabète (ex.: rôle de l’insuline et pancréas), des types de diabète (types 1 et 2) et des symptômes et des complications. Ils ont aussi cité ce que les gens atteints de diabète devaient faire pour traiter leur diabète (ex.: manger bien: 18 groupes; se piquer: 17 groupes; prendre des pilules: 5 groupes; et faire de l’activité physique: 5 groupes), mais ils n’ont pas discuté des stratégies à entreprendre pour y arriver. Les représentations de l’origine du diabète incluaient l’hérédité et l’âge (13/19 groupes), l’obésité et l’alimentation (12/19 groupes) et l’activité physique (13/19 groupes). Dans la moitié des groupes, les adolescents ont mentionné se sentir à risque de diabète; les filles plus que les garçons. Treize groupes ont fait référence aux comportements observés chez des diabétiques connus, ce qui démontre l’importance de l’environnement social sur les représentations. Les résultats de cette étude appuient l’hypothèse que les adolescents sont limités dans leur description du diabète en matière de définitions, origines et prévention du diabète. Ces résultats fournissent des pistes de réflexion aux professionnels de la santé pour identifier le contenu et les stratégies que devraient contenir les programmes éducatifs en matière de prévention du diabète chez les jeunes.
Resumo:
Cette thèse s’ouvre avec des commentaires du siècle dernier sur les opinions de Luther à propos de l’autorité du gouvernement et de l’Église, ainsi que sur la nature humaine et la fonction de la loi. Je présente ensuite où ces critiques situent Luther par rapport à la tradition scholastique et par rapport à la tradition romaine au sein de l’Église. Puis, j’explore les œuvres de Luther pour mettre en lumière ses arguments concernant l’Église, la source de son autorité, ainsi que la relation de celle-ci avec les gouvernements, autrement dit les autorités temporelles. De là, je m’intéresse à la comparaison que le réformateur fait entre la place de l’Église dans la société et celle de l’autorité temporelle. Enfin, j’analyse les écrits de Luther à propos de deux évènements concernant la construction du Royaume de Dieu et plus précisément, dans quelle mesure l’Église dépend, ou non, des autorités temporelles pour construire ce Royaume. Nous allons trouver une réponse surprenante à la question de comment l’église est indépendante de l’autorité temporelle dans l’ouvrage spécifique au royaume de Dieu. Le but de ma thèse est de répondre à certains critiques qui reprochent à Luther de s’appuyer sur l’autorité temporelle pour établir l’Église, et par conséquent de donner au temporel le contrôle sur le spirituel. Nous découvrirons que Luther tire son autorité des Écritures. Nous découvrirons aussi les conséquences que cette autorité a sur sa philosophie politique, c'est-à-dire l’importance de la soumission aux autorités gouvernantes en même temps que la libération des individus de la tyrannie d’une fausse doctrine.
Resumo:
Depuis l’introduction de la mécanique quantique, plusieurs mystères de la nature ont trouvé leurs explications. De plus en plus, les concepts de la mécanique quantique se sont entremêlés avec d’autres de la théorie de la complexité du calcul. De nouvelles idées et solutions ont été découvertes et élaborées dans le but de résoudre ces problèmes informatiques. En particulier, la mécanique quantique a secoué plusieurs preuves de sécurité de protocoles classiques. Dans ce m´emoire, nous faisons un étalage de résultats récents de l’implication de la mécanique quantique sur la complexité du calcul, et cela plus précisément dans le cas de classes avec interaction. Nous présentons ces travaux de recherches avec la nomenclature des jeux à information imparfaite avec coopération. Nous exposons les différences entre les théories classiques, quantiques et non-signalantes et les démontrons par l’exemple du jeu à cycle impair. Nous centralisons notre attention autour de deux grands thèmes : l’effet sur un jeu de l’ajout de joueurs et de la répétition parallèle. Nous observons que l’effet de ces modifications a des conséquences très différentes en fonction de la théorie physique considérée.
Resumo:
Les microcantileviers fonctionnalisés offrent une plateforme idéale pour la nano- et micro-mécanique et pour le développement de (bio-) capteurs tres sensible. Le principe d’opération consiste dans des évènements physicochimiques qui se passent du côté fonctionnalisé du microcantilevier induisant une différence de stress de surface entre les deux côtés du cantilevier qui cause une déflexion verticale du levier. Par contre, les facteurs et les phénomènes interfacials qui régissent la nature et l'intensité du stress de surface sont encore méconnus. Pour éclaircir ce phénomène, la première partie de cette thèse porte sur l'étude des réactions de microcantileviers qui sont recouverts d'or et fonctionnalisés par une monocouche auto-assemblée (MAA) électroactive. La formation d'une MAA de ferrocènylundécanethiol (FcC11SH) à la surface d'or d'un microcantilevier est le modèle utilisé pour mieux comprendre le stress de surface induit par l’électrochimie. Les résultats obtenus démontrent qu'une transformation rédox de la MAA de FcC11SH crée un stress de surface qui résulte dans une déflexion verticale du microcantilevier. Dépendamment de la flexibilité du microcantilevier, cette déflexion peut varier de quelques nanomètres à quelques micromètres. L’oxydation de cette MAA de FcC11SH dans un environnement d'ions perchlorate génère un changement de stress de surface compressive. Les résultats indiquent que la déflexion du microcantilevier est due à une tension latérale provenant d'une réorientation et d'une expansion moléculaire lors du transfért de charge et de pairage d’anions. Pour vérifier cette hypothèse, les mêmes expériences ont été répéteés avec des microcantileviers qui ont été couverts d'une MAA mixte, où les groupements électroactifs de ferrocène sont isolés par des alkylthiols inactifs. Lorsqu’un potentiel est appliqué, un courant est détecté mais le microcantilevier ne signale aucune déflexion. Ces résultats confirment que la déflexion du microcantilevier est due à une pression latérale provenant du ferrocènium qui se réorganise et qui crée une pression sur ses pairs avoisinants plutôt que du couplage d’anions. L’amplitude de la déflexion verticale du microcantilevier dépend de la structure moléculaire de la MAA et du le type d’anion utilisés lors de la réaction électrochimique. Dans la prochaine partie de la thèse, l’électrochimie et la spectroscopie de résonance de plasmon en surface ont été combinées pour arriver à une description de l’adsorption et de l’agrégation des n-alkyl sulfates à l’interface FcC11SAu/électrolyte. À toutes les concentrations de solution, les molécules d'agent tensio-actif sont empilées perpendiculairement à la surface d'électrode sous forme de monocouche condensé entrecroisé. Cependant, la densité du film spécifiquement adsorbé s'est avérée être affectée par l'état d'organisation des agents tensio-actifs en solution. À faible concentration, où les molécules d'agent tensio-actif sont présentes en tant que monomères solvatés, les monomères peuvent facilement s'adapter à l’évolution de la concentration en surface du ferrocènium lors du balayage du potential. Cependant, lorsque les molécules sont présentes en solution en tant que micelles une densité plus faible d'agent tensio-actif a été trouvée en raison de l'incapacité de répondre effectivement à la surface de ferrocenium générée dynamiquement.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.