1000 resultados para Moynet, Léon


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les historiens qui se sont consacrés à l’étude de l’Allemagne contemporaine, plusieurs considèrent qu’en perpétrant un crime aussi barbare que la Shoah, le Troisième Reich a provoqué une « rupture de civilisation » (Zivilisationsbruch) au sein de l’histoire occidentale. En règle générale, ces spécialistes ont réfléchi sur le sens ainsi que sur les implications historiques et philosophiques de cet événement pour le monde contemporain. Peu d’entre eux, toutefois, se sont intéressés au pendant de cette « rupture de civilisation » : le processus de « recivilisation » qui a été à l’œuvre dans la société ouest-allemande au cours des premières décennies d’après-guerre. Caractérisé par le rejet de la violence et du militarisme, par la restauration des normes élémentaires de la civilité ainsi que par l’importance croissante accordée à des valeurs telles que la démocratie et le respect des droits de la personne, ce processus permet en grande partie d’expliquer comment, en à peine deux décennies, les Allemands de l’Ouest ont réussi à édifier un État stable et démocratique sur les ruines d’une dictature génocidaire. En étudiant la présentation du Décalogue dans les catéchismes catholiques, ce mémoire cherche à déterminer le rôle attribué aux prescriptions morales de nature religieuse dans le processus de « recivilisation » de la société ouest-allemande. Il se propose de montrer qu’au cours des années 1950 et 1960, les catéchismes catholiques publiés en RFA ont présenté de plus en plus d’indices d’une volonté que l’on pourrait qualifier de « recivilisatrice ». Ces indices ont surtout pris la forme d’une attention grandissante aux questions relatives à la guerre et à la paix, d’un assouplissement dans la présentation de l’autorité parentale et de l’adoption d’une conception de l’autorité civile fondée désormais sur l’accomplissement de devoirs civiques plutôt que sur l’obéissance aux supérieurs hiérarchiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des ligands diketimines porteurs de substituants N-benzyl, N-9-anthrylmethyl et N-mesitylmethyl (nacnacBnH, nacnacAnH, and nacnacMesH) ont été synthétisés par condensation d’une amine et d’acétyl acétone ou son monoacétal d’éthylène glycol. La chlorination de la position 3 a été effectuée à l’aide de N-chlorosuccinimide conduisant à la formation des ligands ClnacnacBnH et ClnacnacAnH. Cette même position 3 a également été substituée par un groupement succinimide par lithiation du nacnacBnH, suivi de la réaction avec le N-chlorosuccinimide (3-succinimido-nacnacBnH). Les ligands N-aryl nacnacippH et nacnacNaphH (ipp = 2-isopropylphenyl, Naph = 1-naphthyl) ont été préparés selon les procédures reportées dans la littérature. La réaction de ces ligands avec Zn(TMSA)2 (TMSA = N(SiMe3)2) conduit à la formation des complexes nacnacAnZn(TMSA) et ClnacnacBnZn(TMSA). La protonation avec l’isopropanol permet l’obtention des complexes nacnacAnZnOiPr et ClnacnacBnZnOiPr. La réaction avec Mg(TMSA)2 permet quant à elle la formation des complexes nacnacAnMg(TMSA), nacnacMesMg(TMSA), ClnacnacBnMg(TMSA) et ClnacnacAnMg(TMSA). La protonation subséquente à l’aide du tert-butanol permet l’obtention du nacnacMesMgOtBu et du ClnacnacBnMgOtBu, alors que l’on observe uniquement une décomposition avec les ligands possédant des substituants N-anthrylmethyl. La réaction de ces diketimines avec Cu(OiPr)2 conduit aux dimères hétéroleptiques [nacnacBnCu(μ-OiPr)]2 et [3-Cl-nacnacBnCu(μ-OiPr)]2 lors de l’usage des ligands stériquement peu encombrés. Lors de l’utilisation de ligands plus encombrés, la stabilisation du complexe hétéroleptique par dimérisation n’est plus possible, conduisant, par un échange de ligand, à la formation des complexes homoleptiques Cu(nacnacipp)2 et Cu(nacnacNaph)2. Les complexes homoleptiques Cu(nacnacBn)2 et Cu(3-succinimido-nacnacBn)2 ont été obtenus à partir des ligands N-benzyl. Les ligands encore plus encombrés tels que nacnacAnH, nacnacMesH ou ceux comportant des substituants N-methylbenzyl ne présentent alors plus de réactivité avec le Cu(OiPr)2. La plupart des complexes ont été caractérisés par Diffraction des Rayons X. Les complexes homoleptiques ainsi que ceux de TMSA sont monomériques, alors que ceux formés à partir d’alkoxides se présentent sous forme de dimères à l’état solide. Tous les complexes d’alkoxides ainsi que les nacnacAnMg(TMSA)/BnOH et ClnacnacAnMg(TMSA)/BnOH présentent une réactivité modérée à haute en matière de polymérisation du rac-lactide (90% de conversion en 30 secondes à 3 heures). Le nacnacAnZnOiPr permet la synthèse d’un polymère hautement hétérotactique (Pr = 0.90) quand le ClnacnacBnMgOtBu/BnOH génère un polymère isotactique à -30°C (Pr = 0.43). Tous les autres catalyseurs produisent des polymères atactiques avec une légère tendance hétérotactique (Pr = 0.48 – 0.55). Les complexes hétéroleptiques [nacnacBnCu(μ-OiPr)]2 et [3-Cl-nacnacBnCu(μ-OiPr)]2 se révèlent être de très bons catalyseurs pour la polymérisation du rac-lactide présentant une conversion complète du monomère à température ambiante, en solution, en 0,5 à 5 minutes. Le [nacnacBnCu(μ-OiPr)]2 est actif en présence ou absence d’isopropanol, agissant comme agent de transfert de chaine à haute activité (k2 = 32 M–1•s–1) dans le dichlorométhane. Dans l’acétonitrile, le THF, le dichloromethane et le toluène, [nacnacBnCu(μ-OiPr)]2 conduit à une étroite polydispersité, possédant respectivement des kobs = 2.4(1), 5.3(5), 3.6-4.4 and 10(1) min–1. Aucune réaction parasite, telle qu’une trans-esterification, une épimerisation ou une décomposition du catalyseur, n’a été observée. Les complexes homoleptiques en présence d’alcool libre semblent présenter un équilibre avec une petite quantité de leurs équivalents hétéroleptiques, permettant une polymérisation complète, en moins de 60 min, à température ambiante. Tous les catalyseurs de cuivre présentent un haut contrôle de la polymérisation avec une polydispersité égale ou inférieure à 1.1. Les polymères obtenus sont essentiellement atactiques, avec une légère tendance à l’hétérotacticité à température ambiante et -17°C. Le [nacnacBnCu(μ-OiPr)]2 polymérise également la -butyrolactone (BL), l’-caprolactone (CL) et la -valerolactone (VL) avec des constantes respectivement égales à kobs = 3.0(1)•10–2, 1.2–2.7•10–2, et 0.11(1) min–1. Les homopolymères présentent une étroite polydispersité d’approximativement 1.1. Les polymérisations par addition séquentielle ont mis en évidence une trans-estérification (non observée dans les homopolymérisations) si BL ou CL sont introduits après un bloc lactide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’intéresse aux problèmes de tournées de véhicules où l’on retrouve des contraintes de chargement ayant un impact sur les séquences de livraisons permises. Plus particulièrement, les items placés dans l’espace de chargement d’un véhicule doivent être directement accessibles lors de leur livraison sans qu’il soit nécessaire de déplacer d’autres items. Ces problèmes sont rencontrés dans plusieurs entreprises de transport qui livrent de gros objets (meubles, électroménagers). Le premier article de cette thèse porte sur une méthode exacte pour un problème de confection d’une seule tournée où un véhicule, dont l’aire de chargement est divisée en un certain nombre de piles, doit effectuer des cueillettes et des livraisons respectant une contrainte de type dernier entré, premier sorti. Lors d’une collecte, les items recueillis doivent nécessairement être déposés sur le dessus de l’une des piles. Par ailleurs, lors d’une livraison, les items doivent nécessairement se trouver sur le dessus de l’une des piles. Une méthode de séparation et évaluation avec plans sécants est proposée pour résoudre ce problème. Le second article présente une méthode de résolution exacte, également de type séparation et évaluation avec plans sécants, pour un problème de tournées de véhicules avec chargement d’items rectangulaires en deux dimensions. L’aire de chargement des véhicules correspond aussi à un espace rectangulaire avec une orientation, puisque les items doivent être chargés et déchargés par l’un des côtés. Une contrainte impose que les items d’un client soient directement accessibles au moment de leur livraison. Le dernier article aborde une problème de tournées de véhicules avec chargement d’items rectangulaires, mais où les dimensions de certains items ne sont pas connus avec certitude lors de la planification des tournées. Il est toutefois possible d’associer une distribution de probabilités discrète sur les dimensions possibles de ces items. Le problème est résolu de manière exacte avec la méthode L-Shape en nombres entiers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les dinoflagellés sont des eucaryotes unicellulaires que l’on retrouve autant en eau douce qu’en milieu marin. Ils sont particulièrement connus pour causer des fleurs d’algues toxiques nommées ‘marée-rouge’, ainsi que pour leur symbiose avec les coraux et pour leur importante contribution à la fixation du carbone dans les océans. Au point de vue moléculaire, ils sont aussi connus pour leur caractéristiques nucléaires uniques, car on retrouve généralement une quantité immense d’ADN dans leurs chromosomes et ceux-ci sont empaquetés et condensés sous une forme cristalline liquide au lieu de nucléosomes. Les gènes encodés par le noyau sont souvent présents en multiples copies et arrangés en tandem et aucun élément de régulation transcriptionnelle, y compris la boite TATA, n’a encore été observé. L’organisation unique de la chromatine des dinoflagellés suggère que différentes stratégies sont nécessaires pour contrôler l’expression des gènes de ces organismes. Dans cette étude, j’ai abordé ce problème en utilisant le dinoflagellé photosynthétique Lingulodinium polyedrum comme modèle. L. polyedrum est d’un intérêt particulier, car il a plusieurs rythmes circadiens (journalier). À ce jour, toutes les études sur l’expression des gènes lors des changements circadiens ont démontrées une régulation à un niveau traductionnel. Pour mes recherches, j’ai utilisé les approches transcriptomique, protéomique et phosphoprotéomique ainsi que des études biochimiques pour donner un aperçu de la mécanique de la régulation des gènes des dinoflagellés, ceci en mettant l’accent sur l’importance de la phosphorylation du système circadien de L. polyedrum. L’absence des protéines histones et des nucléosomes est une particularité des dinoflagellés. En utilisant la technologie RNA-Seq, j’ai trouvé des séquences complètes encodant des histones et des enzymes modifiant les histones. L polyedrum exprime donc des séquences conservées codantes pour les histones, mais le niveau d’expression protéique est plus faible que les limites de détection par immunodétection de type Western. Les données de séquençage RNA-Seq ont également été utilisées pour générer un transcriptome, qui est une liste des gènes exprimés par L. polyedrum. Une recherche par homologie de séquences a d’abord été effectuée pour classifier les transcrits en diverses catégories (Gene Ontology; GO). Cette analyse a révélé une faible abondance des facteurs de transcription et une surprenante prédominance, parmi ceux-ci, des séquences à domaine Cold Shock. Chez L. polyedrum, plusieurs gènes sont répétés en tandem. Un alignement des séquences obtenues par RNA-Seq avec les copies génomiques de gènes organisés en tandem a été réalisé pour examiner la présence de transcrits polycistroniques, une hypothèse formulée pour expliquer le manque d’élément promoteur dans la région intergénique de la séquence de ces gènes. Cette analyse a également démontré une très haute conservation des séquences codantes des gènes organisés en tandem. Le transcriptome a également été utilisé pour aider à l’identification de protéines après leur séquençage par spectrométrie de masse, et une fraction enrichie en phosphoprotéines a été déterminée comme particulièrement bien adapté aux approches d’analyse à haut débit. La comparaison des phosphoprotéomes provenant de deux périodes différentes de la journée a révélée qu’une grande partie des protéines pour lesquelles l’état de phosphorylation varie avec le temps est reliées aux catégories de liaison à l’ARN et de la traduction. Le transcriptome a aussi été utilisé pour définir le spectre des kinases présentes chez L. polyedrum, qui a ensuite été utilisé pour classifier les différents peptides phosphorylés qui sont potentiellement les cibles de ces kinases. Plusieurs peptides identifiés comme étant phosphorylés par la Casein Kinase 2 (CK2), une kinase connue pour être impliquée dans l’horloge circadienne des eucaryotes, proviennent de diverses protéines de liaison à l’ARN. Pour évaluer la possibilité que quelques-unes des multiples protéines à domaine Cold Shock identifiées dans le transcriptome puissent moduler l’expression des gènes de L. polyedrum, tel qu’observé chez plusieurs autres systèmes procaryotiques et eucaryotiques, la réponse des cellules à des températures froides a été examinée. Les températures froides ont permis d’induire rapidement un enkystement, condition dans laquelle ces cellules deviennent métaboliquement inactives afin de résister aux conditions environnementales défavorables. Les changements dans le profil des phosphoprotéines seraient le facteur majeur causant la formation de kystes. Les phosphosites prédits pour être phosphorylés par la CK2 sont la classe la plus fortement réduite dans les kystes, une découverte intéressante, car le rythme de la bioluminescence confirme que l’horloge a été arrêtée dans le kyste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En français contemporain, l’hésitation dans le choix entre être et avoir comme auxiliaire dans les formes verbale composées (par ex. le passé composé) de certains verbes intransitifs (par ex. tomber), surtout dans des variétés non standards du français, démonte clairement l’écart qui existe entre le français normé et le français oral quotidien. Cette hésitation, voire l’incertitude, dans le choix de l’auxiliaire n’est pas une particularité arbitraire ou aléatoire de la langue contemporaine; elle s’inscrit plutôt dans une tendance diachronique et pan-romane que l’on a pu observer dans la langue française depuis son émancipation du latin. Notre étude, qui se fonde sur la théorie de la grammaticalisation, propose une analyse du discours grammatical de 1500 – époque où sont apparues les premières grammaires du français – jusqu’à 1789 avec la Révolution française, signalant le moment où la langue se serait stabilisée et aurait adopté sa forme moderne. Nous divisons les trois siècles de notre étude en quatre périodes distinctes, déjà bien établies dans les études historiques. Ce sont : - Le XVIe siècle (1530-1599) - La première moitié de la période classique (1600-1650) - La deuxième moitié de la période classique (1651-1715) - Le Siècle des lumières (1716-1789) Pour chacune des quatre périodes, l’analyse se fait en trois temps. Premièrement, nous recensons les grammairiens, les lexicographes et les essayistes qui se sont prononcés, soit explicitement, soit implicitement, sur l’emploi des auxiliaires être et avoir dans les formes verbales composées (FVC). Nous identifions, là où cela est possible, le dialecte maternel de chaque auteur et son modèle d’usage. Deuxièmement, nous résumons les observations et les commentaires sur l’emploi des auxiliaires dans les FVC formulés par chaque auteur, y compris les tentatives d’explication quant à la variation dans le choix de l’auxiliaire. Finalement, nous rapportons la description de l’emploi des auxiliaires dans les FVC proposée par des historiens de la langue française pour la période en question. Notre étude nous permet de confirmer, en ce qui concerne les FVC, certaines tendances déjà reconnues dans la langue française et d’en identifier d’autres. Également, nous avons pu repérer, voire circonscrire des facteurs qui ont eu une influence sur le choix, tels les verbes plus sensibles à l’alternance, les grammairiens dont l’autorité s’est imposé plus que d’autres ou avant les autres dans l’établissement de la norme sur ce point, les contextes sociaux dans lesquels le débat a eu lieu et la période pendant laquelle les préoccupations sur ce choix était les plus intenses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche doctorale vise à comprendre et interpréter les conditions d’émergence d’un engagement chez des jeunes en situation de marginalité. Des études ont montré que cette situation peut-être un frein important à l’engagement, en raison d’un manque de ressources personnelles, organisationnelles, ou culturelles. Généralement, on a tendance à insister sur le fait que « les jeunes » ne veulent plus militer. Pourtant, d’importantes actions collectives (mouvements étudiants ou communautaires) ou initiatives citoyennes personnelles (écriture de blogues ou signature de pétitions) viennent contredire cette affirmation. En fait, certaines prises de position, dans la sphère privée notamment, échappent à toute analyse classique et sont prises pour un non-engagement, de l’individualisme voire de l’apathie. À partir d’une approche qualitative, exploratoire et interprétative, le dispositif méthodologique de cette thèse privilégie l’observation participante et les entretiens de groupe afin de recueillir le point de vue des jeunes et d’observer un certain nombre d’actions collectives. C’est par le truchement d’organismes communautaires de jeunesse (OCJ) montréalais qu’une centaine de jeunes ont été rencontrés, de septembre 2010 à décembre 2011. L’analyse itérative du corpus de données s’est inspirée des principes de la théorisation ancrée (grounded theory). Un premier niveau d’analyse descriptive a permis de mettre en exergue les contraintes et les conditions d’émergence de l’engagement ainsi que les performances des jeunes en situation de marginalité. Les différentes formes d’engagement ont ensuite été explorées puis mises en perspective dans différents espaces : « original », « intermédiaire » et « négatif ». L’espace original correspond, dans cette thèse, aux moyens d’actions traditionnels (vote, militantisme politique). Nos résultats montrent que le positionnement des jeunes dans ce cadre est très tranché. En fait, non seulement ces modes d’actions émergent rarement mais, s’ils existent, sont le plus souvent soutenus par des intervenants. Dans un autre espace, les jeunes développent parfois des postures particulières, plus radicales ou, au contraire, des postures de retrait, de non-engagement. Cela se rapporte à ce qu’il conviendrait d’appeler l’espace négatif. Dans ce cas, les contraintes de la situation de marginalité poussent certains jeunes à mettre à distance l’engagement et à se situer aux marges des espaces de participation. L’opposition à toutes formes traditionnelles d’engagement amène des jeunes à envisager des moyens d’action plus radicaux que l’on peut également circonscrire dans cet espace négatif. On trouve au final une tout autre dynamique selon laquelle des jeunes prennent position au sein de ce que l’on a appelé l’espace intermédiaire. Les territoires et les modes d’action sont alors aussi éclectiques que la rue, l’entourage personnel, ou la création artistique underground. Si les rapports à l’engagement des jeunes rencontrés sont complexes, parfois ambivalents, ils révèlent toutefois la recherche d’une alternative, la construction de modes d’action particuliers. Une analyse dynamique des contraintes et des conditions d’émergence de l’engagement des jeunes en difficulté montre que leurs prises de position dépassent la simple dialectique engagement/non-engagement. Ainsi, ce que l’on pourrait appeler un « alter-engagement » se dessine à travers les prises de position de ces jeunes, particulièrement au sein de l’espace intermédiaire. Ce concept est développé pour mettre en évidence les formes d’engagement plus intimes, plus communautaires ou plus artistiques. L’alter-engagement se définit alors comme une forme de prise de position critique, impolitique, en réaction à la fois à l’engagement traditionnel, à une posture de retrait et à une posture plus radicale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plus de dix ans après la mise en place du projet d’harmonisation du droit du commerce électronique, l’ASEAN, « The Association of Southeast Asian Nations » rassemblant dix États membres en Asie du Sud-est, n’arrive toujours pas à doter chacun de ses États membres d’une législation harmonisée en la matière. Dans cette optique, nous tenterons, pour contribuer à cette harmonisation, de démontrer la situation problématique relative au droit du commerce électronique dans six des dix États membres de l’ASEAN où, en plus de leur non-uniformité législative, les textes nationaux régissant le formalisme du contrat électronique demeurent difficiles à comprendre, à interpréter et donc à appliquer ; ce qui cause parfois des erreurs interprétatives voire l’oubli total de ces textes. Cette expérience n’est pas unique dans l’ASEAN, car l’on trouve également de similaires situations dans d’autres juridictions, telles que le Canada et les États-Unis. Pour pallier cette rupture entre la loi et la jurisprudence, nous proposons une quête d’une méthode d’interprétation comme une piste de solution qui nous semble la plus pertinente au regard de l’état des textes déjà en vigueur et de l’objectif de l’harmonisation du droit du commerce électronique dans l’ASEAN. Parmi les méthodes interprétatives très variées, nous arrivons à identifier la méthode contextuelle, aussi large soit-elle, comme la méthode la plus pertinente eu égard aux caractéristiques particulières du formalisme du contrat électronique, à savoir l’écrit et la signature électroniques. Nous proposons donc une grille d’analyse de cette méthode composée de contextes juridique, technique et social, qui aideront les juristes, surtout les juges, à mieux saisir le sens des textes et à leur donner « une meilleure interprétation » en faveur de l’objectif de l’harmonisation du droit dans l’ASEAN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail se situe dans la perspective des études sur la protection des savoirs traditionnels contre la biopiraterie commise par quelques industries pharmaceutiques et cosmétiques. Malgré le débat qui s’est déroulé à ce sujet après la signature de la Convention sur la diversité biologique, ces patrimoines culturels continuent d’être largement menacés. L’étude se propose d’analyser les mécanismes capables de protéger contre la biopiraterie les savoirs traditionnels associés à la biodiversité qui intéressent l’industrie pharmaceutique, et ce, par le biais des droits de propriété intellectuelle existants aussi bien à l’échelle internationale que dans le cadre des législations nationales. Ces mécanismes sont évalués quant à leur efficacité, en vue d’en identifier les plus intéressants, susceptibles d’être adoptés soit par des pays qui ne disposent pas encore de législation en matière de protection des savoirs traditionnels soit pour être utilisés dans le cadre international. Avec cet objectif, le présent travail dressera un panorama concernant la législation du Brésil, du Costa Rica et du Pérou. En outre, seront mises en exergue par la suite les différentes conventions en lien avec les savoirs traditionnels, à savoir la Convention sur la diversité biologique, le Protocole de Nagoya, le Comité intergouvernemental de la propriété intellectuelle relative aux ressources génétiques, aux savoirs traditionnels et au folklore de l’Organisation mondiale de la propriété intellectuelle. L’analyse menée a mis en lumière un certain nombre de dispositions assez efficaces pouvant être utilisées de façon optimale par des pays ne disposant pas de législation en matière de protection des savoirs traditionnels ou encore pouvant être intégrées dans des traités internationaux en la matière, afin de rendre lesdits traités plus efficaces sur le plan pratique. Bien plus, ladite analyse démontre que l’Accord sur les aspects des droits de propriété intellectuelle qui touchent au commerce est actuellement l’accord le plus coercitif et le plus contraignant lorsque l’on veut mener une lutte efficace contre la biopiraterie. Par ailleurs, en s’appuyant sur des fondements théoriques constructivistes, notre analyse essaye de démontrer que les pays du Sud, riches en biodiversité et en savoirs traditionnels, peuvent véritablement impulser un mouvement en faveur d’une législation internationale efficace en matière de protection des savoirs traditionnels

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La volonté de produire des vues sonores est présente dès les débuts du cinéma, comme en témoignent les expérimentations d'Edison, Lioret, Messter et tant d'autres. Ce mémoire s'inscrira en continuité des études débutées il y a une vingtaine d'années déjà, tendant à montrer que l'utilisation du son in ne débute pas en 1927 avec The Jazz Singer (Alan Crosland). Il s'orientera sur les travaux de Léon Gaumont relatifs à la synchronisation du son et de l'image par l'entremise de son chronophone, et examinera en quoi cette tentative de synchronisation pourrait participer aux processus attractionnels du cinéma des premiers temps, période d'inventions et d'expérimentations multiples de la fin du XIXème siècle jusqu'aux alentours de 1914. De facto, comme ce cinéma a principalement une dimension exhibitionniste, l'ajout du son postsynchronisé semble renforcer son côté attractionnel prédominant : non seulement on « fait vivre des images », mais en plus on adjoint la possibilité de « donner à entendre », en rendant plus intrinsèquement sensitive l'expérience cinématographique. Il sera principalement question de l'apport de cette nouvelle attraction relativement à plusieurs instances : le fabricant de vues animées, le « metteur en scène », l'exhibiteur et, bien entendu, le spectateur. Ces recherches seront basées sur différents types de « vues phoniques » produites par la compagnie de Léon Gaumont qui soulèveront des questions parallèles tantôt relatives aux appareillages, tantôt relatives aux paradigmes de monstration dans lesquelles ces vues s'inscrivent. Ces divers éléments permettront alors de distinguer à quel(s) niveau(x) se situe la frontière entre « l'attraction d'attraction » et l'attraction en soi, que constitue l'adjonction d'un son synchronisé à l'image.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a été financée par le Conseil de recherches en sciences humaines du Canada (numéro de référence 767-2010-1310)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse en cotutelle Université de Montréal et Université Paris Diderot-Paris 7

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La problématique des enfants de la rue touche toutes les grandes villes du monde, Port-au-Prince en particulier n’est pas épargné par ce phénomène. Durant ces vingt dernières années, Haïti a connu une crise généralisée. La situation socioéconomique des familles particulièrement les familles défavorisées devient de plus en plus précaire. C’est ainsi que l’on trouve bon nombre d’enfants qui laissent leur toit familial pour s’installer dans les rues. Ces enfants occupent les places publiques, les cimetières, les marchés publics. Ils vivent de la prostitution, de vol, de la drogue et de toute autre activité susceptible de leur rapporter un peu d’argent. Pour se protéger contre les actes de violences systématiques à leur égard, ils se regroupent en bande et forment leur propre monde. Ils sont aussi exposés aux maladies sexuellement transmissibles et à d’autres infections opportunistes. Ainsi, la rue devient un champ d’intervention où bon nombre d’institutions se donnent pour mission de nettoyer la rue. Autrement dit, beaucoup d’acteurs passent par tous les moyens pour forcer ces enfants à laisser la rue pour regagner les espaces de socialisation. L’objectif de cette étude est de dégager une compréhension globale des modèles d’intervention réalisés par les institutions de prise en charge auprès des enfants de la rue à Port-au-Prince. D’une manière spécifique, l’étude vise à comprendre les représentations sociales des intervenants de la problématique des enfants de la rue à Port-au-Prince, comprendre les stratégies d’interventions de ces institutions, saisir le sens et l’orientation de ces pratiques d’intervention. Pour ce faire, neuf entrevues semi-dirigées ont été réalisées à Port-au-Prince auprès des intervenants travaillant dans trois institutions ayant des structures différentes (fermées, ouvertes, semi-ouvertes ou semi-fermées). Les résultats nous ont permis de découvrir que les intervenants perçoivent les enfants de la rue de trois manières : délinquants, victimes et acteurs. Toutefois, les interventions réalisées par les institutions auprès de ces enfants ne les considèrent surtout que comme des délinquants, parfois des victimes, mais pas tellement des acteurs en maîtrise de leurs vies. Ce faisant, les institutions priorisent la réintégration familiale, l’insertion ou la réinsertion scolaire et l’apprentissage d’un métier. L’objectif principal de ces interventions est de porter les enfants à changer de comportement afin qu’ils regagnent leur place dans la société.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Outiller de façon satisfaisante la gestion des connaissances de consultants dans un secteur d’activité en constante évolution est une tâche ardue, pour laquelle il n’existe aucune solution applicable à tous types de milieux. Toutefois, notre expérience de plus de 25 ans en consultation nous amène à croire que, si l’on se restreint à des PME d’au plus 200 consultants dotées d’une culture d’entreprise favorable, il est faisable d’en arriver à une solution informatique réduisant significativement la problématique de gestion des connaissances. Cette étude vise à présenter la conception d’une telle solution. Ses principales caractéristiques sont : utilisation d’une taxonomie pour classifier et décrire uniformément les expertises et leurs usages; prise en compte systématique des caractéristiques des consultants; imbrication avec la gestion des demandes, des affectations, du recrutement et de la rétention; gestion décentralisée et participative; notifications de possibilités d’enrichissements et d’usages des expertises. Cette conception est basée sur des critères de qualité établis à partir d’une description du type d’organisation visé et d’hypothèses sur leur fonctionnement et leurs besoins. Ces hypothèses s’appuient sur une revue de littérature et sur plus de 25 années d’expérience dans le milieu. Il s’agit donc d’une recherche de type « design science », Hevner (2007) et March et Storey (2008), où les hypothèses de nature heuristique (basées sur l’expérience) complètent les connaissances empiriquement établies recensées dans la revue de littérature. La suite naturelle de notre travail serait d’implanter différentes parties de la solution, pour vérifier jusqu’à quel point celle-ci permet bien de réduire la problématique.