751 resultados para Conditionnement classique
Resumo:
Ce mémoire aborde la question de la responsabilité précontractuelle en regardant son incidence en droit québécois ainsi qu'en droit international. Plus précisément, il s'agit de savoir comment est traitée la rupture des négociations lorsqu'aucun avant-contrat n'a été rédigé à cet effet. Afin de pouvoir déterminer ses grands paramètres, le texte aborde dans un premier temps la nature de cette responsabilité. N'étant pas codifiée en droit québécois et ne faisant l'objet d'aucune spécification dans les grands instruments internationaux, cette nature doit être associée à l'un des deux grands régimes de responsabilité soit: contractuel ou extracontractuel. L'importance de cette détermination n'est pas simplement théorique puisqu'elle a une influence directe sur plusieurs éléments comme la prescription ou le droit international privé. Au Québec, la doctrine et la jurisprudence ont choisi d'associer la responsabilité précontractuelle au domaine extracontractuel. Ainsi, elle devra suivre le modèle classique de faute, dommage et lien causal. Cependant, en droit international, la question de la nature reste encore nébuleuse compte tenu de la diversité des membres qui composent les comités d'élaboration des normes. Tous s'entendent pourtant sur un concept fondamental entourant la responsabilité précontractuelle : la bonne foi. Elle est au centre de la faute et dicte une éthique des pourparlers. Ainsi, dans un deuxième temps, la mise en œuvre de la responsabilité est abordée. De cette notion de bonne foi découlent de nombreux devoirs que les parties négociantes se doivent de respecter. Ils sont de création jurisprudentielle et demandent une étude au cas par cas. La liberté contractuelle étant le principe de base dans la formation des contrats, les tribunaux québécois sanctionnent rarement les cas de rupture des négociations. C'est ce principe de liberté qui empêche les pays de common law d'accepter le concept de bonne foi et de responsabilité précontractuelle, même s'ils sanctionnent, par l'intermédiaire de mécanismes, les comportements fautifs dans les pourparlers. Finalement, les dommages et les intérêts pouvant être réclamés varient. Au Québec et en France, autant les pertes subies que les gains manqués sont indemnisés tandis que les instruments internationaux sont plus réticents pour accorder un montant pour le gain manqué. Bref, la responsabilité précontractuelle est en pleine construction et son utilisation devant les tribunaux est encore peu fréquente.
Resumo:
Dès sa création en 1966, l’ERAP s’est fixé pour but d’accroître la production du pétrole « franc », en diversifiant ses sources d’approvisionnement. Un tel objectif prend une tournure cruciale dès lors que les rapports tendus entre le groupe français et les autorités algériennes semblent menacer ses acquis dans le Sahara. Toutefois, se tailler une place sur le marché mondial semble à cette époque une tâche ardue, voire improbable, puisque les espaces les plus pétrolifères sont déjà occupés par les grandes sociétés, dites Majors. Néanmoins, la société d’État française réussit à s’implanter dans plusieurs pays producteurs, dont l’Irak en 1968, jusqu’alors considéré comme la chasse gardée de la Compagnie française des pétroles (CFP). Aussi, l’expérience irakienne, suite à l’insuccès en Algérie, incite Elf ERAP à se concentrer dans les pays pétroliers de l’Afrique subsaharienne et en Mer du Nord. Le 3 février 1968, Elf ERAP signe un accord avec la compagnie d’État pétrolière, INOC, pour se charger de la prospection et de l’exploitation d’une partie du territoire confisqué par l’État irakien à la puissante Iraq Petroleum Company (IPC). En contrepartie de ses apports financiers et techniques, Elf ERAP sera rémunérée par un approvisionnement garanti en pétrole irakien : il s’agit d’un nouveau genre de partenariat, dit « contrat d’agence ». Ce dernier succède au système classique des concessions et vaut à la société d’État un franc succès dans son projet de pénétration au Moyen Orient. Très vite, les prospections donnent lieu à la découverte de gisements. La production démarre en 1976 et s’élève à 5 millions de tonnes en 1977. Dès lors, Elf ERAP, devenue la SNEA, peut envisager avec optimisme son avenir énergétique, puisque sa sécurité d’approvisionnement est, en partie, assurée par le marché irakien. Mais, contre toute attente, le groupe d’État français se retire de l’affaire en mai 1977, laissant place à l’INOC, qui prend en charge le projet deux ans avant la date prévue par le contrat initial de 1968. Ce sujet de recherche consiste à éclaircir le rôle d’opérateur joué par l’ERAP en Irak, entre 1968 et 1977. Pour tenter d’expliquer le départ prématuré d’Elf Irak, il nous faut identifier les facteurs endogènes et exogènes qui ont pu motiver une telle décision. Autrement dit, la société d’État aurait-elle subi les revers de ses propres choix énergétiques ou un tel dénouement serait-il imputable à la politique pétrolière irakienne? Quelles sont les implications de la conjoncture pétrolière internationale dans le cas d’un tel retrait? Aidée des archives historiques d’Elf et de TOTAL, nous sommes arrivée à la conclusion que la compression du marché pétrolier, entre distributeurs et producteurs, au cours des années 1970, a considérablement nui à la rentabilité des contrats intermédiaires du type agence.
Resumo:
La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.
Resumo:
Dans la France de l’Ancien Régime, si les représentations de la condition féminine légitiment les valeurs d’une traditionnelle phallocratie, on note néanmoins que le dogme chrétien accorde aux femmes une place dans l’économie du salut. Dans un contexte de Contre-Réforme, celle-ci déterminera notamment, sur le plan socio-littéraire, les modalités de l’expérience mystique et de l’héroïsme au féminin : l’éthique chrétienne érige paradoxalement en modèle des figures féminines qui transcendent leur humanité dans le sacrifice et la mort. Mais au XVIIe siècle, l’évolution des notions d’abnégation et d’amour-propre éradique ce triomphe éphémère. En nous intéressant plus particulièrement aux remaniements de l’hypotexte euripidien dans l’Iphygenie de Rotrou (1640) et dans l’Iphigénie de Racine (1674), nous verrons comment les deux pièces traduisent ce déclin. Au premier chapitre de notre mémoire, nous nous intéresserons à l’espace de liberté que le discours chrétien confère aux femmes à travers le culte de la virginité et l’hypothétique transfiguration des corps célestes. Réintégrant ces données théologiques, la mystique marque l’essor d’un charisme féminin que la notion d’amour-propre déconstruira à l’ère classique. Dans un second chapitre, nous explorerons les développements de l’éthique héroïque qui ont servi à l’essor d’un héroïsme au féminin. Le troisième chapitre portera enfin sur l’échec d’une héroïne mythique qui, mettant à profit le dogme chrétien, menace dangereusement l’équilibre d’un ordre patriarcal. La critique littéraire convient généralement de l’irréfutable vertu de l’héroïne de Rotrou et de Racine. Au terme de notre analyse, nous entendons démontrer qu’Iphigénie est, a contrario, tragiquement reconnue coupable d’amour-propre par les deux dramaturges.
Resumo:
John B. Davis explores the question of what the economic individual is. He bases his considerations of orthodox economics on the assumption that these theories implicitly rely on a conception of the individual that has its origin in Locke’s idea of the self as subjective inwardness. Economic history then is the attempt to deal with Locke’s inherent problems that this view involved. If neoclassical economics still has aspects of human psychology, mainstream economics dropped the subjective concept of the individual out of their considerations. However, Davis demonstrates that even the neoclassical concept of the individual fails to pass the existence test of individual identity. The latter is an idea developed in analogy to philosophers’ concern about personal identity and examines if the individual can be distinguished among different individuals and if he or she can be reidentified as the selfsame individual through time. The failure of the theory of the individual in orthodox economics led Davis to develop a concept of a socially embedded individual in accordance with heterodox accounts of economics. He submits this conception to the same test of individual identity. It appears that the socially embedded individual can be said to hold an identity in specific circumstances.
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.
Resumo:
Le roman sentimental est un des genres les plus lus, les plus traduits et les plus diffusés. Malgré sa mauvaise réputation, il est étonnant de constater le nombre de ces romans vendus, tous pays confondus. Dans les Antilles, ce phénomène est particulièrement palpable : la présence, et la réception de ces œuvres témoignent de l’engouement pour le genre. Notre étude a pour objectif de dégager d’un corpus sentimental antillais les aspects les plus significatifs. Nous analyserons, d’une part, le schéma narratif élaboré en marge de celui proposé par le roman sentimental classique et, d’autre part, l’esthétique du quotidien mise en place pour créer un sentiment d’appartenance chez le lectorat. Il nous sera ainsi possible de mettre en évidence le discours socioculturel propre à ce genre et plus spécifiquement aux femmes antillaises. Par ailleurs, cette recherche postule que l'appropriation des invariants romanesques et l'élaboration d'une visée didactique participent à l'intégration du roman sentimental antillais dans la sphère des littératures « sérieuses ». Enfin, ce mémoire défend l’idée selon laquelle l’écriture romanesque des auteures étudiées contribue au projet littéraire antillais de réappropriation identitaire.
Resumo:
La notion d'un esprit étranger et invisible qui prend possession d'un corps est, croit-on, sémitique. Les peuples proche-orientaux et juifs avaient développé des rituels et des pratiques spécifiques pour s'en débarasser. Les Grecs, pour leur part, avaient parfois à composer avec différentes entités, des daimones, des morts ou des apparitions et parfois des divinités dont les actions pouvaient s'avérer très nuisibles, si ce n'est nettement invasives. Toutefois, la communis opinio maintient que les concepts de la possession et de l'exorcisme ne furent chez eux, que tardivement introduits, et ce, sous l'influence des sémitiques. Pourtant, la littérature et les sources épigraphiques, papyrologiques et archéologiques semblent démontrer que les Grecs avaient déjà, dès l'époque classique, dans leur propre culture et religion, les éléments caractéristiques de la possession et de l'exorcisme. Une analyse approfondie de textes d'auteurs anciens, de formulaires de magie,dont les très connus Papyri Grecs Magiques et de diverses amulettes, apporte des arguments décisifs en ce sens.
Resumo:
[Français] Une fraction importante des génomes eucaryotes est constituée de Gènes Répétés en Tandem (GRT). Un mécanisme fondamental dans l’évolution des GRT est la recombinaison inégale durant la méiose, entrainant la duplication locale (en tandem) de segments chromosomiques contenant un ou plusieurs gènes adjacents. Différents algorithmes ont été proposés pour inférer une histoire de duplication en tandem pour un cluster de GRT. Cependant, leur utilisation est limitée dans la pratique, car ils ne tiennent pas compte d’autres événements évolutifs pourtant fréquents, comme les inversions, les duplications inversées et les délétions. Cette thèse propose différentes approches algorithmiques permettant d’intégrer ces événements dans le modèle de duplication en tandem classique. Nos contributions sont les suivantes: • Intégrer les inversions dans un modèle de duplication en tandem simple (duplication d’un gène à la fois) et proposer un algorithme exact permettant de calculer le nombre minimal d’inversions s’étant produites dans l’évolution d’un cluster de GRT. • Généraliser ce modèle pour l’étude d’un ensemble de clusters orthologues dans plusieurs espèces. • Proposer un algorithme permettant d’inférer l’histoire évolutive d’un cluster de GRT en tenant compte des duplications en tandem, duplications inversées, inversions et délétions de segments chromosomiques contenant un ou plusieurs gènes adjacents.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
La recrudescence des conflits internes dans le contexte post-guerre froide a permis de propulser à l’avant-plan la préoccupation pour les individus. Alors que la paix et la sécurité internationales ont historiquement constitué les piliers du système institutionnel international, une porte s’ouvrait pour rendre effectif un régime de protection des droits de l’homme par-delà les frontières. Pour les humanistes, l’intervention humanitaire représentait un mal nécessaire pour pallier aux souffrances humaines souvent causées par des divergences ethniques et religieuses. Pourtant, cette pratique est encore souvent perçue comme une forme de néo-colonialisme et entre en contradiction avec les plus hautes normes régissant les relations internationales, soit les principes de souveraineté des États et de non-intervention. La problématique du présent mémoire s’inscrit précisément dans cette polémique entre la préséance des droits de l’État et la prédilection pour les droits humains universels, deux fins antinomiques que la Commission internationales pour l’intervention et la souveraineté des États (CIISE) a tenté de concilier en élaborant son concept de responsabilité de protéger. Notre mémoire s’inscrit dans le champ de la science politique en études internationales mais s’articule surtout autour des notions et enjeux propres à la philosophie politique, plus précisément à l’éthique des relations internationales. Le travail se veut une réflexion critique et théorique des conclusions du rapport La responsabilité de protéger, particulièrement en ce qui concerne le critère de la juste cause et, dans une moindre mesure, celui d’autorité appropriée. Notre lecture des conditions de la CIISE à la justification morale du déclenchement d’une intervention humanitaire – critères issues de la doctrine de la guerre juste relativement au jus ad bellum – révèle une position mitoyenne entre une conception progressiste cosmopolitique et une vision conservatrice d’un ordre international composé d’États souverains. D’une part, la commission se dissocie du droit international en faisant valoir un devoir éthique d’outrepasser les frontières dans le but de mettre un terme aux violations massives des droits de l’homme et, d’autre part, elle craint les ingérences à outrance, comme en font foi l’établissement d’un seuil de la juste cause relativement élevé et la désignation d’une autorité multilatérale à titre de légitimateur de l’intervention. Ce travail dialectique vise premièrement à présenter et situer les recommandations de la CIISE dans la tradition de la guerre juste. Ensuite, il s’agit de relever les prémisses philosophiques tacites dans le rapport de la CIISE qui sous-tendent le choix de préserver une règle de non-intervention ferme de laquelle la dérogation n’est exigée qu’en des circonstances exceptionnelles. Nous identifions trois arguments allant en ce sens : la reconnaissance du relativisme moral et culturel; la nécessité de respecter l’autonomie et l’indépendance des communautés politiques en raison d’une conception communautarienne de la légitimité de l’État, des réquisits de la tolérance et des avantages d’une responsabilité assignée; enfin, l’appréhension d’un bouleversement de l’ordre international sur la base de postulats du réalisme classique. Pour finir, nous nuançons chacune de ces thèses en souscrivant à un mode de raisonnement cosmopolitique et conséquentialiste. Notre adhésion au discours individualiste normatif nous amène à inclure dans la juste cause de la CIISE les violations systématiques des droits individuels fondamentaux et à cautionner l’intervention conduite par une coalition ou un État individuel, pourvu qu’elle produise les effets bénéfiques désirés en termes humanitaires.
Resumo:
Résumé La démonstration qui est ici à l’œuvre s’apparente, dans une certaine mesure, à celle qu’élabore Amartya Kumar Sen dans 'The Argumentative Indian'. Dans cet ouvrage, Sen discute de l’héritage intellectuel et politique de l’Inde et de la manière dont cette tradition est essentielle pour le succès de la démocratie et des politiques séculières de l’État indien. Pour notre part, nous ne nous intéressons point à l’Inde, mais à la Chine, notamment à l’héritage intellectuel, politique et moral des lettrés confucéens de l’Antiquité chinoise et à la pertinence de revisiter, aujourd’hui, la réflexion confucéenne classique pour mieux penser et fonder les droits humains en Chine. Plus précisément, notre réflexion s’inscrit au sein du débat contemporain, qui a lieu à l’échelle internationale, entourant les soi-disant valeurs asiatiques et les droits humains. Pour les partisans de la thèse des valeurs asiatiques, les valeurs asiatiques seraient associées au modèle de développement dit asiatique, lequel se distinguerait du modèle « occidental » en étant en outre réfractaire aux droits humains. Ces droits ayant une origine occidentale et étant, à maints égards, en rupture avec les valeurs asiatiques, ils ne seraient ni souhaitables en Asie (notamment en Chine) ni compatibles avec les valeurs asiatiques (spécialement avec les valeurs confucéennes). Dans notre thèse, nous réfutons ce point de vue. Par l’entremise d’une analyse de la 'Déclaration universelle des droits de l’homme' de 1948 et d’un examen des quatre textes fondateurs du confucianisme classique que sont : les 'Entretiens' (Lunyu), le 'Mencius' (Mengzi), la 'Grande Étude' (Daxue) et la 'Pratique du Milieu' (Zhongyong), nous démontrons que cette compréhension des choses s’avère injustifiée. Les droits humains ne sont pas incompatibles avec les valeurs confucéennes et leur adoption est souhaitable en Asie (notamment en Chine), tout comme elle l’est en Occident. De fait, la philosophie des droits humains et la pensée confucéenne classique ont de nombreuses affinités conceptuelles, axiologiques et normatives. Loin d’être en rupture, ces univers théoriques convergent, car ils ont tous deux à cœur l’être humain, ses besoins vitaux et son épanouissement au sein de la communauté. Notre démonstration s’appuie, pour une large part, sur l’analyse d’un concept phare de la pensée éthique et politique confucéenne, soit la notion d’humanité ou du sens de l’humain (ren) ainsi que d’une autre notion qui lui est étroitement liée, soit celle de l’homme de bien ou de la personne moralement noble (junzi).
Resumo:
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.