47 resultados para one-to-many mapping
Resumo:
This paper investigates the moral duties that human rights NGOs, such as Amnesty International, and development NGOs, such as Oxfam, have in relation to human rights – especially in relation to the human right to a decent standard of living. The mentioned NGOs are powerful new agents on the global scene, and according to many they might be duty-bearers in relation to human rights. However, until now their moral duties have hardly been investigated. The present paper investigates NGO duties in relation to human rights by looking in particular to a moral theory recently proposed by Leif Wenar, a theory which has some similarities to utilitarianism. In applying this theory, a case for human-rights duties of NGOs is developed mainly by considering the indispensable role that civil society plays in protecting human rights. The paper concludes that, at least, NGOs bear duties with regard to human rights when, as in certain real-life cases, NGO involvement is the only way to achieve acceptable protection against standard threats to certain goods, such as a decent standard of living.
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
The following properties of the core of a one well-known: (i) the core is non-empty; (ii) the core is a lattice; and (iii) the set of unmatched agents is identical for any two matchings belonging to the core. The literature on two-sided matching focuses almost exclusively on the core and studies extensively its properties. Our main result is the following characterization of (von Neumann-Morgenstern) stable sets in one-to-one matching problem only if it is a maximal set satisfying the following properties : (a) the core is a subset of the set; (b) the set is a lattice; (c) the set of unmatched agents is identical for any two matchings belonging to the set. Furthermore, a set is a stable set if it is the unique maximal set satisfying properties (a), (b) and (c). We also show that our main result does not extend from one-to-one matching problems to many-to-one matching problems.
Resumo:
Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.
Resumo:
We are the first to introduce incomplete information to centralized many-to-one matching markets such as those to entry-level labor markets or college admissions. This is important because in real life markets (i) any agent is uncertain about the other agents' true preferences and (ii) most entry-level matching is many-to-one (and not one-to-one). We show that for stable (matching) mechanisms there is a strong and surprising link between Nash equilibria under complete information and Bayesian Nash equilibria under incomplete information. That is,given a common belief, a strategy profile is a Bayesian Nash equilibrium under incomplete information in a stable mechanism if and only if, for any true profile in the support of the common belief, the submitted profile is a Nash equilibrium under complete information at the true profile in the direct preference revelation game induced by the stable mechanism. This result may help to explain the success of stable mechanisms in these markets.
Resumo:
Depuis plusieurs années, on assiste à la création de programmes en prévention du suicide à l’adolescence. L’un de ces programmes repose sur le principe des pairs aidants. Il consiste à former des jeunes dont le rôle est d’apporter du soutien à des camarades qui vivent des difficultés. Or, à notre connaissance, aucune étude n’a comme préoccupation spécifique l’aide apportée par un pair aidant à un élève suicidaire. C’est pourquoi le but de notre étude est de comprendre et d’interpréter le processus suivi par les pairs aidants lors de leur expérience auprès d’un adolescent suicidaire. Nous avons effectué des entrevues auprès de cinq anciens pairs aidants qui avaient joué ce rôle entre une et trois années auparavant. À cause de sa pertinence pour ce type d’étude, l’approche méthodologique choisie a été la théorisation ancrée. La proposition qui a émergé de l’analyse des données est que l’expérience de pairs aidants auprès d’adolescents suicidaires est une mission héroïque à la fois stimulante, « confrontante » et enrichissante. Pour rendre compte de la globalité de cette expérience, vécue comme une mission invitant le pair aidant à prendre un rôle de « héros », trois étapes ont été distinguées. La première étape commence par l’accès au statut de pair aidant. Après être entré en contact avec un camarade suicidaire, le pair aidant s’engage dans la mission de le sauver. Le pair aidant est alors « tout feu tout flamme » dans son rôle de héros sauveur. Au cours de la seconde étape seront considérés les faits entourant la mission. L’aide s’engage comme un combat pour « sauver » l’élève suicidaire. L’enthousiasme « tout feu tout flamme » du début se tempère dans l’ambivalence du combat que représente l’aide concrète. C’est la période d’une certaine désillusion. La dernière étape s’amorce après que soit terminée l’aide qu’a fournie le pair aidant. Il fait le point sur les victoires et les défaites qu’a comportées cette mission. C’est alors le moment de la sagesse. Au cours de l’analyse, certaines données ont suscité la réflexion. Nous avons donc effectué une seconde recension des écrits reliés au processus de venir en aide à un adolescent suicidaire en tant que pair aidant. À la fin de cette étude, nous pensons que le programme de pairs aidants a des répercussions positives pour l’adolescent impliqué.
Resumo:
Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.
Resumo:
La qualification est centrale à l'activité du juriste. Les règles de droit positif ne reçoivent application qu'au moment où les faits reçoivent une certaine qualification. Cette réalité prend une dimension particulière face au contrat, lequel est l'objet de multiples dispositions législatives. Le législateur a cru bon au fil du temps, de réglementer diverses formes contractuelles, les contrats nommés. On oppose à ceux-ci les contrats innommés, pure création extra-législative. La détermination de la nature du contrat passe par un processus de qualification indépendant de notions connexes et qui doit s'éloigner d'une méthode intuitive. La qualification du contrat passera principalement par l’analyse des obligations en vue d'identifier l'obligation fondamentale ou la prestation caractéristique du contrat. Il s'agit d'une analyse qu'on veut objective. Les parties auront peu d'influence sur la qualification qui sera ultérieurement donnée à leur contrat, celle-ci étant une question de droit en principe réservée au juge. Le juriste tentera d'abord de lier le contrat aux modèles nommés connus et prévus par le législateur, soit en lui donnant un seul nom ou en reconnaissant la nature mixte de la convention. Dans l'éventualité où ces tentatives ne sont pas concluantes, une qualification innommée devra être choisie. La distinction entre les différentes qualifications possible sera réalisée en fonction de la hiérarchie des obligations au contrat et par l'écart de celle-ci avec les modèles connus.
Resumo:
Contexte. Les phénotypes ABO et Rh(D) des donneurs de sang ainsi que des patients transfusés sont analysés de façon routinière pour assurer une complète compatibilité. Ces analyses sont accomplies par agglutination suite à une réaction anticorps-antigènes. Cependant, pour des questions de coûts et de temps d’analyses faramineux, les dons de sang ne sont pas testés sur une base routinière pour les antigènes mineurs du sang. Cette lacune peut résulter à une allo-immunisation des patients receveurs contre un ou plusieurs antigènes mineurs et ainsi amener des sévères complications pour de futures transfusions. Plan d’étude et Méthodes. Pour ainsi aborder le problème, nous avons produit un panel génétique basé sur la technologie « GenomeLab _SNPstream» de Beckman Coulter, dans l’optique d’analyser simultanément 22 antigènes mineurs du sang. La source d’ADN provient des globules blancs des patients préalablement isolés sur papiers FTA. Résultats. Les résultats démontrent que le taux de discordance des génotypes, mesuré par la corrélation des résultats de génotypage venant des deux directions de l’ADN, ainsi que le taux d’échec de génotypage sont très bas (0,1%). Également, la corrélation entre les résultats de phénotypes prédit par génotypage et les phénotypes réels obtenus par sérologie des globules rouges et plaquettes sanguines, varient entre 97% et 100%. Les erreurs expérimentales ou encore de traitement des bases de données ainsi que de rares polymorphismes influençant la conformation des antigènes, pourraient expliquer les différences de résultats. Cependant, compte tenu du fait que les résultats de phénotypages obtenus par génotypes seront toujours co-vérifiés avant toute transfusion sanguine par les technologies standards approuvés par les instances gouvernementales, les taux de corrélation obtenus sont de loin supérieurs aux critères de succès attendus pour le projet. Conclusion. Le profilage génétique des antigènes mineurs du sang permettra de créer une banque informatique centralisée des phénotypes des donneurs, permettant ainsi aux banques de sang de rapidement retrouver les profiles compatibles entre les donneurs et les receveurs.
Resumo:
Les différents commentateurs de Lovecraft se sont au fil du XXe siècle jusqu’à nos jours entendus sur un point : l’originalité de son oeuvre. Impossible à cataloguer dans un genre littéraire précis, offrant de multiples couches d’interprétation, celle-ci fut analysée à la fois sous l’angle psychanalytique et sous l’angle philosophique et scientifique. Cependant, la dimension purement esthétique semble, peut-être par négligence, avoir été oubliée. Notre mémoire propose une investigation de l’esthétique dans l’oeuvre de Lovecraft. Notre hypothèse de recherche repose sur les analogies évidentes et pourtant peu approfondies par la critique entre l’esthétique de celle-ci et l’esthétique cosmogonique de l’Antiquité. Dans un premier temps, nous situerons l’œuvre dans son contexte littéraire, c’est-à-dire que nous nous pencherons sur les rapports évidents qu’elle entretient avec des auteurs tels que J.R.R. Tolkien et Arthur Conan Doyle et sur les différences moins évidentes qui la distinguent d’autres d’auteurs tels que H.G. Wells et William Hope Hodgson. Ensuite, nous mettrons en perspective les différences qui la séparent logiquement de la cosmogonie hébraïque et de la tradition théologique et philosophique qu’elle inaugure, entre autres, tel qu’elle se cristallise dans La Divine Comédie de Dante. Finalement, nous démontrerons à partir d’une comparaison serrée de motifs analogues, présents dans la longue nouvelle de Lovecraft, At the Mountains of Madness et dans le poème d’Hésiode, La Théogonie, le parallèle révélateur entre leurs esthétiques respectives; leurs esthétiques qui découlent de paradigmes du réel historiquement et essentiellement distincts, mais non pas opposés ou contradictoires.
Resumo:
Cette thèse est consacrée à la complexité basée sur le paradigme des preuves interactives. Les classes ainsi définies ont toutes en commun qu’un ou plusieurs prouveurs, infiniment puissants, tentent de convaincre un vérificateur, de puissance bornée, de l’appartenance d’un mot à un langage. Nous abordons ici le modèle classique, où les participants sont des machines de Turing, et le modèle quantique, où ceux-ci sont des circuits quantiques. La revue de littérature que comprend cette thèse s’adresse à un lecteur déjà familier avec la complexité et l’informatique quantique. Cette thèse présente comme résultat la caractérisation de la classe NP par une classe de preuves interactives quantiques de taille logarithmique. Les différentes classes sont présentées dans un ordre permettant d’aborder aussi facilement que possible les classes interactives. Le premier chapitre est consacré aux classes de base de la complexité ; celles-ci seront utiles pour situer les classes subséquemment présentées. Les chapitres deux et trois présentent respectivement les classes à un et à plusieurs prouveurs. La présentation du résultat ci-haut mentionné est l’objet du chapitre quatre.
Resumo:
Fragile States is a way of naming this particular category of states that have weak performance, insufficient service delivery, weak administrative and government power, and lack of legal rules. Little consideration is usually made to the fact that their own societies may also be fragile and easily jeopardised by inappropriate economic measures or external events. Poverty traps and social exclusion, unjust inequalities with lack of equity, feelings of insecurity and vulnerability, usually undermine the social fabric. Moreover, the people bear their own internal fragilities, which are based on the lack of capabilities and recognition, and interfere in the relationships between the groups that constitute the society. Therefore, dealing with the issue of fragility requires to consider various decision levels, from the personal one to the State level. Such an approach could allow fragile states to conceive preventive policies that would avoid the surge of a political crisis resulting from the combination of social conflict and individual failure.
Resumo:
[Français] Une fraction importante des génomes eucaryotes est constituée de Gènes Répétés en Tandem (GRT). Un mécanisme fondamental dans l’évolution des GRT est la recombinaison inégale durant la méiose, entrainant la duplication locale (en tandem) de segments chromosomiques contenant un ou plusieurs gènes adjacents. Différents algorithmes ont été proposés pour inférer une histoire de duplication en tandem pour un cluster de GRT. Cependant, leur utilisation est limitée dans la pratique, car ils ne tiennent pas compte d’autres événements évolutifs pourtant fréquents, comme les inversions, les duplications inversées et les délétions. Cette thèse propose différentes approches algorithmiques permettant d’intégrer ces événements dans le modèle de duplication en tandem classique. Nos contributions sont les suivantes: • Intégrer les inversions dans un modèle de duplication en tandem simple (duplication d’un gène à la fois) et proposer un algorithme exact permettant de calculer le nombre minimal d’inversions s’étant produites dans l’évolution d’un cluster de GRT. • Généraliser ce modèle pour l’étude d’un ensemble de clusters orthologues dans plusieurs espèces. • Proposer un algorithme permettant d’inférer l’histoire évolutive d’un cluster de GRT en tenant compte des duplications en tandem, duplications inversées, inversions et délétions de segments chromosomiques contenant un ou plusieurs gènes adjacents.
Resumo:
L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.