983 resultados para Compatible solutes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les phénotypes ABO et Rh(D) des donneurs de sang ainsi que des patients transfusés sont analysés de façon routinière pour assurer une complète compatibilité. Ces analyses sont accomplies par agglutination suite à une réaction anticorps-antigènes. Cependant, pour des questions de coûts et de temps d’analyses faramineux, les dons de sang ne sont pas testés sur une base routinière pour les antigènes mineurs du sang. Cette lacune peut résulter à une allo-immunisation des patients receveurs contre un ou plusieurs antigènes mineurs et ainsi amener des sévères complications pour de futures transfusions. Plan d’étude et Méthodes. Pour ainsi aborder le problème, nous avons produit un panel génétique basé sur la technologie « GenomeLab _SNPstream» de Beckman Coulter, dans l’optique d’analyser simultanément 22 antigènes mineurs du sang. La source d’ADN provient des globules blancs des patients préalablement isolés sur papiers FTA. Résultats. Les résultats démontrent que le taux de discordance des génotypes, mesuré par la corrélation des résultats de génotypage venant des deux directions de l’ADN, ainsi que le taux d’échec de génotypage sont très bas (0,1%). Également, la corrélation entre les résultats de phénotypes prédit par génotypage et les phénotypes réels obtenus par sérologie des globules rouges et plaquettes sanguines, varient entre 97% et 100%. Les erreurs expérimentales ou encore de traitement des bases de données ainsi que de rares polymorphismes influençant la conformation des antigènes, pourraient expliquer les différences de résultats. Cependant, compte tenu du fait que les résultats de phénotypages obtenus par génotypes seront toujours co-vérifiés avant toute transfusion sanguine par les technologies standards approuvés par les instances gouvernementales, les taux de corrélation obtenus sont de loin supérieurs aux critères de succès attendus pour le projet. Conclusion. Le profilage génétique des antigènes mineurs du sang permettra de créer une banque informatique centralisée des phénotypes des donneurs, permettant ainsi aux banques de sang de rapidement retrouver les profiles compatibles entre les donneurs et les receveurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Jusqu’à maintenant, la prison a surtout été analysée à partir du point de vue des détenus et celui des surveillants comme si le vécu de l’enfermement et la relation détenus-surveillants étaient les seuls points de vue permettant d’en apprendre sur ce qu’elle est et d’en saisir le fonctionnement. Nous pensons, pour notre part, que d’autres points de vue sont possibles, voire même souhaitables. C’est le cas, notamment, de celui des enseignants qui exercent leur métier en prison. Bien que théoriquement en mesure d’offrir un complément intéressant aux fonctions de dissuasion et de réinsertion sociale que la prison remplit difficilement à elle seule, le projet éducatif carcéral constitue une activité plus ou moins marginalisée qui est ramenée au niveau des autres activités pénitentiaires. Au premier chef, c’est à la prison que nous sommes tentés d’en imputer la responsabilité et, de fait, elle y est pour quelque chose. D’abord conçue pour neutraliser des criminels, il lui est difficile de les éduquer en même temps. Mais cette marginalisation, nous le verrons, n’est pas le seul fait de la prison. Elle tient aussi beaucoup au mandat qu’ils se donnent et à la façon dont les enseignants se représentent leur travail. S’étant eux-mêmes défini un mandat ambitieux de modelage et de remodelage de la personnalité de leurs élèves délinquants détenus, prérequis, selon eux, à un retour harmonieux dans la collectivité, les enseignants déplorent qu’on ne leur accorde pas toute la crédibilité qui devrait leur revenir. Cette situation est d’autant plus difficile à vivre, qu’à titre de travailleurs contractuels pour la plupart, ils sont déjà, aux yeux du personnel correctionnel, objets d’une méfiance qui sera d’autant plus grande que, pour effectuer leur travail, ils doivent se faire une représentation du délinquant et du délit peu compatibles avec celles qui prévalent dans le milieu. C’est ainsi qu’à la marginalisation comme fait organisationnel se superpose une auto-marginalisation, incontournable, qui est le fait des enseignants eux-mêmes et qui se traduit par leur attitude de réserve à l’égard de la prison. La chose est d’autant plus paradoxale que le mandat que se donnent les enseignants, bien qu’ils s’en gardent de le dire, correspond tout à fait au projet correctionnel. Mais la prison, davantage préoccupée par la gestion du risque que par la réinsertion sociale des détenus, n’a d’intérêt pour l’éducation en milieu carcéral que dans la mesure où elle permet une socialisation à l’idéologie pénitentiaire et contribue à consolider la paix à l’intérieur des murs avec la complicité des enseignants eux-mêmes. Du reste, ces derniers ne sont pas dupes et lui en font grief, encore qu’il soit permis de nous demander si on ne lui reproche pas, plus simplement, de ne pas leur donner toute la place qu’ils croient leur revenir et de les laisser suspendus dans le vide carcéral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse par articles. Articles (4) annexés à la thèse en fichiers complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L’objectif général de la thèse était de caractériser les déficits de reconnaissance mnésique dans la maladie d’Alzheimer et le trouble cognitif léger. La thèse comprend trois articles. Le premier article propose une recension des écrits portant sur les déficits cognitifs dans le trouble cognitif léger, alors que les deux articles suivants rapportent les résultats d’études expérimentales portant sur la reconnaissance. Le but de la première étude empirique était d’évaluer l’impact du type de matériel sur la reconnaissance à long terme et la reconnaissance à court terme dans la maladie d’Alzheimer en comparant l’atteinte pour des stimuli verbaux et musicaux. Nos analyses de groupe ont révélé que les atteintes des personnes avec maladie d’Alzheimer s’étendaient à toutes les épreuves et que les déficits étaient d’une ampleur comparable en reconnaissance musicale et verbale. Les analyses corrélationnelles appuient, bien que partiellement, une certaine spécificité d’atteintes par domaine, particulièrement en reconnaissance à long terme, mais suggèrent également que les deux domaines puissent partager certains mécanismes. L’objectif de la seconde étude était de caractériser les processus utilisés en reconnaissance dans le vieillissement normal et le trouble cognitif léger en fonction de la nouveauté et du type de matériel. L’étude évaluait la recollection et la familiarité à l’aide de la méthode remember/know. Les tâches étaient composées d’items connus et d’items nouveaux faisant partie du domaine verbal ou du domaine musical. Les résultats ont révélé que la recollection était atteinte dans le vieillissement normal et le trouble cognitif léger, mais uniquement pour la reconnaissance de stimuli connus, ce qui est compatible avec le fait que les deux groupes ont de la difficulté à encoder l’information de façon élaborée. D’autre part, la familiarité était compromise dans le vieillissement normal, sans impact additionnel du trouble cognitif léger, et seulement pour la reconnaissance de stimuli inconnus. Cette atteinte peut être associée aux difficultés des aînés dans les tâches d’amorçage perceptif impliquant des items inconnus. Les résultats découlant de ces études s’avèrent pertinents dans une perspective clinique, en plus de pouvoir contribuer à certaines questions d’ordre théorique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obligation de sécurité informationnelle - c'est-à-dire la tâche qui incombe aux entreprises d'assurer l'intégrité, la confidentialité et la disponibilité de l'information découle, tant en droit québécois que dans une majorité de juridictions occidentales, d'une série de dispositions législatives imposant non pas l'adoption de comportements ou l'utilisation de technologies ou de procédés identifiables, mais bien l'implantation de mesures de sécurité «raisonnables », «adéquates », ou « suffisantes ». Or, dans un domaine aussi embryonnaire et complexe que celui de la sécurité informationnelle, domaine dans lequel les solutions disponibles sont multiples et où la jurisprudence est éparse, comment une entreprise peut-elle jauger avec justesse l'étendue de son obligation? Bref, comment établir ce que ferait une entreprise raisonnablement prudente et diligente dans un domaine où il n'existe actuellement aucune balise législative, jurisprudentielle ou même coutumière permettant de fixer avec justesse le niveau de diligence imposé par le législateur? L'absence de sécurité juridique offerte par une telle situation est patente et nécessite une reconfiguration du cadre opératoire de l'obligation de sécurité informationnelle afin d'en identifier les composantes et les objectifs. Cet exercice passera par la redéfinition de l'obligation de sécurité informationnelle comme obligation de réduire les risques qui guettent l'information à un niveau socialement acceptable. En effet, la sécurité pouvant être définie comme étant la gestion du risque, c'est donc le risque qui réside au cœur de cette obligation. Or, en analysant les risques qui guettent un système, soit en analysant les menaces qui visent à exploiter ses vulnérabilités, il est possible d'établir quelles contre-mesures s'avèrent utiles et les coûts associés à leur mise en œuvre. Par la suite, il devient envisageable, en recourant à la définition économique de la négligence et en prenant compte des probabilités de brèches de sécurité et des dommages escomptés, d'établir les sommes optimales à investir dans l'achat, l'entretien et la mise à jour de ces contre-mesures. Une telle analyse permet ainsi de quantifier avec un certain degré de précision l'étendue de l'obligation de sécurité informationnelle en offrant aux entreprises un outil s'inspirant de données matérielles auxquelles elles ont librement accès et s'intégrant aisément dans le contexte juridique contemporain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La démonstration qui est ici à l’œuvre s’apparente, dans une certaine mesure, à celle qu’élabore Amartya Kumar Sen dans 'The Argumentative Indian'. Dans cet ouvrage, Sen discute de l’héritage intellectuel et politique de l’Inde et de la manière dont cette tradition est essentielle pour le succès de la démocratie et des politiques séculières de l’État indien. Pour notre part, nous ne nous intéressons point à l’Inde, mais à la Chine, notamment à l’héritage intellectuel, politique et moral des lettrés confucéens de l’Antiquité chinoise et à la pertinence de revisiter, aujourd’hui, la réflexion confucéenne classique pour mieux penser et fonder les droits humains en Chine. Plus précisément, notre réflexion s’inscrit au sein du débat contemporain, qui a lieu à l’échelle internationale, entourant les soi-disant valeurs asiatiques et les droits humains. Pour les partisans de la thèse des valeurs asiatiques, les valeurs asiatiques seraient associées au modèle de développement dit asiatique, lequel se distinguerait du modèle « occidental » en étant en outre réfractaire aux droits humains. Ces droits ayant une origine occidentale et étant, à maints égards, en rupture avec les valeurs asiatiques, ils ne seraient ni souhaitables en Asie (notamment en Chine) ni compatibles avec les valeurs asiatiques (spécialement avec les valeurs confucéennes). Dans notre thèse, nous réfutons ce point de vue. Par l’entremise d’une analyse de la 'Déclaration universelle des droits de l’homme' de 1948 et d’un examen des quatre textes fondateurs du confucianisme classique que sont : les 'Entretiens' (Lunyu), le 'Mencius' (Mengzi), la 'Grande Étude' (Daxue) et la 'Pratique du Milieu' (Zhongyong), nous démontrons que cette compréhension des choses s’avère injustifiée. Les droits humains ne sont pas incompatibles avec les valeurs confucéennes et leur adoption est souhaitable en Asie (notamment en Chine), tout comme elle l’est en Occident. De fait, la philosophie des droits humains et la pensée confucéenne classique ont de nombreuses affinités conceptuelles, axiologiques et normatives. Loin d’être en rupture, ces univers théoriques convergent, car ils ont tous deux à cœur l’être humain, ses besoins vitaux et son épanouissement au sein de la communauté. Notre démonstration s’appuie, pour une large part, sur l’analyse d’un concept phare de la pensée éthique et politique confucéenne, soit la notion d’humanité ou du sens de l’humain (ren) ainsi que d’une autre notion qui lui est étroitement liée, soit celle de l’homme de bien ou de la personne moralement noble (junzi).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les végétaux supérieurs, l’embryogenèse est une phase clé du développement au cours de laquelle l’embryon établit les principales structures qui formeront la future plante et synthétise et accumule des réserves définissant le rendement et la qualité nutritionnelle des graines. Ainsi, la compréhension des évènements moléculaires et physiologiques menant à la formation de la graine représente un intérêt agronomique majeur. Toutefois, l'analyse des premiers stades de développement est souvent difficile parce que l'embryon est petit et intégré à l'intérieur du tissu maternel. Solanum chacoense qui présente des fleurs relativement grande facilitant l’isolation des ovules, a été utilisée pour l’étude de la biologie de la reproduction plus précisément la formation des gamètes femelles, la pollinisation, la fécondation et le développement des embryons. Afin d'analyser le programme transcriptionnel induit au cours de la structuration de ces étapes de la reproduction sexuée, nous avons mis à profit un projet de séquençage de 7741 ESTs (6700 unigènes) exprimés dans l’ovule à différents stades du développement embryonnaire. L’ADN de ces ESTs a été utilisé pour la fabrication de biopuces d’ADN. Dans un premier temps, ces biopuces ont été utilisé pour comparer des ADNc issus des ovules de chaque stade de développement embryonnaire (depuis le zygote jusqu’au embryon mature) versus un ovule non fécondé. Trois profils d’expression correspondant au stade précoce, intermédiaire et tardive ont été trouvés. Une analyse plus approfondie entre chaque point étudié (de 0 à 22 jours après pollinisation), a permis d'identifier des gènes spécifiques caractérisant des phases de transition spécifiques. Les annotations Fonctionnelles des gènes differentiellement exprimés nous ont permis d'identifier les principales fonctions cellulaires impliquées à chaque stade de développement, révélant que les embryons sont engagés dans des actifs processus de différenciation. Ces biopuces d’ADN ont été par la suite utilisé pour comparer différent types de pollinisation (compatible, incompatible, semi-compatible et inter-espèce) afin d’identifier les gènes répondants à plusieurs stimuli avant l'arrivé du tube pollinique aux ovules (activation à distance). Nous avons pu démontrer que le signal perçu par l’ovaire était différent et dépend de plusieurs facteurs, incluant le type de pollen et la distance parcourue par le pollen dans le style. Une autre analyse permettant la comparaison des différentes pollinisations et la blessure du style nous a permis d’identifier que les programmes génétiques de la pollinisation chevauchent en partie avec ceux du stress. Cela était confirmé en traitant les fleurs par une hormone de stress, méthyle jasmonate. Dans le dernier chapitre, nous avons utilisé ces biopuces pour étudier le changement transcriptionnel d’un mutant sur exprimant une protéine kinase FRK2 impliqué dans l’identité des ovules. Nous avons pu sélectionner plusieurs gènes candidat touchés par la surexpression de cette kinase pour mieux comprendre la voie se signalisation. Ces biopuces ont ainsi servi à déterminer la variation au niveau transcriptionnelle des gènes impliqués lors de différents stades de la reproduction sexuée chez les plantes et nous a permis de mieux comprendre ces étapes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A classical argument of de Finetti holds that Rationality implies Subjective Expected Utility (SEU). In contrast, the Knightian distinction between Risk and Ambiguity suggests that a rational decision maker would obey the SEU paradigm when the information available is in some sense good, and would depart from it when the information available is not good. Unlike de Finetti's, however, this view does not rely on a formal argument. In this paper, we study the set of all information structures that might be availabe to a decision maker, and show that they are of two types: those compatible with SEU theory and those for which SEU theory must fail. We also show that the former correspond to "good" information, while the latter correspond to information that is not good. Thus, our results provide a formalization of the distinction between Risk and Ambiguity. As a consequence of our main theorem (Theorem 2, Section 8), behavior not-conforming to SEU theory is bound to emerge in the presence of Ambiguity. We give two examples of situations of Ambiguity. One concerns the uncertainty on the class of measure zero events, the other is a variation on Ellberg's three-color urn experiment. We also briefly link our results to two other strands of literature: the study of ambiguous events and the problem of unforeseen contingencies. We conclude the paper by re-considering de Finetti's argument in light of our findings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons ici la description clinique et génétique d’un syndrome neurocutané unique. Le laboratoire du Dr Cossette a entrepris la caractérisation clinique et génétique d'une famille canadienne-française qui a été identifiée par les Drs Giroux et Barbeau en 1972 et qui comprend plus de 100 personnes sur six générations. Les membres atteints de cette famille présentent des lésions typiques d'érythrokératodermie (EK) (OMIM 133190, EKV1 et EKV2), associées à une ataxie spinocérébelleuse pure. Dans cette famille, l'ataxie est caractérisée par des troubles de la coordination et de la démarche causés par une dégénérescence du cervelet et de la moelle épinière. Cette ataxie est transmise selon un mode autosomique dominant. Une étude antérieure de cette variante d'EK avec ataxie avait suggéré une liaison sur le chromosome 1p34-p35, soit la même région que les formes EKV de type 1 et 2, causées respectivement par des mutations dans les gènes connexin-31 (GJB3; OMIM 603324) et connexin-30.3 (GJB4; OMIM 605425). Cependant, aucune mutation n'a été retrouvée dans ces gènes pour la famille canadienne-française. Nous avons récemment recontacté la famille et effectué des examens détaillés, incluant une imagerie par résonance magnétique (IRM) et un électromyogramme (EMG). Les manifestations neurologiques des individus atteints sont compatibles avec une nouvelle forme d’ataxie cérébelleuse pure à transmission autosomique dominante (ADCA de type III dans la classification de Harding) que nous avons appelée SCA34. Une cartographie complète du génome nous a permis de localiser le gène SCA34 sur le chromosome 6p12.3-q16.2. Également, en collaboration avec les Drs Alexis Brice (Hôpital Pitié-La Salpêtrière, Paris) et Alfredo Brusco (Hôpital San Giovanni Battista di Torino, Italie), nous avons confirmé que trois autres familles européennes avec SCA inexpliquée étaient également liées au locus SCA34. Notre laboratoire a récemment entrepris la recherche des mutations responsables de SCA34. Les résultats de ce criblage de gènes candidats sont présentés dans le chapitre 3 de cette thèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a été réalisée en cotutelle. Pour la forme, Gérard Jasniewicz était mon codirecteur 'officiel' en France, bien que mon codirecteur était plutôt Olivier Richard qui m'a encadré lorsque j'étais en France.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Dans la présente thèse, nous avons étudié la déformation anisotrope par bombardement ionique de nanoparticules d'or intégrées dans une matrice de silice amorphe ou d'arséniure d’aluminium cristallin. On s’est intéressé à la compréhension du mécanisme responsable de cette déformation pour lever toute ambigüité quant à l’explication de ce phénomène et pour avoir une interprétation consistante et unique. Un procédé hybride combinant la pulvérisation et le dépôt chimique en phase vapeur assisté par plasma a été utilisé pour la fabrication de couches nanocomposites Au/SiO2 sur des substrats de silice fondue. Des structures à couches simples et multiples ont été obtenues. Le chauffage pendant ou après le dépôt active l’agglomération des atomes d’Au et par conséquent favorise la croissance des nanoparticules. Les nanocomposites Au/AlAs ont été obtenus par implantation ionique de couches d’AlAs suivie de recuit thermique rapide. Les échantillons des deux nanocomposites refroidis avec de l’azote liquide ont été irradiés avec des faisceaux de Cu, de Si, d’Au ou d’In d’énergie allant de 2 à 40 MeV, aux fluences s'étendant de 1×1013 à 4×1015 ions/cm2, en utilisant le Tandem ou le Tandetron. Les propriétés structurales et morphologiques du nanocomposite Au/SiO2 sont extraites en utilisant des techniques optiques car la fréquence et la largeur de la résonance plasmon de surface dépendent de la forme et de la taille des nanoparticules, de leur concentration et de la distance qui les séparent ainsi que des propriétés diélectriques du matériau dans lequel les particules sont intégrées. La cristallinité de l’arséniure d’aluminium est étudiée par deux techniques: spectroscopie Raman et spectrométrie de rétrodiffusion Rutherford en mode canalisation (RBS/canalisation). La quantité d’Au dans les couches nanocomposites est déduite des résultats RBS. La distribution de taille et l’étude de la transformation de forme des nanoparticules métalliques dans les deux nanocomposites sont déterminées par microscopie électronique en transmission. Les résultats obtenus dans le cadre de ce travail ont fait l’objet de trois articles de revue. La première publication montre la possibilité de manipuler la position spectrale et la largeur de la bande d’absorption des nanoparticules d’or dans les nanocomposites Au/SiO2 en modifiant leur structure (forme, taille et distance entre particules). Les nanoparticules d’Au obtenues sont presque sphériques. La bande d’absorption plasmon de surface (PS) correspondante aux particules distantes est située à 520 nm. Lorsque la distance entre les particules est réduite, l’interaction dipolaire augmente ce qui élargit la bande de PS et la déplace vers le rouge (602 nm). Après irradiation ionique, les nanoparticules sphériques se transforment en ellipsoïdes alignés suivant la direction du faisceau. La bande d’absorption se divise en deux bandes : transversale et longitudinale. La bande correspondante au petit axe (transversale) est décalée vers le bleu et celle correspondante au grand axe (longitudinale) est décalée vers le rouge indiquant l’élongation des particules d’Au dans la direction du faisceau. Le deuxième article est consacré au rôle crucial de la déformation plastique de la matrice et à l’importance de la mobilité des atomes métalliques dans la déformation anisotrope des nanoparticules d’Au dans les nanocomposites Au/SiO2. Nos mesures montrent qu'une valeur seuil de 2 keV/nm (dans le pouvoir d'arrêt électronique) est nécessaire pour la déformation des nanoparticules d'or. Cette valeur est proche de celle requise pour la déformation de la silice. La mobilité des atomes d’Au lors du passage d’ions est confirmée par le calcul de la température dans les traces ioniques. Le troisième papier traite la tentative de formation et de déformation des nanoparticules d’Au dans une matrice d’arséniure d’aluminium cristallin connue pour sa haute résistance à l’amorphisation et à la déformation sous bombardement ionique. Le résultat principal de ce dernier article confirme le rôle essentiel de la matrice. Il s'avère que la déformation anisotrope du matériau environnant est indispensable pour la déformation des nanoparticules d’or. Les résultats expérimentaux mentionnés ci-haut et les calculs de températures dans les traces ioniques nous ont permis de proposer le scénario de déformation anisotrope des nanoparticules d’Au dans le nanocomposite Au/SiO2 suivant: - Chaque ion traversant la silice fait fondre brièvement un cylindre étroit autour de sa trajectoire formant ainsi une trace latente. Ceci a été confirmé par la valeur seuil du pouvoir d’arrêt électronique. - L’effet cumulatif des impacts de plusieurs ions conduit à la croissance anisotrope de la silice qui se contracte dans la direction du faisceau et s’allonge dans la direction perpendiculaire. Le modèle de chevauchement des traces ioniques (overlap en anglais) a été utilisé pour valider ce phénomène. - La déformation de la silice génère des contraintes qui agissent sur les nanoparticules dans les plans perpendiculaires à la trajectoire de l’ion. Afin d’accommoder ces contraintes les nanoparticules d’Au se déforment dans la direction du faisceau. - La déformation de l’or se produit lorsqu’il est traversé par un ion induisant la fusion d’un cylindre autour de sa trajectoire. La mobilité des atomes d’or a été confirmée par le calcul de la température équivalente à l’énergie déposée dans le matériau par les ions incidents. Le scénario ci-haut est compatible avec nos données expérimentales obtenues dans le cas du nanocomposite Au/SiO2. Il est appuyé par le fait que les nanoparticules d’Au ne se déforment pas lorsqu’elles sont intégrées dans l’AlAs résistant à la déformation.