947 resultados para OF-ONSET DISTRIBUTIONS
Harsanyi’s Social Aggregation Theorem : A Multi-Profile Approach with Variable-Population Extensions
Resumo:
This paper provides new versions of Harsanyi’s social aggregation theorem that are formulated in terms of prospects rather than lotteries. Strengthening an earlier result, fixed-population ex-ante utilitarianism is characterized in a multi-profile setting with fixed probabilities. In addition, we extend the social aggregation theorem to social-evaluation problems under uncertainty with a variable population and generalize our approach to uncertain alternatives, which consist of compound vectors of probability distributions and prospects.
Resumo:
Intertemporal social-evaluation rules provide us with social criteria that can be used to assess the relative desirability of utility distributions across generations. The trade-offs between the well-being of different generations implicit in each such rule reflect the underlying ethical position on issues of intergenerational equity or justice. We employ an axiomatic approach in order to identify ethically attractive socialevaluation procedures. In particular, we explore the possibilities of using welfare information and non-welfare information in a model of intertemporal social evaluation. We focus on the individuals’ birth dates and lengths of life as the relevant non-welfare information. As usual, welfare information is given by lifetime utilities. It is assumed that this information is available for each alternative to be ranked. Various weakenings of the Pareto principle are employed in order to allow birth dates or lengths of life (or both) to matter in social evaluation. In addition, we impose standard properties such as continuity and anonymity and we examine the consequences of an intertemporal independence property. For each of the Pareto conditions employed, we characterize all social-evaluation rules satisfying it and our other axioms. The resulting rules are birth-date dependent or lifetime-dependent versions of generalized utilitarianism. Furthermore, we discuss the ethical and axiomatic foundations of geometric discounting in the context of our model.
Resumo:
Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.
Resumo:
La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.
Resumo:
Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
La présente thèse expose, analyse et critique les positions classiques et modernes à l’égard de la nature et des causes de la faiblesse de volonté. L’identification du problème par Platon et Aristote a donné lieu à l’explicitation de principes et propositions portant sur la rationalité pratique en général et la motivation en particulier. Une discussion de ces principes et propositions est faite dans la mesure où ils ont conservé une certaine pertinence pour les théories modernes. Ce qui est devenu la conception standard de la stricte akrasie ainsi que son caractère prétendument paradoxal sont mis de l’avant. Nous argumentons qu’une position sceptique à l’égard de la stricte akrasie ne peut pas reposer sur une version ou une autre de la théorie des préférences révélées et montrons qu’une description du processus décisionnel est nécessaire pour attribuer une préférence synthétique ou un meilleur jugement. Nous abordons le débat philosophique qui oppose une conception internaliste du lien entre le meilleur jugement et la décision à une conception externaliste, et soutenons, sur la base de résultats expérimentaux en psychologie cognitive et en neuroscience, que cette dernière conception est plus robuste, bien qu’imparfaite. Ces résultats ne vont pas toutefois à l’encontre de l’hypothèse que les agents sont des maximisateurs dans la satisfaction de leur préférence, laquelle hypothèse continue de justifier une forme de scepticisme à l’égard de la stricte akrasie. Nous exposons, par contre, des arguments solides à l’encontre de cette hypothèse et montrons pourquoi la maximisation n’est pas nécessairement requise pour le choix rationnel et que nous devons, par conséquent, réviser la conception standard de la stricte akrasie. Nous discutons de l’influente théorie de Richard Holton sur la faiblesse de volonté non strictement akratique. Bien que compatible avec une conception non maximisante, sa théorie réduit trop les épisodes de faiblesse de volonté à des cas d’irrésolution. Nous exposons finalement la théorie du choix intertemporel. Cette théorie est plus puissante parce qu’elle décrit et explique, à partir d’un même schème conceptuel, autant la stricte akrasie que l’akrasie tout court. Ce schème concerne les propriétés des distributions temporelles des conséquences des décisions akratiques et les attitudes prospectives qui motivent les agents à les prendre. La structure de ces distributions, couplée à la dévaluation à l’égard du futur, permet également d’expliquer de manière simple et élégante pourquoi la faiblesse de volonté est irrationnelle. Nous discutons de l’hypothèse qu’une préférence temporelle pure est à la source d’une telle dévaluation et mentionnons quelques éléments critiques et hypothèses concurrentes plus conformes à une approche cognitiviste du problème.
Resumo:
Ce mémoire consiste en une reproduction et une extension du Modèle Confluent de l’Agression Sexuelle (MCAS) de Neil Malamuth. Le MCAS est un des seuls modèles développementaux de l’agression sexuelle d’hommes sur des femmes adultes à avoir été validé empiriquement. Dans ce modèle, deux trajectoires (la promiscuité sexuelle et la masculinité hostile) convergent et mènent à l’agression sexuelle. Pour la première fois, ce modèle est appliqué séparément à quatre paramètres de la carrière criminelle sexuelle (gravité, fréquence, précocité, spécialisation) au sein d’un échantillon d’agresseurs sexuels de femmes adultes judiciarisés (n=180). Les quatre modèles qui en résultent s’ajustent bien aux données. Tous les liens postulés dans le MCAS sont validés dans ce mémoire, à une exception. En effet, contrairement aux résultats obtenus par Malamuth, une seule des deux trajectoires du modèle présente un lien significatif avec chacun des paramètres de la carrière criminelle sexuelle à l’étude. La trajectoire de la promiscuité sexuelle est liée à la précocité et à la non-spécialisation (lien négatif avec la spécialisation) alors que la trajectoire de la masculinité hostile est associée à la gravité et à la fréquence. Ces résultats sont congruents avec une approche typologique des agresseurs sexuels de femmes adultes. Chacune des deux trajectoires du MCAS englobe des caractéristiques spécifiques à certains types de violeurs (opportunistes, colériques, sadiques) qui, pour leur part, se distinguent quant aux paramètres de leur carrière criminelle sexuelle.
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
We complete the development of a testing ground for axioms of discrete stochastic choice. Our contribution here is to develop new posterior simulation methods for Bayesian inference, suitable for a class of prior distributions introduced by McCausland and Marley (2013). These prior distributions are joint distributions over various choice distributions over choice sets of di fferent sizes. Since choice distributions over di fferent choice sets can be mutually dependent, previous methods relying on conjugate prior distributions do not apply. We demonstrate by analyzing data from a previously reported experiment and report evidence for and against various axioms.
Resumo:
Malgré de nombreuses études qui soutiennent l'idée que les enfants ayant vécu la rupture de leurs parents rencontrent un plus haut niveau de difficultés affectives et comportementales que les enfants de familles intactes, certaines questions restent à éclaircir. Notamment, les données empiriques existantes ne conduisent pas à des conclusions précises quant au moment exact de l’apparition de ces difficultés. De plus, ce n'est pas clair si ces difficultés sont associées à la séparation en soi, ou à bien d'autres facteurs liés à la séparation. Cette thèse est constituée de deux articles empiriques. Le premier examine l’adaptation de l’enfant avant et après la séparation en fonction du sexe et de l'âge au moment de la séparation. Le second article présente une étude qui a pour objectif de départager l’importance des facteurs parentaux et contextuels et celle de la séparation parentale pour expliquer l’adaptation de l’enfant. Les participants proviennent de l'Étude Longitudinale du Développement des Enfants du Québec (ÉLDEQ, 1998-2006). À chaque enquête de l'ÉLDEQ, une entrevue structurée réalisée auprès de la mère a permis d'évaluer les niveaux d’hyperactivité/impulsivité, d’anxiété et d’agressivité physique de l’enfant. Pendant cette entrevue, les mères ont également répondu à des questions sur la qualité de leurs pratiques parentales et sur le revenu du ménage. Finalement, un questionnaire auto-administré à la mère a permis d'évaluer ses propres symptômes de dépression et d'anxiété. La première étude inclus 143 enfants de familles séparées et 1705 enfants de familles intactes. Deux sous-groupes ont été créés selon que l’enfant ait vécu la séparation entre 2 et 4 ans, ou entre 4 et 6 ans. L’adaptation de l'enfant a été évaluée à un temps de mesure avant la séparation et à deux temps de mesure après la séparation. Les résultats de cette première étude démontrent qu’avant la séparation, les enfants de familles intactes et séparées ne se distinguent pas significativement quant à leurs niveaux d’hyperactivité/impulsivité et d’anxiété. Par contre, ces difficultés deviennent significativement plus élevées chez les enfants de familles séparées après la rupture des parents. D’autres parts, le niveau d’agressivité physique est plus élevé chez les enfants de la séparation indépendamment du temps de mesure. Finalement, les différences entre les deux groupes d’enfants ne dépendent pas du sexe ou de l’âge au moment de la séparation. La deuxième étude inclus 358 enfants de 8 ans qui ont vécu la séparation de leurs parents, et 1065 enfants du même âge provenant de familles intactes. Après avoir contrôlé pour le sexe de l’enfant, les résultats ont démontré que lorsqu’on tient compte de la contribution des symptômes maternels de dépression et d'anxiété, de la qualité des pratiques parentales et du revenu du ménage dans l’adaptation de l’enfant, la séparation parentale ne demeurent plus liée aux niveaux d’anxiété et d'agressivité physique de l’enfant. Par contre, la relation entre la séparation parentale et l’hyperactivité/impulsivité de l’enfant demeure significative. Les résultats présentés dans les articles sont discutés ainsi que leurs implications.
Resumo:
La Sclérose en plaques (SEP) est une maladie auto-immune inflammatoire démyélinisante du système nerveux central (SNC), lors de laquelle des cellules inflammatoires du sang périphérique infiltrent le SNC pour y causer des dommages cellulaires. Dans ces réactions neuroinflammatoires, les cellules immunitaires traversent le système vasculaire du SNC, la barrière hémo-encéphalique (BHE), pour avoir accès au SNC et s’y accumuler. La BHE est donc la première entité que rencontrent les cellules inflammatoires du sang lors de leur migration au cerveau. Ceci lui confère un potentiel thérapeutique important pour influencer l’infiltration de cellules du sang vers le cerveau, et ainsi limiter les réactions neuroinflammatoires. En effet, les interactions entre les cellules immunitaires et les parois vasculaires sont encore mal comprises, car elles sont nombreuses et complexes. Différents mécanismes pouvant influencer la perméabilité de la BHE aux cellules immunitaires ont été décrits, et représentent aujourd’hui des cibles potentielles pour le contrôle des réactions neuro-immunes. Cette thèse a pour objectif de décrire de nouveaux mécanismes moléculaires opérant au niveau de la BHE qui interviennent dans les réactions neuroinflammatoires et qui ont un potentiel thérapeutique pour influencer les interactions neuro-immunologiques. Ce travail de doctorat est séparé en trois sections. La première section décrit la caractérisation du rôle de l’angiotensine II dans la régulation de la perméabilité de la BHE. La seconde section identifie et caractérise la fonction d’une nouvelle molécule d’adhérence de la BHE, ALCAM, dans la transmigration de cellules inflammatoires du sang vers le SNC. La troisième section traite des propriétés sécrétoires de la BHE et du rôle de la chimiokine MCP-1 dans les interactions entre la BHE et les cellules souches. Dans un premier temps, nous démontrons l’importance de l’angiotensinogène (AGT) dans la régulation de la perméabilité de la BHE. L’AGT est sécrété par les astrocytes et métabolisé en angiotensine II pour pouvoir agir au niveau des CE de la BHE à travers le récepteur à l’angiotensine II, AT1 et AT2. Au niveau de la BHE, l’angiotensine II entraîne la phosphorylation et l’enrichissement de l’occludine au sein de radeaux lipidiques, un phénomène associé à l’augmentation de l’étanchéité de la BHE. De plus, dans les lésions de SEP, on retrouve une diminution de l’expression de l’AGT et de l’occludine. Ceci est relié à nos observations in vitro, qui démontrent que des cytokines pro-inflammatoires limitent la sécrétion de l’AGT. Cette étude élucide un nouveau mécanisme par lequel les astrocytes influencent et augmentent l’étanchéité de la BHE, et implique une dysfonction de ce mécanisme dans les lésions de la SEP où s’accumulent les cellules inflammatoires. Dans un deuxième temps, les techniques établies dans la première section ont été utilisées afin d’identifier les protéines de la BHE qui s’accumulent dans les radeaux lipidiques. En utilisant une technique de protéomique nous avons identifié ALCAM (Activated Leukocyte Cell Adhesion Molecule) comme une protéine membranaire exprimée par les CE de la BHE. ALCAM se comporte comme une molécule d’adhérence typique. En effet, ALCAM permet la liaison entre les cellules du sang et la paroi vasculaire, via des interactions homotypiques (ALCAM-ALCAM pour les monocytes) ou hétérotypiques (ALCAM-CD6 pour les lymphocytes). Les cytokines inflammatoires augmentent le niveau d’expression d’ALCAM par la BHE, ce qui permet un recrutement local de cellules inflammatoires. Enfin, l’inhibition des interactions ALCAM-ALCAM et ALCAM-CD6 limite la transmigration des cellules inflammatoires (monocytes et cellules T CD4+) à travers la BHE in vitro et in vivo dans un modèle murin de la SEP. Cette deuxième partie identifie ALCAM comme une cible potentielle pour influencer la transmigration de cellules inflammatoires vers le cerveau. Dans un troisième temps, nous avons pu démontrer l’importance des propriétés sécrétoires spécifiques à la BHE dans les interactions avec les cellules souches neurales (CSN). Les CSN représentent un potentiel thérapeutique unique pour les maladies du SNC dans lesquelles la régénération cellulaire est limitée, comme dans la SEP. Des facteurs qui limitent l’utilisation thérapeutique des CSN sont le mode d’administration et leur maturation en cellules neurales ou gliales. Bien que la route d’administration préférée pour les CSN soit la voie intrathécale, l’injection intraveineuse représente la voie d’administration la plus facile et la moins invasive. Dans ce contexte, il est important de comprendre les interactions possibles entre les cellules souches et la paroi vasculaire du SNC qui sera responsable de leur recrutement dans le parenchyme cérébral. En collaborant avec des chercheurs de la Belgique spécialisés en CSN, nos travaux nous ont permis de confirmer, in vitro, que les cellules souches neurales humaines migrent à travers les CE humaines de la BHE avant d’entamer leur différenciation en cellules du SNC. Suite à la migration à travers les cellules de la BHE les CSN se différencient spontanément en neurones, en astrocytes et en oligodendrocytes. Ces effets sont notés préférentiellement avec les cellules de la BHE par rapport aux CE non cérébrales. Ces propriétés spécifiques aux cellules de la BHE dépendent de la chimiokine MCP-1/CCL2 sécrétée par ces dernières. Ainsi, cette dernière partie suggère que la BHE n’est pas un obstacle à la migration de CSN vers le SNC. De plus, la chimiokine MCP-1 est identifiée comme un facteur sécrété par la BHE qui permet l’accumulation et la différentiation préférentielle de cellules souches neurales dans l’espace sous-endothélial. Ces trois études démontrent l’importance de la BHE dans la migration des cellules inflammatoires et des CSN vers le SNC et indiquent que de multiples mécanismes moléculaires contribuent au dérèglement de l’homéostasie du SNC dans les réactions neuro-immunes. En utilisant des modèles in vitro, in situ et in vivo, nous avons identifié trois nouveaux mécanismes qui permettent d’influencer les interactions entre les cellules du sang et la BHE. L’identification de ces mécanismes permet non seulement une meilleure compréhension de la pathophysiologie des réactions neuroinflammatoires du SNC et des maladies qui y sont associées, mais suggère également des cibles thérapeutiques potentielles pour influencer l’infiltration des cellules du sang vers le cerveau
Resumo:
We generalize the classical expected-utility criterion by weakening transitivity to Suzumura consistency. In the absence of full transitivity, reflexivity and completeness no longer follow as a consequence of the system of axioms employed and a richer class of rankings of probability distributions results. This class is characterized by means of standard expected-utility axioms in addition to Suzumura consistency. An important feature of some members of our new class is that they allow us to soften the negative impact of wellknown paradoxes without abandoning the expected-utility framework altogether.