1000 resultados para Modèle linéaire généralisé
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
L’Organisation mondiale de la Santé recommande aux individus de limiter leur consommation d’aliments sucrés dans le but de prévenir le développement des maladies chroniques. En santé publique, peu de recherches ont tenté d’identifier les facteurs individuels et contextuels qui peuvent influencer conjointement la consommation de ces aliments. Or, de telles connaissances seraient utiles pour guider les interventions nutritionnelles visant à en réduire la consommation. L’objectif de cette thèse est d'étudier les facteurs reliés au comportement et les contextes associés à la consommation quotidienne d’aliments sucrés chez des adultes vivant dans un milieu urbain occidental. Cette étude a été menée auprès d'une communauté moyen-orientale établie dans la Ville de Montréal. Les aliments sucrés ont été définis comme étant les glucides raffinés dont la teneur en sucres totaux dépasse 20 % de l’énergie totale. Lors de l’étape exploratoire (N = 42), un rappel de 24 heures a permis d’identifier les sources d’aliments sucrés et de déterminer l’apport quotidien en sucres totaux de cette communauté. Une étude qualitative descriptive a été privilégiée et un cadre écologique a guidé la réalisation d’entrevues semi-dirigées sur les contextes de consommation (N = 42). Une analyse de contenu employant des procédures de codage initial et focus a mené à l’élaboration d’un instrument de mesure quantitatif sur les contextes de consommation. Cet instrument a été soumis à un pré-test (N = 20), puis administré à l’échantillon principal (N = 192). Une analyse factorielle exploratoire a permis de préciser les contextes de consommation. Les facteurs individuels mesurés incluent les données sociodémographiques, les symptômes dépressifs, la maîtrise de soi, l’assoupissement de jour, les perceptions ainsi que l’hémoglobine glycosylée. La consommation quotidienne de sucres totaux a été mesurée par un questionnaire de fréquence alimentaire (N = 192). Une analyse de régression multivariée employant le modèle linéaire généralisé (distribution de type gamma et lien logarithmique) a été effectuée pour mesurer les relations entre les contextes de consommation, les facteurs individuels et la consommation de sucres totaux, en contrôlant l’âge et le sexe. L’apport quotidien en sucres totaux de l'échantillon est de 20,3 %, ce qui s’apparente aux apports des Canadiens et des Québécois. La consommation quotidienne moyenne est de 76 g/j. Les analyses qualitative et factorielle ont permis d’identifier un ensemble de 42 contextes de consommation regroupés en sept domaines (Actes et situations de grignotage, Stimuli visuels, Besoins énergétiques, Besoins émotionnels, Indulgence, Contraintes, Socialisation). La consommation quotidienne de sucres totaux est supérieure chez les hommes (B = 0,204, ES = 0,094, p = 0,03). Les facteurs positivement associés à la consommation sont le grignotage (B = 0,225, ES = 0,091, p = 0,01), la prise de dessert (B = 0,105, ES = 0,036, p = 0,001) ainsi que les symptômes dépressifs (B = 0,017, ES = 0,094, p = 0,03). L’âge (B = -0,01, ES = 0,004, p = 0,02), l’indulgence (B = -0,103, ES = 0,052, p = 0,05) et l’auto-modération (B = -0,121, ES = 0,042, p = 0,001) montrent, pour leur part, une association négative. Cette étude a privilégié une méthodologie mixte et a permis de développer une mesure innovatrice pour étudier les facteurs contextuels associés à la consommation d’aliments sucrés. Ceux-ci ont été analysés conjointement avec les facteurs individuels. Afin d'encourager les individus à réduire leur consommation de sucres totaux lorsque nécessaire, les initiatives en santé publique devraient en effet cibler les contextes de consommation de même que les facteurs individuels.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
Les logiciels utilisés sont Splus et R.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Le logiciel de simulation des données et d'analyse est Conquest V.3
Resumo:
Contexte et objectifs. Ce mémoire propose un modèle conceptuel écologique afin de mieux comprendre la violence dans les écoles. Les objectifs de cette recherche sont de ; 1) estimer l’effet des facteurs individuels, contextuels et environnementaux sur le risque de victimisation, 2) vérifier la présence d’interactions entre les différents facteurs. Méthodologie. Les élèves de 16 écoles primaires de la grande région métropolitaine de Montréal ont pris part à un sondage auto-révélé en lien avec différentes dimensions liées à la victimisation en milieu scolaire. Des analyses descriptives ont été menées, dans un premier temps, pour dresser le portrait de la violence en milieu scolaire. Dans un second temps, l’emploi d’un modèle linéaire hiérarchique généralisé (MLHG) a permis d’estimer les effets de variables propres à l’individu, au contexte et à l’environnement sur le risque de victimisation. Résultats. Les résultats aux analyses multiniveaux montrent que des variables individuelles, contextuelles et environnementales influent sur la probabilité d’être victime de violence verbale, physique et dans les médias sociaux. Ainsi, les élèves les plus délinquants sont aussi ceux qui rapportent le plus d’antécédents de victimisation. Toutefois, ces résultats ne sont pas entièrement imputables aux caractéristiques des individus. Le risque de victimisation est atténué lorsque les « gardiens » interviennent pour mettre un terme au conflit et que les victimes se défendent. Enfin, le risque de victimisation est moins élevé dans les écoles où il y a un grand nombre d’élèves. Interprétation. Les résultats suggèrent que plusieurs facteurs qui ne sont pas liés aux victimes et aux délinquants permettent de mieux comprendre le processus de victimisation en milieu scolaire. Le rôle des gardiens de même que la taille des écoles sont des éléments centraux à la compréhension du passage à l’acte.
Resumo:
Summary The mechanisms regulating the protective immune T-cell responses generated against the persistent Epstein-Barr virus (EBV) and Cytomegaloviru_s (CNIV) remain poorly understood. We analyzed the dynamics of cellular differentiation and T-cell receptor (TCR) clonotype selection of EBV- and CMV-specific T-cells in healthy adults and melanoma patients. While these responses could be subdivided into four T lymphocyte populations, théir proportions varied between EBV and CMV specific responses. Phenotypic and TCR clonotypic analyses supported a linear model of differentiation from the early-differentiated (EM/CD28pos) subset to the late-differentiatdc (EMRA/CD28neg) subset. In-depth clonal composition analyses revealed TCR repertoires, which were highly restricted for CMV- and relatively diverse for EBV-specific cells. Virtually all virus-specific clonotypes identified in the EMRA/CD28neg subset were also found within the pool of less differentiated "memory" cells. However, striking differences in the patterns of dominance were observed among these subsets, as some clonotypes were selected with differentiation, while others were not. Latedifferentiated CMV-specific clonotypes were mostly characterized by TCRs with lower dependency on CD8 co-receptor interaction. Yet all clonotypes displayed similar functional avidities, suggesting a compensatory role of CD8 in the clonotypes of lower TCR avidity. Importantly, clonotype selection and composition of each virus-specific subset upon differentiation was highly preserved over time, with the presence of the same dominant clonotypes at specific differentiation stages within a period of four years. This work was extended to the study of EBV-specific CD8 T-cell responses in melanoma patients undergoing transient lymphodepletion, followed by adoptive cell transfer (ACT) and immune reconstitution for thè treatment of their tumors. Following treatment regimen, we first observed an increase in the proportion of virus-specific T-cells in 3 out of 5 patients, accompanied by a more differentiated phenotype (EMRA/CD28neg), compared to specific cells of healthy individuals. Yet, similarly to healthy donors, clonotype selection and composition of virus-specific T-cells varied along the pathway of cellular differentiation, with some clonotypes being selected with differentiation, while others were not. Intriguingly, no novel clonotypes emerged following transient immuno-suppression and homeostatic proliferation, finding which was subsequently explained by the absence of EBV reactivation. The distribution of each clonotype within early- and late-differentiated T-cell subsets in 4 out 5 patients was highly stable over time, with those clonotypes initially found before the start of treatment that were again present at specific differentiation stages after transient lymphodepletion and ACT. These findings uncover novel features of the highly sophisticated control of steady state protective T-cell immune responses against persistent herpesviruses in healthy adults. Furthermore they reveal the striking stability of these responses in terms of clonotype selection and composition with T-cell differentiation even in situations where the immune system has been. challenged. Résumé : Les mécanismes qui régulent les réponses immunitaires de type protectrices, générées contre les virus chroniquement persistants tels que l'Epstein-Barr (EBV) ou le Cytomegalo (CMV) restent largement inconnus. Nous avons analysé la différenciation des lymphocytes T spécifiques pour ces virus, ainsi que la composition des clonotypes T (par leur récepteur T) chez les donneurs sains. Les réponses immunes peuvent être classifiées en quatre souspopulations majeures de lymphocytes T, cependant, leur proportion varie entre les réponses spécifiques contre EBV ou CMV. Ces analyses soutiennent le modèle linéaire de différenciation, à partir de la population non différenciée (EM/CD28pos) vers la population plus différenciée (ENIIZA/CD28neg). De plus, nos données sur la composition clonale de ces cellules T spécifiques ont révélé des répertoires TCR restreints, pour la réponse anti-CMV, et relativement diversifiés contre EBV. Tous les clonotypes spécifiques de ces virus identifiés dans la sous-population différenciée EMRA/CD28neg, ont également été retrouvés dans la population de cellules "mémoires". Toutefois, de fortes différences ont été observées dans les schémas de domination de ces sous-populations, en effet, certains clonotypes étaient sélectionnés avec la différenciation, alors que d'autres ne l'étaient pas. Nous avons également démontré que ces clonotypes différenciés et spécifiques pour le CMV sont caractérisés par des TCRs à faible dépendance en regard de la coopération du corécepteur CD8. Néanmoins, tous les clonotypes affichent une avidité fonctionnelle similaire, suggérant un rôle compensatoire du CD8, dans le cas des clonotypes avec une faible avidité du TCR En définitive, la composition et la sélection des clonotypes spécifiques pour chaque virus et pour chaque sous-population suit un schéma de différenciation hautement conservé au cours du temps, avec la présence de ces mêmes clonotypes au même stade de différenciation sur une période de quatre ans. Ce travail a été étendu à l'étude des réponses T CD8+ spécifiques pour le virus EBV chez les patients atteints de mélanome et recevant dans le cadre du traitement de leurs tumeurs une lymphodéplétion transitoire, suivie d'un transfert adoptif de cellules et d'une reconstitution immunitaire. Au cours de cette thérapie, nous avons en premier lieu observé pour 3 des 5 patients une augmentation de la proportion de cellules T spécifiques pour le virus, accompagné d'un phénotype plus différencié (EMRA/CD28neg), et ceci comparativement à des cellules spécifiques d'individus sains. Pourtant, comme nous l'avons observé chez les donneurs sains, la sélection et la composition des clonotypes T spécifiques varient tout au long de la différenciation cellulaire, avec certains clonotypes sélectionnés et d'autres qui ne le sont pas. Étonnamment, aucun nouveau clonotype n'a émergé après l'immuno-suppression transitoire et la prolifération homéostatique. Cette observation trouve son explication par une absence de réactivation du virus EBV chez ces patients, et ce malgré leur traitement. De plus, la distribution de chaque clonotype parmi ces sous-populations non-différenciées et différenciées reste stable au cours du traitement. Ainsi, les mêmes clonotypes initialement identifiés avant le début du traitement sont présents aux mêmes stades de différenciation après la lymphodéplétion et la prolifération homéostatique. Ces résultats ont permis d'identifier de nouveaux mécanismes impliqués dans la régulation hautement «sophistiquée » des réponses immunitaires T contre les virus persistants EBV et CMV chez les donneurs sains. En particulier, ils révèlent la grande stabilité de ces réponses en termes de sélection et de composition des clonotypes avec la différenciation cellulaire, et ce dans les situations chroniques, ainsi que dans les situations dans lesquelles le système immunitaire a été profondément perturbé.
Resumo:
In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
Essai cinique randomisé
Resumo:
La guérison des plaies cutanées appendiculaires chez le cheval, à la différence de celle des plaies corporelles, se complique régulièrement. Un retard de cicatrisation s’y observe et un tissu de granulation exubérant tend à s’y développer, le tout menant à une cicatrice pathologique hypertrophiée. La pathogénie exacte du tissu de granulation exubérant chez le cheval demeure inconnue à ce jour. Une hypoxie tissulaire pourrait favoriser son développement tout comme elle semble contribuer au développement de cicatrices cutanées pathologiques similaires observées chez l’Homme. L’objectif de cette étude était d’évaluer la perfusion vasculaire et la disponibilité locale en oxygène de plaies cutanées appendiculaires et corporelles en cours de cicatrisation normale et pathologique chez le cheval, à l’aide de la thermographie infrarouge et de la spectroscopie par réflectance dans le proche infrarouge. Six juments âgées de 3 à 4 ans ont été utilisées. Trois plaies cutanées ont été créées à l’aspect dorso-latéral du canon des membres thoraciques (plaies appendiculaires), et sur la paroi costale de l’un des hémithorax (plaies corporelles). Chez chaque jument, un canon a été aléatoirement bandé dans le but d’induire la formation de tissu de granulation exubérant dans les plaies s’y trouvant, tel que rapporté. La perfusion vasculaire et la disponibilité locale en oxygène ont été évaluées séquentiellement par thermographie infrarouge et spectroscopie par réflectance dans le proche infrarouge pour chaque plaie de chaque site (thorax; membre bandé; membre non bandé) au cours du processus de cicatrisation cutanée. Un modèle linéaire à doubles mesures répétées associé à une correction séquentielle de Bonferroni a révélé des différences significatives de perfusion vasculaire et de disponibilité locale en oxygène entre les plaies appendiculaires et corporelles. Ainsi la perfusion vasculaire et la disponibilité locale en oxygène étaient significativement plus élevées dans les plaies corporelles (P<0.05) et la perfusion vasculaire était significativement plus élevée dans les plaies appendiculaires non bandées que dans celles bandées (P<0.05). Nous avons récemment rapporté une plus grande occlusion de la micro-vascularisation au niveau des plaies appendiculaires chez le cheval. Nous rapportons maintenant que la perfusion vasculaire et la disponibilité locale en oxygène sont significativement inférieures dans les plaies appendiculaires, en particulier lorsqu’un tissu de granulation exubérant s’y développe. Compilés, ces résultats sous-tendent l’hypothèse que les plaies appendiculaires souffrent d’une altération de la perfusion vasculaire à l’origine possible d’une hypoxie tissulaire qui pourrait favoriser une cicatrisation cutanée anormale, telle la formation d’un tissu de granulation exubérant.
Resumo:
Doctorat réalisé en cotutelle entre l'Université de Montréal et l'Université Paul Sabatier-Toulouse III
Resumo:
Le but de cette thèse est d'étudier les corrélats comportementaux et neuronaux du transfert inter-linguistique (TIL) dans l'apprentissage d’une langue seconde (L2). Compte tenu de nos connaissances sur l'influence de la distance linguistique sur le TIL (Paradis, 1987, 2004; Odlin, 1989, 2004, 2005; Gollan, 2005; Ringbom, 2007), nous avons examiné l'effet de facilitation de la similarité phonologique à l’aide de la résonance magnétique fonctionnelle entre des langues linguistiquement proches (espagnol-français) et des langues linguistiquement éloignées (persan-français). L'étude I rapporte les résultats obtenus pour des langues linguistiquement proches (espagnol-français), alors que l'étude II porte sur des langues linguistiquement éloignées (persan-français). Puis, les changements de connectivité fonctionnelle dans le réseau langagier (Price, 2010) et dans le réseau de contrôle supplémentaire impliqué dans le traitement d’une langue seconde (Abutalebi & Green, 2007) lors de l’apprentissage d’une langue linguistiquement éloignée (persan-français) sont rapportés dans l’étude III. Les résultats des analyses d’IRMF suivant le modèle linéaire général chez les bilingues de langues linguistiquement proches (français-espagnol) montrent que le traitement des mots phonologiquement similaires dans les deux langues (cognates et clangs) compte sur un réseau neuronal partagé par la langue maternelle (L1) et la L2, tandis que le traitement des mots phonologiquement éloignés (non-clang-non-cognates) active des structures impliquées dans le traitement de la mémoire de travail et d'attention. Toutefois, chez les personnes bilingues de L1-L2 linguistiquement éloignées (français-persan), même les mots phonologiquement similaires à travers les langues (cognates et clangs) activent des régions connues pour être impliquées dans l'attention et le contrôle cognitif. Par ailleurs, les mots phonologiquement éloignés (non-clang-non-cognates) activent des régions usuellement associées à la mémoire de travail et aux fonctions exécutives. Ainsi, le facteur de distance inter-linguistique entre L1 et L2 module la charge cognitive sur la base du degré de similarité phonologiques entres les items en L1 et L2. Des structures soutenant les processus impliqués dans le traitement exécutif sont recrutées afin de compenser pour des demandes cognitives. Lorsque la compétence linguistique en L2 augmente et que les tâches linguistiques exigent ainsi moins d’effort, la demande pour les ressources cognitives diminue. Tel que déjà rapporté (Majerus, et al, 2008; Prat, et al, 2007; Veroude, et al, 2010; Dodel, et al, 2005; Coynel, et al ., 2009), les résultats des analyses de connectivité fonctionnelle montrent qu’après l’entraînement la valeur d'intégration (connectivité fonctionnelle) diminue puisqu’il y a moins de circulation du flux d'information. Les résultats de cette recherche contribuent à une meilleure compréhension des aspects neurocognitifs et de plasticité cérébrale du TIL ainsi que l'impact de la distance linguistique dans l'apprentissage des langues. Ces résultats ont des implications dans les stratégies d'apprentissage d’une L2, les méthodes d’enseignement d’une L2 ainsi que le développement d'approches thérapeutiques chez des patients bilingues qui souffrent de troubles langagiers.