993 resultados para SUBSET
Resumo:
Le transport et la traduction localisée des ARN messagers sont observés chez plusieurs organismes et sont requis pour de multiples phénomènes tels la mémoire, la division cellulaire asymétrique et l’établissement des axes durant le développement. Staufen, une protéine liant l’ARN double-brin, a été identifié dans un premier temps chez la mouche à fruits Drosophila melanogaster. Il a été montré, chez cet organisme, que Staufen est requis pour la localisation des messagers bicoid et oskar aux pôles antérieur et postérieur de l’ovocyte, respectivement. Également, Staufen est requis afin que la répression traductionnelle du messager oskar soit levée une fois qu’il est bien localisé. Chez les mammifères, Stau1 est une protéine ubiquiste qui est présente dans des complexes prenant la forme de granules dans les dendrites des neurones. Également, Stau1 peut interagir de façon indépendante de l’ARN avec le ribosome et cofractionner tant avec la sous-unité 40S qu’avec la sous-unité 60S du ribosome dans un gradient de saccharose. L’implication de Stau1 dans un mécanisme permettant la dérépression traductionnelle de certains ARNm chez les mammifères était donc une voie d’investigation intéressante. Nous avons donc décidé de vérifier si Stau1 mammifère avait la capacité de stimuler la traduction d’un ARNm cellulaire via un mécanisme régulé. Au moment où cette thèse a été entreprise, aucun ARNm cellulaire lié par Stau1 n’avait été identifié chez les mammifères. Des structures d’ARN double-brin ont donc été employées afin de réprimer la traduction d’un ARNm rapporteur. C’est ainsi que nous avons montré que Stau1 peut stimuler la traduction d’un ARNm lorsqu’il lie celui-ci dans sa région 5’ non-traduite. Par la suite, en employant des micropuces d’ADN, nous avons identifié des messagers cellulaires dont la distribution dans les polysomes lourds est modifiée par Stau1. En effet, un groupe de messagers est enrichi dans les polysomes lourds suite à une surexpression de Stau1, ce qui suggère que Stau1 stimule la traduction de cette population d’ARNm. Afin d’identifier un mécanisme potentiel de régulation de l’activité traductionnelle de Stau1, nous nous sommes intéressés à la capacité d’auto-association de cette protéine. Nous avons montré que Stau1, tout comme plusieurs protéines liant l’ARN double-brin, est en mesure de s’associer à lui-même, et ce, d’une façon indépendante de l’ARN. Nous avons identifié les déterminants impliqués mettant ainsi au jour un nouveau mécanisme pouvant influencer les activités cellulaires de Stau1. Les résultats présentés dans cette thèse suggèrent donc que Stau1 est en mesure de stimuler la traduction d’une sous-population précise d’ARN messagers au sein de la cellule permettant ainsi de jeter un regard nouveau sur l’implication de cette protéine dans divers phénomènes au sein de l’organisme.
Resumo:
La bio-informatique est un champ pluridisciplinaire qui utilise la biologie, l’informatique, la physique et les mathématiques pour résoudre des problèmes posés par la biologie. L’une des thématiques de la bio-informatique est l’analyse des séquences génomiques et la prédiction de gènes d’ARN non codants. Les ARN non codants sont des molécules d’ARN qui sont transcrites mais pas traduites en protéine et qui ont une fonction dans la cellule. Trouver des gènes d’ARN non codants par des techniques de biochimie et de biologie moléculaire est assez difficile et relativement coûteux. Ainsi, la prédiction des gènes d’ARNnc par des méthodes bio-informatiques est un enjeu important. Cette recherche décrit un travail d’analyse informatique pour chercher des nouveaux ARNnc chez le pathogène Candida albicans et d’une validation expérimentale. Nous avons utilisé comme stratégie une analyse informatique combinant plusieurs logiciels d’identification d’ARNnc. Nous avons validé un sous-ensemble des prédictions informatiques avec une expérience de puces à ADN couvrant 1979 régions du génome. Grace à cette expérience nous avons identifié 62 nouveaux transcrits chez Candida albicans. Ce travail aussi permit le développement d’une méthode d’analyse pour des puces à ADN de type tiling array. Ce travail présente également une tentation d’améliorer de la prédiction d’ARNnc avec une méthode se basant sur la recherche de motifs d’ARN dans les séquences.
Resumo:
La sclérose systémique (ScS) est une maladie auto-immune dont l’un des principaux auto-anticorps, dirigé contre la protéine centromérique B (CENP-B), est fortement associé à l’hypertension artérielle pulmonaire, l’une des causes majeures de décès dû à la ScS. L’hypertension résulte de l’occlusion progressive des vaisseaux suite à une hyperactivation des cellules musculaires lisses (CML) de la paroi vasculaire. Cependant, les facteurs responsables de ce remodelage vasculaire restent inconnus. Plusieurs études récentes ont démontré que certains auto-antigènes possèdent des fonctions biologiques additionnelles lorsqu'ils se retrouvent dans le milieu extracellulaire. En effet, une fois libérés par nécrose ou apoptose, ces auto-antigènes adoptent une activité biologique qui s'apparente à celles des cytokines et peuvent ainsi participer aux processus normaux de réparation de blessure et/ou acquérir une activité pathogène qui contribue au développement de certaines maladies auto-immunes. Nos résultats suggèrent que la CENP-B peut être ajoutée à cette liste de molécules bifonctionnelles. À l'aide des techniques d'immunofluorescence, d'ELISA cellulaire et de cytométrie en flux, nous avons démontré que la CENP-B se liait spécifiquement à la surface des CML vasculaire de l’artère pulmonaire avec une plus grande affinité pour le phénotype contractile que synthétique. Cette liaison provoquait la migration des cellules ainsi que la sécrétion de cytokines pro-inflammatoires telles que l’interleukine 6 et 8. Les mécanismes par lesquels la protéine exerçait ces effets impliquaient la phosphorylation de FAK et Src ainsi que la voie des MAP kinases, avec ERK1/2 et p38. Des études de signalisation intracellulaire effectuées à l’aide de plusieurs inhibiteurs spécifiques ainsi que des études de désensibilisation nous ont permis d’identifier le récepteur de la CENP-B en plus d’identifier les mécanismes complets de sa signalisation membranaire. Nous avons démontré que la CENP-B se liait de manière spécifique aux CML vasculaire via le récepteur de chémokine 3 (CCR3) pour ensuite transactiver le récepteur EGF, selon un mécanisme métalloprotéase-dépendant qui implique le relargage du HB-EGF. Cette transactivation est un processus important dans l’activation de la voie des MAP kinases ainsi que dans la sécrétion d’IL-8 induite par la CENP-B. Finalement, nous avons démontré que les auto-anticorps anti-CENP-B pouvaient abolir cette cascade de signalisation, empêchant ainsi la CENP-B d’exercer son rôle de cytokine. L’identification de la CENP-B comme ligand du CCR3 ouvre donc plusieurs perspectives quant à l’étude du rôle pathogène des auto-anticorps anti-CENP-B dans la ScS.
Resumo:
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.
Resumo:
L’obésité provient d’un déséquilibre de l’homéostasie énergétique, c’est-à-dire une augmentation des apports caloriques et/ou une diminution des dépenses énergétiques. Plusieurs données, autant anatomiques que physiologiques, démontrent que l’hypothalamus est un régulateur critique de l’appétit et des dépenses énergétiques. En particulier, le noyau paraventriculaire (noyau PV) de l’hypothalamus intègre plusieurs signaux provenant du système nerveux central (SNC) et/ou de la périphérie, afin de contrôler l’homéostasie énergétique via des projections axonales sur les neurones pré-ganglionnaires du système autonome situé dans le troc cérébral et la moelle épinière. Plusieurs facteurs de transcription, impliqués dans le développement du noyau PV, ont été identifiés. Le facteur de transcription SIM1, qui est produit par virtuellement tous les neurones du noyau PV, est requis pour le développement du noyau PV. En effet, lors d’une étude antérieure, nous avons montré que le noyau PV ne se développe pas chez les souris homozygotes pour un allèle nul de Sim1. Ces souris meurent à la naissance, probablement à cause des anomalies du noyau PV. Par contre, les souris hétérozygotes survivent, mais développent une obésité précoce. De façon intéressante, le noyau PV des souris Sim1+/- est hypodéveloppé, contenant 24% moins de cellules. Ces données suggèrent fortement que ces anomalies du développement pourraient perturber le fonctionnement du noyau PV et contribuer au développement du phénotype d’obésité. Dans ce contexte, nous avons entrepris des travaux expérimentaux ayant pour but d’étudier l’impact de l’haploinsuffisance de Sim1 sur : 1) le développement du noyau PV et de ses projections neuronales efférentes; 2) l’homéostasie énergétique; et 3) les voies neuronales physiologiques contrôlant l’homéostasie énergétique chez les souris Sim1+/-. A cette fin, nous avons utilisé : 1) des injections stéréotaxiques combinées à des techniques d’immunohistochimie afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur le développement du noyau PV et de ses projections neuronales efférentes; 2) le paradigme des apports caloriques pairés, afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur l’homéostasie énergétique; et 3) une approche pharmacologique, c’est-à-dire l’administration intra- cérébroventriculaire (i.c.v.) et/ou intra-péritonéale (i.p.) de peptides anorexigènes, la mélanotane II (MTII), la leptine et la cholécystokinine (CCK), afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur les voies neuronales contrôlant l’homéostasie énergétique. Dans un premier temps, nous avons constaté une diminution de 61% et de 65% de l’expression de l’ARN messager (ARNm) de l’ocytocine (Ot) et de l’arginine-vasopressine (Vp), respectivement, chez les embryons Sim1+/- de 18.5 jours (E18.5). De plus, le nombre de cellules produisant l’OT et la VP est apparu diminué de 84% et 41%, respectivement, chez les souris Sim1+/- adultes. L’analyse du marquage axonal rétrograde des efférences du noyau PV vers le tronc cérébral, en particulier ses projections sur le noyau tractus solitaire (NTS) aussi que le noyau dorsal moteur du nerf vague (X) (DMV), a permis de démontrer une diminution de 74% de ces efférences. Cependant, la composition moléculaire de ces projections neuronales reste inconnue. Nos résultats indiquent que l’haploinsuffisance de Sim1 : i) perturbe spécifiquement le développement des cellules produisant l’OT et la VP; et ii) abolit le développement d’une portion importante des projections du noyau PV sur le tronc cérébral, et notamment ses projections sur le NTS et le DMV. Ces observations soulèvent donc la possibilité que ces anomalies du développement du noyau PV contribuent au phénotype d’hyperphagie des souris Sim1+/-. En second lieu, nous avons observé que la croissance pondérale des souris Sim1+/- et des souris Sim1+/+ n’était pas significativement différente lorsque la quantité de calories présentée aux souris Sim1+/- était la même que celle consommée par les souris Sim1+/+. De plus, l’analyse qualitative et quantitative des tissus adipeux blancs et des tissus adipeux bruns n’a démontré aucune différence significative en ce qui a trait à la taille et à la masse de ces tissus chez les deux groupes. Finalement, au terme de ces expériences, les souris Sim1+/--pairées n’étaient pas différentes des souris Sim1+/+ en ce qui a trait à leur insulinémie et leur contenu en triglycérides du foie et des masses adipeuses, alors que tous ces paramètres étaient augmentés chez les souris Sim1+/- nourries ad libitum. Ces résultats laissent croire que l’hyperphagie, et non une diminution des dépenses énergétiques, est la cause principale de l’obésité des souris Sim1+/-. Par conséquent, ces résultats suggèrent que : i) l’haploinsuffisance de Sim1 est associée à une augmentation de l’apport calorique sans toutefois moduler les dépenses énergétiques; ii) l’existence d’au moins deux voies neuronales issues du noyau PV : l’une qui régule la prise alimentaire et l’autre la thermogénèse; et iii) l’haploinsuffisance de Sim1 affecte spécifiquement la voie neuronale qui régule la prise alimentaire. En dernier lieu, nous avons montré que l’injection de MTII, de leptine ainsi que de CCK induit une diminution significative de la consommation calorique des souris des deux génotypes, Sim1+/+ et Sim1+/-. De fait, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 37% et de 51%, respectivement, durant les 4 heures suivant l’administration i.p. de MTII comparativement à l’administration d’une solution saline. Lors de l’administration i.c.v. de la leptine, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 47% et de 32%, respectivement. Finalement, l’injection i.p. de CCK diminue la consommation calorique des souris Sim1+/- et Sim1+/+ de 52% et de 36%, respectivement. L’ensemble des résultats suggère ici que l’haploinsuffisance de Sim1 diminue l’activité de certaines voies neuronales régulant l’homéostasie énergétique, et particulièrement de celles qui contrôlent la prise alimentaire. En résumé, ces travaux ont montré que l’haploinsuffisance de Sim1 affecte plusieurs processus du développement au sein du noyau PV. Ces anomalies du développement peuvent conduire à des dysfonctions de certains processus physiologiques distincts régulés par le noyau PV, et notamment de la prise alimentaire, et contribuer ainsi au phénotype d’obésité. Les souris hétérozygotes pour le gène Sim1 représentent donc un modèle animal unique, où l’hyperphagie, et non les dépenses énergétiques, est la principale cause de l’obésité. En conséquence, ces souris pourraient représenter un modèle expérimental intéressant pour l’étude des mécanismes cellulaires et moléculaires en contrôle de la prise alimentaire.
Resumo:
Le principe de contraction de Banach, qui garantit l'existence d'un point fixe d'une contraction d'un espace métrique complet à valeur dans lui-même, est certainement le plus connu des théorèmes de point fixe. Dans plusieurs situations concrètes, nous sommes cependant amenés à considérer une contraction qui n'est définie que sur un sous-ensemble de cet espace. Afin de garantir l'existence d'un point fixe, nous verrons que d'autres hypothèses sont évidemment nécessaires. Le théorème de Caristi, qui garantit l'existence d'un point fixe d'une fonction d'un espace métrique complet à valeur dans lui-même et respectant une condition particulière sur d(x,f(x)), a plus tard été généralisé aux fonctions multivoques. Nous énoncerons des théorèmes de point fixe pour des fonctions multivoques définies sur un sous-ensemble d'un espace métrique grâce, entre autres, à l'introduction de notions de fonctions entrantes. Cette piste de recherche s'inscrit dans les travaux très récents de mathématiciens français et polonais. Nous avons obtenu des généralisations aux espaces de Fréchet et aux espaces de jauge de quelques théorèmes, dont les théorèmes de Caristi et le principe variationnel d'Ekeland. Nous avons également généralisé des théorèmes de point fixe pour des fonctions qui sont définies sur un sous-ensemble d'un espace de Fréchet ou de jauge. Pour ce faire, nous avons eu recours à de nouveaux types de contractions; les contractions sur les espaces de Fréchet introduites par Cain et Nashed [CaNa] en 1971 et les contractions généralisées sur les espaces de jauge introduites par Frigon [Fr] en 2000.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Une nouvelle notion d'enlacement pour les paires d'ensembles $A\subset B$, $P\subset Q$ dans un espace de Hilbert de type $X=Y\oplus Y^{\perp}$ avec $Y$ séparable, appellée $\tau$-enlacement, est définie. Le modèle pour cette définition est la généralisation de l'enlacement homotopique et de l'enlacement au sens de Benci-Rabinowitz faite par Frigon. En utilisant la théorie du degré développée dans un article de Kryszewski et Szulkin, plusieurs exemples de paires $\tau$-enlacées sont donnés. Un lemme de déformation est établi et utilisé conjointement à la notion de $\tau$-enlacement pour prouver un théorème d'existence de point critique pour une certaine classe de fonctionnelles sur $X$. De plus, une caractérisation de type minimax de la valeur critique correspondante est donnée. Comme corollaire de ce théorème, des conditions sont énoncées sous lesquelles l'existence de deux points critiques distincts est garantie. Deux autres théorèmes de point critiques sont démontrés dont l'un généralise le théorème principal de l'article de Kryszewski et Szulkin mentionné ci-haut.
Resumo:
Suite à la rencontre d’un antigène (Ag) présenté à la surface des cellules présentatrice de l’Ag (CPA), les lymphocytes T naïfs, ayant un récepteur des cellules T (RCT) spécifique de l’Ag, vont proliférer et se différencier en LT effecteurs (1). Suite à l’élimination de l’Ag la majorité des LTe vont mourir par apoptose alors que les restants vont se différencier en LT mémoire (LTm) protégeant l’organisme à long terme. Les mécanismes qui permettent la différenciation des LTe en LTm sont encore inconnus. Pour comprendre comment les LTm CD8+ sont générés à partir des LTe, nous avons émis l’hypothèse que la densité de l’Ag présenté par les CPA peut avoir un impact sur la sélection des LT CD8+ répondant l’Ag à se différencier en LTm. De manière intéressante, nos résultats montrent qu’une immunisation avec des cellules dendritiques (DCs) exprimant un haut niveau de complexe CMH/peptide à sa surface permet le développement de LTm. À l’inverse, le développement des LTm est fortement réduit (10-20X) lorsque les souris sont immunisées avec des DCs exprimant un niveau faible de complexes CMH/peptide à leur surface. De plus, la quantité d’Ag n’a aucune influence ni sur l’expansion des LT CD8+ ni sur l’acquisition de leurs fonctions effectrices, mais affecte de manière critique la génération des LTm. Nos résultats suggèrent que le nombre de RCT engagé lors de la reconnaissance de l’Ag est important pour la formation des LTm. Pour cela nous avons observé par vidéo-microscopie le temps d’interaction entre des LTn et des DCs. Nos résultats montrent que le temps et la qualité de l’interaction sont dépendants de la densité d’Ag présenté par les DCs. Effectivement, nous observons une diminution dans le pourcentage de LT faisant une interaction prolongée avec les DCs quand le niveau d’Ag est faible. De plus, nous observons des variations de l’expression des facteurs de transcription clefs impliqués dans la différenciation des LTm tels qu’Eomes, Bcl-6 et Blimp-1. Par ailleurs, la densité d’Ag fait varier l’expression du Neuron-derived orphan nuclear receptor 1 (Nor-1). Nor-1 est impliqué dans la conversion de Bcl-2 en molécule pro-apoptotique et contribue à la mort par apoptose des LTe pendant la phase de contraction. Notre modèle propose que la densité de l’épitope contrôle la génération des CD8+ LTm. Une meilleure compréhension des mécanismes impliqués dans la génération des LTm permettra le développement de meilleures stratégies pour la génération de vaccin. Dans un second temps, nous avons évalué le rôle du signal RCT dans l’homéostasie des LTm. Pour ce faire, nous avons utilisé un modèle de souris transgénique pour le RCT dont son expression peut être modulée par un traitement à la tétracycline. Ce système nous a permis d’abolir l’expression du RCT à la surface des LTm. De manière intéressante, en absence de RCT exprimé, les LTm CD8+ peuvent survivre à long terme dans l’organisme et rester fonctionnels. De plus, une sous population des LTm CD4+ a la capacité de survivre sans RCT exprimé dans un hôte lymphopénique alors que l’autre sous population nécessite l’expression du RCT.
Resumo:
Chez les végétaux supérieurs, l’embryogenèse est une phase clé du développement au cours de laquelle l’embryon établit les principales structures qui formeront la future plante et synthétise et accumule des réserves définissant le rendement et la qualité nutritionnelle des graines. Ainsi, la compréhension des évènements moléculaires et physiologiques menant à la formation de la graine représente un intérêt agronomique majeur. Toutefois, l'analyse des premiers stades de développement est souvent difficile parce que l'embryon est petit et intégré à l'intérieur du tissu maternel. Solanum chacoense qui présente des fleurs relativement grande facilitant l’isolation des ovules, a été utilisée pour l’étude de la biologie de la reproduction plus précisément la formation des gamètes femelles, la pollinisation, la fécondation et le développement des embryons. Afin d'analyser le programme transcriptionnel induit au cours de la structuration de ces étapes de la reproduction sexuée, nous avons mis à profit un projet de séquençage de 7741 ESTs (6700 unigènes) exprimés dans l’ovule à différents stades du développement embryonnaire. L’ADN de ces ESTs a été utilisé pour la fabrication de biopuces d’ADN. Dans un premier temps, ces biopuces ont été utilisé pour comparer des ADNc issus des ovules de chaque stade de développement embryonnaire (depuis le zygote jusqu’au embryon mature) versus un ovule non fécondé. Trois profils d’expression correspondant au stade précoce, intermédiaire et tardive ont été trouvés. Une analyse plus approfondie entre chaque point étudié (de 0 à 22 jours après pollinisation), a permis d'identifier des gènes spécifiques caractérisant des phases de transition spécifiques. Les annotations Fonctionnelles des gènes differentiellement exprimés nous ont permis d'identifier les principales fonctions cellulaires impliquées à chaque stade de développement, révélant que les embryons sont engagés dans des actifs processus de différenciation. Ces biopuces d’ADN ont été par la suite utilisé pour comparer différent types de pollinisation (compatible, incompatible, semi-compatible et inter-espèce) afin d’identifier les gènes répondants à plusieurs stimuli avant l'arrivé du tube pollinique aux ovules (activation à distance). Nous avons pu démontrer que le signal perçu par l’ovaire était différent et dépend de plusieurs facteurs, incluant le type de pollen et la distance parcourue par le pollen dans le style. Une autre analyse permettant la comparaison des différentes pollinisations et la blessure du style nous a permis d’identifier que les programmes génétiques de la pollinisation chevauchent en partie avec ceux du stress. Cela était confirmé en traitant les fleurs par une hormone de stress, méthyle jasmonate. Dans le dernier chapitre, nous avons utilisé ces biopuces pour étudier le changement transcriptionnel d’un mutant sur exprimant une protéine kinase FRK2 impliqué dans l’identité des ovules. Nous avons pu sélectionner plusieurs gènes candidat touchés par la surexpression de cette kinase pour mieux comprendre la voie se signalisation. Ces biopuces ont ainsi servi à déterminer la variation au niveau transcriptionnelle des gènes impliqués lors de différents stades de la reproduction sexuée chez les plantes et nous a permis de mieux comprendre ces étapes.
Resumo:
La régulation de la transcription est un processus complexe qui a évolué pendant des millions d’années permettant ainsi aux cellules de s’adapter aux changements environnementaux. Notre laboratoire étudie le rôle de la rapamycine, un agent immunosuppresseur et anticancéreux, qui mime la carence nutritionelle. Afin de comprendre les mécanismes impliqués dans la réponse a la rapamycine, nous recherchons des mutants de la levure Saccaromyces cerevisiae qui ont un phenotype altérée envers cette drogue. Nous avons identifié le gène RRD1, qui encode une peptidyl prolyl isomérase et dont la mutation rend les levures très résistantes à la rapamycine et il semble que se soit associé à une réponse transcriptionelle alterée. Mon projet de recherche de doctorat est d’identifier le rôle de Rrd1 dans la réponse à la rapamycine. Tout d’abord nous avons trouvé que Rrd1 interagit avec l’ARN polymérase II (RNAPII), plus spécifiquement avec son domaine C-terminal. En réponse à la rapamycine, Rrd1 induit un changement dans la conformation du domaine C-terminal in vivo permettant la régulation de l’association de RNAPII avec certains gènes. Des analyses in vitro ont également montré que cette action est directe et probablement liée à l’activité isomérase de Rrd1 suggérant un rôle pour Rrd1 dans la régulation de la transcription. Nous avons utilisé la technologie de ChIP sur micropuce pour localiser Rrd1 sur la majorité des gènes transcrits par RNAPII et montre que Rrd1 agit en tant que facteur d’élongation de RNAPII. Pour finir, des résultats suggèrent que Rrd1 n’est pas seulement impliqué dans la réponse à la rapamycine mais aussi à differents stress environnementaux, nous permettant ainsi d’établir que Rrd1 est un facteur d’élongation de la transcription requis pour la régulation de la transcription via RNAPII en réponse au stress.
Resumo:
La prostaglandine E2 est une hormone lipidique produite abondamment dans le corps, incluant dans le rein où elle agit localement pour réguler les fonctions rénales. Un couplage à la protéine Gαs menant à une production d’AMPc a classiquement été attribué au récepteur EP4 de PGE2. La signalisation d’EP4 s’est cependant avérée plus complexe et implique aussi un couplage aux protéines sensibles à la PTX Gαi et des effets reliés aux β-arrestines. Il y a maintenant plusieurs exemples de l’activation sélective de voies de signalisation indépendantes par des ligands des récepteurs couplés aux protéines G (RCPG), et ce concept désigné sélectivité fonctionnelle pourrait être exploité dans le développement de nouveaux médicaments plus spécifiques et efficaces. Dans une première étude, la puissance et l’activité intrinsèque d’une série de ligands d’EP4 pour l’activation de Gαs, Gαi et de la ß-arrestine ont été systématiquement déterminées relativement au ligand endogène PGE2. Dans ce but, trois essais de transfert d’énergie de résonance de bioluminescence (BRET) ont été adaptés pour évaluer les différentes voies dans des cellules vivantes. Nos résultats montrent une sélectivité fonctionnelle importante parmi les agonistes évalués et ont une implication pour l’utilisation d’analogues de la PGE2 dans un contexte expérimental et possiblement clinique, puisque leur spectre d’activité diffère de l’agoniste naturel. La méthodologie basée sur le BRET utilisée lors de cette première évaluation systématique d’une série d’agonistes d’EP4 devrait être applicable à l’étude d’autres RCPG. Dans une deuxième étude, des peptides reproduisant des régions juxtamembranaires extracellulaires du récepteur EP4 ont été conçus selon le raisonnement que des peptides ciblant des régions éloignées du site de liaison du ligand naturel ont le potentiel de ne moduler qu’une partie des activités du récepteur. L’insuffisance rénale aiguë est une complication médicale grave caractérisée par un déclin brusque et soutenu de la fonction rénale et pour laquelle il n’y a pas de traitement efficace à l’heure actuelle. Nos résultats montrent que le peptidomimétique dérivé d’EP4 optimisé (THG213.29) améliore significativement les fonctions rénales et les changements histologiques dans une insuffisance rénale aiguë induite par cisplatine ou par occlusion des artères rénales dans des rats Sprague-Dawley. Le THG213.29 ne compétitionnait pas la liaison de la PGE2 à EP4, mais modulait la cinétique de dissociation de la PGE2, suggérant une liaison à un site allostérique d’EP4. Le THG213.29 démontrait une sélectivité fonctionnelle, puisqu’il inhibait partiellement la production d’AMPc induite par EP4 mais n’affectait pas l’activation de Gαi ou le recrutement de la ß-arrestine. Nos résultats indiquent que le THG213.29 représente une nouvelle classe d’agent diurétique possédant les propriétés d’un modulateur allostérique non-compétitif des fonctions du récepteur EP4 pour l’amélioration des fonctions rénales suite à une insuffisance rénale aiguë.
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
Ce mémoire présente une implantation de la création paresseuse de tâches desti- née à des systèmes multiprocesseurs à mémoire distribuée. Elle offre un sous-ensemble des fonctionnalités du Message-Passing Interface et permet de paralléliser certains problèmes qui se partitionnent difficilement de manière statique grâce à un système de partitionnement dynamique et de balancement de charge. Pour ce faire, il se base sur le langage Multilisp, un dialecte de Scheme orienté vers le traitement parallèle, et implante sur ce dernier une interface semblable à MPI permettant le calcul distribué multipro- cessus. Ce système offre un langage beaucoup plus riche et expressif que le C et réduit considérablement le travail nécessaire au programmeur pour pouvoir développer des programmes équivalents à ceux en MPI. Enfin, le partitionnement dynamique permet de concevoir des programmes qui seraient très complexes à réaliser sur MPI. Des tests ont été effectués sur un système local à 16 processeurs et une grappe à 16 processeurs et il offre de bonnes accélérations en comparaison à des programmes séquentiels équiva- lents ainsi que des performances acceptables par rapport à MPI. Ce mémoire démontre que l’usage des futures comme technique de partitionnement dynamique est faisable sur des multiprocesseurs à mémoire distribuée.
Resumo:
La chromatine est essentielle au maintien de l’intégrité du génome, mais, ironiquement, constitue l’obstacle principal à la transcription des gènes. Plusieurs mécanismes ont été développés par la cellule pour pallier ce problème, dont l’acétylation des histones composant les nucléosomes. Cette acétylation, catalysée par des histones acétyl transférases (HATs), permet de réduire la force de l’interaction entre les nucléosomes et l’ADN, ce qui permet à la machinerie transcriptionnelle de faire son travail. Toutefois, on ne peut laisser la chromatine dans cet état permissif sans conséquence néfaste. Les histone déacétylases (HDACs) catalysent le clivage du groupement acétyle pour permettre à la chromatine de retrouver une conformation compacte. Cette thèse se penche sur la caractérisation de la fonction et du mécanisme de recrutement des complexes HDACs Rpd3S et Set3C. Le complexe Rpd3S est recruté aux régions transcrites par une interaction avec le domaine C-terminal hyperphosphorylé de Rpb1, une sous-unité de l’ARN polymérase II. Toutefois, le facteur d’élongation DSIF joue un rôle dans la régulation de cette association en limitant le recrutement de Rpd3S aux régions transcrites. L’activité HDAC de Rpd3S, quant à elle, dépend de la méthylation du résidu H3K36 par l’histone méthyltransférase Set2. La fonction du complexe Set3C n’est pas clairement définie. Ce complexe est recruté à la plupart de ses cibles par l’interaction entre le domaine PHD de Set3 et le résidu H3K4 di- ou triméthylé. Un mécanisme indépendant de cette méthylation, possiblement le même que pour Rpd3S, régit toutefois l’association de Set3C aux régions codantes des gènes les plus transcrits. La majorité de ces résultats ont été obtenus par la technique d’immunoprécipitation de la chromatine couplée aux biopuces (ChIP-chip). Le protocole technique et le design expérimental de ce type d’expérience fera aussi l’objet d’une discussion approfondie.