997 resultados para croissance cranio-faciale
Resumo:
Les anomalies phénotypiques et fonctionnelles des lymphocytes B (LB) sont typiques d'une infection au VIH et se traduisent principalement par une activation polyclonale, une perte de la mémoire immunitaire ainsi qu'une réponse humorale déficiente et des phénomènes auto-immunitaires souvent précurseurs de lymphomes B. Ces anomalies se retrouvent principalement chez les patients lors de la phase chronique de la maladie et semblent être reliées en partie au niveau de la charge virale ainsi qu'à un compartiment de lymphocytes T CD4+ altéré. Cependant, quoique controversé, des éléments d’activation polyclonale ont également été observés chez les non-progresseurs à long terme (LTNPs) qui présentent une charge virale faible et un compartiment T CD4+ semblable aux individus séronégatifs. Ainsi, les objectifs principaux de cette étude sont 1) d’établir une chronologie des anomalies du compartiment des cellules B chez des individus infectés par le VIH qui ont une progression différente de la maladie (PHI normaux, rapides, sains et LTNP). 2) corréler les niveaux sériques du stimulateur de lymphocytes B (BLyS), un facteur de croissance des cellules B, avec les phénotypes observés chez ces mêmes patients. L’hyperglobulinémie, les niveaux sériques de BLyS et d’auto-anticorps ont été mesuré longitudinalement chez une cohorte d’individus en primo-infection (PHI) avec des progressions différentes de la maladie (rapides et normaux), LTNP et sujets sains. Nos résultats démontrent que l’activation polyclonale des LB survient indépendamment de la vitesse de progression et persiste chez les LTNP ou malgré une thérapie antirétrovirale efficace chez les progresseurs rapides. Des niveaux élevés de BLyS dans le sérum des progresseurs rapides corrèlent avec des fréquences altérées de monocytes et cellules dendritiques, suggérant un rôle de celles-ci dans l’atteinte du compartiment des cellules B.
Resumo:
Au Canada et au Québec, au cours des années 2000, la migration des travailleurs qualifiés originaires d’Amérique du Sud a connu une croissance très rapide. Pourtant, ce flux migratoire et sa composante féminine ne semblent pas avoir fait l’objet d’une lecture sociologique. Ce travail vise à combler quelques lacunes dans ce domaine des connaissances, en examinant le processus d’intégration économique d’immigrantes d’origine sud-américaine arrivées durant cette décennie. L’étude comprend l’analyse de 16 cas de femmes originaires de divers pays d’Amérique du Sud qui ont un diplôme universitaire ou l’équivalent, qui avaient déjà une expérience de travail dans leur pays d’origine et qui possèdent une bonne maîtrise de la langue française. Les questions qui guident cette recherche dépassent l’aspect statistique ou sociodémographique d’un groupe non étudié dans le contexte canadien. Le but principal de ce mémoire consiste à examiner l’importance d’une variété de ressources culturelles et symboliques qui sont déployées tout au long du processus d’intégration socioéconomique par des immigrantes sud-américaines de la catégorie des « travailleurs qualifiés » dans le contexte montréalais. Dans ce but, l’étude analyse comment les ressources acquises dans la société d’origine ont des impacts sur le parcours professionnel de ces femmes, en leur permettant de définir des stratégies d’intégration sur le marché du travail dans la société réceptrice. L’analyse se déploie à partir de la problématisation des facteurs construits socioculturellement comme catégories de structuration et de hiérarchisation qui, selon le contexte, définissent la position sociale et qui, à travers l’expérience, expliquent la position situationnelle des immigrantes sud-américaines. L’accès, l’utilisation et la mobilisation des ressources pour définir des stratégies d’intégration socioprofessionnelle sont analysés à partir de quatre axes : l’expérience, la dimension intersubjective, le contexte institutionnel et organisationnel, et finalement, la dimension représentationnelle.
Resumo:
Durant le développement du système visuel, les cellules ganglionnaires de la rétine (CGRs) envoient des axones qui seront influencés par divers signaux guidant leur cône de croissance, permettant ainsi la navigation des axones vers leurs cibles terminales. Les endocannabinoïdes, des dérivés lipidiques activant les récepteurs aux cannabinoides (CB1 et CB2), sont présents de manière importante au cours du développement. Nous avons démontré que le récepteur CB2 est exprimé à différents points du tractus visuel durant le développement du hamster. L’injection d’agonistes et d’agonistes inverses pour le récepteur CB2 a modifié l’aire du cône de croissance et le nombre de filopodes présents à sa surface. De plus, l’injection d’un gradient d’agoniste du récepteur CB2 produit la répulsion du cône de croissance tandis qu’un analogue de l’AMPc (db-AMPc) produit son attraction. Les effets du récepteur CB2 sur le cône de croissance sont produits en modulant l’activité de la protéine kinase A(PKA), influençant la présence à la membrane cellulaire d’un récepteur à la nétrine-1 nommé Deleted in Colorectal Cancer (DCC). Notamment, pour que le récepteur CB2 puisse moduler le guidage du cône de croissance, la présence fonctionnelle du récepteur DCC est essentielle.. Suite à une injection intra-occulaire d’un agoniste inverse du récepteur CB2, nous avons remarqué une augmentation de la longueur des branches collatérales des axones rétiniens au niveau du LTN (noyau lateral terminal). Nous avons également remarqué une diminution de la ségrégation des projections ganglionnaires au niveau du dLGN, le noyau genouillé lateral dorsal, chez les animaux transgéniques cnr2-/-, ayant le gène codant pour le récepteur CB2 inactif. Nos données suggèrent l’implication des endocannabinoïdes et de leur récepteur CB2 dans la modulation des processus de navigation axonale et de ségrégation lors du développement du système visuel.
Resumo:
Au cours du développement, les axones des cellules ganglionnaires de la rétine (CGRs) voyagent sur de longues distances pour établir des connexions avec leurs cellules cibles. La navigation des cônes de croissance est guidée par différentes molécules chimiotropiques présentes dans leur environnement. Les endocannabinoïdes (eCB) sont d’importants neuromodulateurs qui régulent de manière rétrograde la fonction de nombreuses synapses du cerveau. Ils agissent principalement par le biais de leurs récepteurs liés à une protéine Gi/o CB1 (CB1R) et CB2 (CB2R). La présence des eCBs durant le stade fœtal et la période postnatale suggère leur implication dans des événements régulant le développement du système nerveux. Cette thèse confirme l’expression des récepteurs aux cannabinoïdes CB1 et CB2 ainsi que l’enzyme dégradant les eCBs lors du développement embryonnaire et perinatal des CGRs et de la voie rétinothalamique in vivo. La manipulation pharmacologique de l’activité de CB1R et CB2R réorganise la morphologie du cône de croissance des CGRs et des neurones corticaux in vitro. De plus, la stimulation locale avec un agoniste de CB1R ou de CB2R modifie le comportement du cône de croissance entraînant sa répulsion. CB1R et CB2R modulent par le biais de la voie de signalisation AMPc/PKA, la mobilisation de DCC à la membrane plasmique. Par ailleurs, les résultats de cette recherche démontrent également l’implication de CB1R et CB2R dans la ségrégation des projections ipsi- et controlatérales et le développement de la voie rétinothalamique.
Resumo:
Notre laboratoire a démontré que la capacité proinflammatoire du vascular endothelial growth factor (VEGF-A165) implique la synthèse endothéliale du facteur d’activation plaquettaire (PAF) via l’activation du récepteur tyrosine kinase homodimérique VEGFR-2/R-2. La synthèse du PAF requiert l’activation de la p38 MAPK et p42/44 MAPK qui activent la phospholipase A2 secrétée de type V (sPLA2-V). Nous avons découvert que la synthèse aigue de prostacycline (PGI2) induite par le VEGF-A165 requiert l’activation des récepteurs hétérodimériques VEGFR-1/R-2. L’activation sélective des récepteurs du VEGF peut donc agir comme balance dans la synthèse de facteurs pro-(PAF) et anti-(PGI2) inflammatoire. Cependant, les tyrosines impliquées dans la transphosphorylation de VEGFR-2/R-2 menant à la synthèse du PAF sont inconnues. Par mutagenèse dirigée, nous avons effectué des transfections transitoires de cellules endothéliales avec des plasmides codant pour le VEGFR-2 dont les tyrosines ciblées ont été remplacées de façon séquentielle par une phénylalanine. Un vecteur vide pcDNA a été utilisé comme contrôle négatif. La stimulation des cellules endothéliales de l’aorte bovine (BAEC) transfectées avec le VEGF-A165 (1nM) pendant 15 minutes augmente la synthèse du PAF de 300%, laquelle était similaire dans les BAEC non transfectées. Dans les BAEC transfectées avec les vecteurs pcDNA codant pour les mutations Y801F, Y1059F, Y1175F et Y1214F, nous avons observé une réduction de 54, 73, 68, et 57% respectivement de la synthèse du PAF induite par le VEGF par rapport au pcDNA témoin. Nos résultats apportent un nouvel aperçu sur le mécanisme par lequel le VEGF induit la synthèse du PAF qui est connu pour sa contribution dans l’activité pro-inflammatoire du VEGF.
Resumo:
Contexte et objectif. L’évasion fiscale a généré des pertes annuelles variant entre 2 et 44 milliards au Canada entre 1976 et 1995. Avec la croissance de l’évasion fiscale dans les années 1980 et 1990 plusieurs législations se sont attaquées à ce phénomène en mettant en place des mesures telles que les amnisties, les réformes fiscales et les nouvelles lois. Ces dernières reposent non seulement sur des principes théoriques distincts, mais leur efficacité même est remise en question. Bien que plusieurs auteurs affirment que les criminels en col blanc sont réceptifs aux sanctions pénales, une telle affirmation repose sur peu de preuves empiriques. L’objectif de ce mémoire est donc de réaliser une synthèse systématique des études évaluatives afin de faire un bilan des lois fiscales et d’évaluer leurs effets sur la fraude fiscale. Méthodologie. La synthèse systématique est la méthodologie considérée comme la plus rigoureuse pour se prononcer sur l’effet produit par une population relativement homogène d’études. Ainsi, 18 bases de données ont été consultées et huit études ont été retenues sur les 23 723 références. Ces huit études contiennent neuf évaluations qui ont estimé les retombés des lois sur 17 indicateurs de fraude fiscale. L’ensemble des études ont été codifiées en fonction du type de loi et leur rigueur méthodologique. La méthode du vote-count fut employée pour se prononcer sur l’efficacité des lois. Résultats. Sur les 17 indicateurs, sept indiquent que les lois n’ont eu aucun effet sur l’évasion fiscale tandis que six témoignent d’effets pervers. Seulement quatre résultats sont favorables aux lois, ce qui laisse présager que ces dernières sont peu efficaces. Toutefois, en scindant les résultats en fonction du type de loi, les réformes fiscales apparaissent comme une mesure efficace contrairement aux lois et amnisties. Conclusion. Les résultats démontrent que les mesures basées sur le modèle économique de Becker et qui rendent le système plus équitable sont prometteuses. Les amnisties qui visent à aller chercher des fraudeurs en leur offrant des avantages économiques et en suspendant les peines sont non seulement inefficaces, mais menaceraient le principe d’autocotisation basé sur l’équité.
Resumo:
Suite à un infarctus du myocarde, la formation d’une cicatrice, nommée fibrose de réparation, représente un processus adaptatif et essentiel empêchant la rupture du myocarde. La cicatrice est constituée de myofibroblastes, de cellules vasculaires, de fibres sympathiques ainsi que de cellules souches neuronales cardiaques exprimant la nestine. Une perturbation au niveau de ces constituants cellulaires résulte en une formation maladaptative de la cicatrice et éventuellement, une diminution de la fonction cardiaque. La compréhension des événements cellulaires ainsi que les mécanismes sous-jacents participant à cette fibrose est alors d’une importance primordiale. Cette thèse est axée sur l’identification du rôle du système sympathique et des cellules souches neuronales cardiaques exprimant la nestine dans la formation de la cicatrice ainsi que leur interaction potentielle. Nos travaux examinent l’hypothèse que les cellules souches neuronales exprimant la nestine sont endogènes au cœur et que suite à un dommage ischémique, elles contribuent à la réponse angiogénique et à la réinnervation sympathique du tissu lésé. Les cellules souches neuronales exprimant la nestine sont retrouvées dans les cœurs de différentes espèces incluant le cœur infarci humain. Elles sont résidentes dans le cœur, proviennent de la crête neurale lors du développement et sont intercalées entre les cardiomyocytes n’exprimant pas la nestine. Suite à leur isolation de cœurs infarcis de rats, les cellules souches neuronales cardiaques prolifèrent sous forme de neurosphères et, dans des conditions appropriées in vitro, se différencient en neurones exprimant le neurofilament-M. Suite à un infarctus du myocarde, les niveaux de l’ARNm de nestine sont significativement augmentés au niveau de la région infarcie et non-infarcie. Nos résultats suggèrent que cette augmentation de l’expression de nestine dans la cicatrice reflète en partie la migration des cellules souches neuronales cardiaques exprimant la nestine de la région non-infarcie vers la région infarcie. Lors de la fibrose de réparation, ces cellules représentent un substrat cellulaire pour la formation de nouveaux vaisseaux et contribuent aussi à la croissance des fibres sympathiques dans la région infarcie. Finalement, nous démontrons que la formation de la cicatrice est associée à une innervation sympathique de la région infarcie et péri-infarcie. De plus, les fibres sympathiques présentes dans la région infarcie sont observées à proximité de vaisseaux de petits calibres. Ces données suggèrent indirectement que l’innervation de la cicatrice par les fibres sympathiques peut jouer un rôle dans la réponse angiogénique suite à un infarctus du myocarde. Suite à l’administration du corticostéroïde dexaméthasone, nous détectons un amincissement de la cicatrice, associé à une réduction significative des fibres sympathiques exprimant le neurofilament-M dans la région infarcie et péri-infarcie. La diminution de la densité de ces fibres par le dexaméthasone peut être reliée à une diminution de la prolifération des myofibroblastes et de la production de l’ARNm du facteur neurotrophique nerve growth factor.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Les Tableaux de Bord de la Performance ont été acclamés avec raison depuis leur introduction en 1992, mais les intellectuels continuent encore à étudier leurs aspects pragmatiques. Ce papier contribue à la littérature sur les Tableaux de Bord de la Performance, tout d’abord, en offrant une explication logique quant à leur succès et ensuite, en présentant un cadre de travail contextuel de tableaux de bord de la performance pour une structure de gestion hiérarchisée. Le cadre de travail contextuel réforme la perspective d’apprentissage et de croissance du tableau de bord de la performance (i) en effectuant la transition de référence (subjective/objective), et (ii) en reconnaissant que la Perspective d’Apprentissage et de Croissance implique avant tout une incidence de formulation stratégique d’une extra-entité. Le transfert de l’incidence (intra-entité/extra-entité) réconcilie l’évolution de la position de politique de gestion non ordonnée [Contenu: (Contenu: Contexte): Contexte] qu’est la Perspective d’Apprentissage et de Croissance Concomitante. Le cadre de travail supplante également les Perspectives des Tableaux de Bord de la Performances développés par Kaplan et Norton en ajoutant la perspective de politique sociale qui manquait. La perspective manquante implique une transition de référence objective [(position endogène, perspective exogène): (position exogène, perspective exogène)]. De tels signaux de transition [Contenu: (Contenu: Contexte): Contexte] ordonnent l’évolution de la position de politique de gestion.
Resumo:
Les changements climatiques amènent des transformations profondes de l’environnement arctique. La diminution de l’étendue de la couverture de glace permet un accès facilité aux ressources naturelles et aux communautés nordiques. Au Canada, la région arctique est caractérisée par une géographie archipélagique et un réseau de transport rudimentaire. Le transport maritime est le mode privilégié pour l’acheminement du fret aux communautés et aux sites industriels de l’Arctique. La littérature scientifique présente des lacunes importantes au sujet de la navigation commerciale dans l’Arctique canadien. Peu d’études portent sur le trafic de ravitaillement en raison de son volume peu élevé et de la faible diversité des types de produits transportés, bien qu’il s’agisse d’une activité grandement significative pour les populations et l’économie du Nord. Cette recherche vise à combler cette lacune en dressant un portrait du transport maritime et de la performance des opérations portuaires dans l’Arctique canadien. L’étude est structurée en quatre parties. Une analyse du trafic et des échanges maritimes est d’abord réalisée sous trois échelles : internationale, nationale et intra-arctique. Ensuite, l’étude de la flotte et des routes fait ressortir la distribution géographique des transporteurs. Puis, la performance des ports est mesurée grâce à des indicateurs et un système de cotation. Finalement, une évaluation des opérations maritimes arctiques est menée par l’entremise d’informations récoltées lors d’entrevues avec les membres de l’industrie maritime, de conférences et de travail de terrain. Les sujets abordés concernent l’évolution de la desserte, les défis posés par la navigation en milieu arctique et le développement des ports du Nord canadien. Les résultats de l’étude mènent à la conclusion que le transport maritime dans l’Arctique est caractérisé par une croissance positive du volume acheminé et une implication profonde des transporteurs dédiés à la desserte nordique, mais des infrastructures portuaires et maritimes sous-développées.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La présence d’un récepteur de type RXR a récemment été rapporté chez la pensée de mer, Renilla koellikeri, de même que chez d’autres anthozoaires, et le NO semble jouer des différents rôles physiologiques, chez plusieurs cnidaires. L’acide rétinoïque (AR) et le monoxyde d’azote (NO) sont connus pour leur implication dans l’induction de la croissance des neurites chez les vertébrés ainsi que chez les invertébrés. Mais jusqu’à présent, aucun rôle de ces agents n’a encore été identifié chez ce phylum ancien des invertébrés. Dans le but de montrer que ces agents morphogénétiques ont un rôle dans le développement neuronal chez ces ancêtres des métazoaires bilatéraux, nous avons utilisé des cultures primaires de cellules du cnidaire anthozoaire Renilla koellikeri (pensée de mer), doté d’un système nerveux des plus primitif. Nous avons trouvé que les deux types d’acide rétinoïque, 9-cis et 11-trans, induisent une prolifération cellulaire dose-dépendante en fonction du temps dans les boîtes de pétri enduites de polylysine. Les cultures cellulaires exposées à l’acide rétinoïque dans les boîtes sans polylysine montrent une différenciation en des cellules épithéliales. D’autre part, le NO induit exclusivement une différenciation neuronale dans les boîtes enduites de polylysine. Aucun autre type de cellules subit un différenciation en présence de NO et la densité des cellules dédifférenciées a diminué. Les prolongements des neurones différenciés semblent s’enchevêtrer et former un réseau neuronal assez dense. L’ensemble de ces observations suggère que l’acide rétinoïque, contrairement à NO, est associé à l’activité mitotique, et que l’acide rétinoïque et le NO sont impliqués différemment dans la spécification cellulaire, respectivement épithéliale et neuronale, chez la pensée de mer. Le type d’action déclenchée, qu’il soit la mitogénèse ou la différenciation (épithéliale ou neuronale), varie alors selon l’état d’adhésion des cellules au substrat. Comme les données moléculaires et paléontologiques rapprochent les cnidaires, telle la pensée de mer, des ancêtres des eumétazoaires, nos résultats suggèrent que le rôle morphogénétique de l’acide rétinoïque et du NO est enraciné dans l’ancêtre commun de tous les métazoaires.
Resumo:
La réduction importante de l'aide internationale au développement et le processus de mondialisation ont fait en sorte que les investissements étrangers directs (IBD) sont considérés de nos jours comme une source importante de capital et de croissance économique dans un pays d'accueil comme la Serbie. Les IBD sont réputés stimuler la concurrence, l'innovation, l'épargne, la création d'emplois et le développement des ressources humaines dans les pays les plus pauvres et ceux en transition. Les institutions internationales encouragent la promotion des IBD dans tels pays et incitent leurs gouvernements à œuvrer à leur promotion active en tant que localité attrayante pour les obtenir. Il existe aussi un consensus selon lequel les investisseurs étrangers sont attirés par les pays dont le système juridique est stable et prévisible et qui réglemente l'économie selon le modèle d'une économie de marché. Si les réformes juridiques sont incontestablement importantes pour attirer les IBD, notre étude cherche à vérifier quel est le véritable impact du droit interne et des institutions étatiques du pays d'accueil sur l'établissement des entreprises étrangères et sur l'exercice de leur activité économique dans ce pays. Il s'agit de voir de quelle manière la présence des investisseurs étrangers contribue à la consolidation de l'État de droit dans le pays d'accueil. Pour analyser ces questions de plus près, nous avons choisi l'étude de cas de la Serbie, dont le système juridique est en chantier depuis le changement de régime en 2000. Notre hypothèse de travail a supposé que l'instauration de l'État de droit était importante pour l'implantation des investisseurs étrangers dans le pays, car les institutions étatiques et juridiques pourraient offrir des garanties pour le bon déroulement de l'activité économique étrangère. Après avoir étudié le cas de la Serbie, il y a lieu de conclure que la réforme du cadre juridique interne joue un rôle important, mais toutefois non déterminant dans le choix de la localisation d'un investissement étranger. Notre étude montre que la motivation en matière d'investissement ne tient généralement pas compte de la normativité juridique comme facteur à considérer, c'est-à-dire parmi les facteurs définis par la théorie du OLI Paradigm de John Dunning. Toutefois, ce facteur joue un rôle politique par le fait qu'il est véhiculé dans le droit international et dans le discours des organisations internationales. Les investisseurs demeurent également attentifs à la législation pouvant influencer leur propre activité économique. Nos entretiens ont révélé l'existence d'une véritable volonté de la part des investisseurs de favoriser les réformes juridiques du pays d'accueil. Leur perception du cadre juridique favorable au plan économique peut éventuellement jouer un certain rôle dans la transformation de l'État de droit et des institutions juridiques du pays d'accueil. Mais les entrepreneurs n'attendent pas un cadre juridique reformé dans le pays d'accueil pour décider d'y investir. En résumé, l'amélioration des institutions de l'État de droit concerne au premier chef des services sociaux de qualité et des meilleures conditions économiques pour ses citoyens. La promotion des IBD dans le pays ne constitue pas un objectif en soi mais s'inscrit dans la politique d'un État de droit en tant qu'outil indispensable de réformes et constitue un facteur favorable au développement économique.
Resumo:
La réparation par excision de nucléotides (NER) est une voie critique chez l'homme pour enlever des lésions qui déforment l’hélice d'ADN et qui bloquent à la fois la réplication et la transcription. Parmi ces lésions, il y a les dimères cyclobutyliques de pyrimidines (CPDs) et les adduits pyrimidine (6-4) pyrimidone (6-4PPs) induient par les rayons ultraviolets. L'importance physiologique de la NER est mise en évidence par l’existence de la maladie Xeroderma pigmentosum (XP), causée par des mutations affectant des gènes impliqués dans cette voie de réparation. Les personnes atteintes sont caractérisées par une photosensibilité extrême et une forte prédisposition à développer des tumeurs cutanées (plus de 1000 fois). Les patients atteints du type variant de la maladie Xeroderma pigmentosum (XPV), apparemment compétents en réparation, portent plutôt des mutations dans le gène codant pour l'ADN polymérase η (polη). Polη est une ADN polymérase translésionnelle capable de contourner avec une grande fidélité certaines lésions telles que les CPDs, qui autrement bloquent les polymérases réplicatives. Ainsi, la polη prévient la formation de mutations et permet la reprise de la synthèse d'ADN. L'objectif principal de cette thèse est d'évaluer le rôle potentiel de voies de signalisation majeures dans la régulation de la NER, dont celles régulées par la kinase ATR (Ataxia Télangiectasia and Rad3-related kinase). Suite à l'irradiation UV, ATR est rapidement activée et phosphoryle des centaines de protéines qui régulent les points de contrôle du cycle cellulaire et joue un rôle notoire dans le maintient de la stabilité génomique. Nous avons postulé qu’ATR puisse réguler la NER de manière dépendante du cycle cellulaire. Cependant, tester cette hypothèse représente un grand défi car, pour des raisons techniques, les méthodes conventionnelles n’ont pas à ce jour été adaptées pour l'évaluation de la cinétique de réparation au cours des différentes phases du cycle cellulaire. Nous avons donc développé une méthode novatrice basée sur la cytométrie en flux permettant de quantifier avec grande précision la cinétique de réparation des 6-4PPs et CPDs dans chacune des phases G0/G1, S et G2/M. Avec cette nouvelle méthode, nous avons pu démontrer que l'inhibition d'ATR ou polη résulte en une très forte inhibition de la NER exclusivement durant la phase S du cycle cellulaire. Ces études ont révélé, pour la première fois, une fonction critique pour ces protéines dans le retrait des lésions qui bloquent la réplication. En outre, nous avons démontré que la synthèse d'ADN est indispensable pour l’inhibition de la réparation en phase-S, reflétant un lien potentiel entre la NER et la réplication. Curieusement, nous avons également montré que parmi six lignées cellulaires tumorales choisies aléatoirement, trois présentent une abrogation totale de la NER uniquement pendant la phase S, ce qui indique que de nombreux cancers humains pourraient être caractérisés par un tel défaut. Nos observations pourraient avoir d'importantes implications pour le traitement du cancer. En effet, le statut de la NER semble constituer un déterminant majeur dans la réponse clinique aux médicaments chimiothérapeutiques tels que le cisplatine, qui inhibent la croissance des cellules cancéreuses via l'induction de lésions à l’ADN.
Resumo:
Ce mémoire analyse la stratégie d’affirmation de puissance mise en oeuvre par la Chine dans le contexte post-Guerre froide, caractérisé par la seule superpuissance des États-Unis, en utilisant le cadre théorique du réalisme offensif. Challenger désigné des États-Unis, la Chine a basculé dans le 21ème siècle avec un défi important à relever. La prépondérance américaine continue d’être une donnée essentielle dans le système politique mondial. Les États-Unis produisent plus du quart du total de l’économie mondiale et comptent pour près de la moitié des dépenses militaires. La Chine, de son côté, avec ses 1.3 milliards d’habitants, une croissance économique quasiexponentielle, dotée d’un arsenal nucléaire conventionnel, est la principale puissance émergente, avec le potentiel de rivaliser avec les États-Unis dans les affaires mondiales. Mais, vu l’énorme écart qui les sépare, pour la Chine la question de l’hégémonie américaine se pose sous la forme d’une équation dont la seule variable connue est le potentiel de l’adversaire à affronter. Le principal problème auquel la Chine est confrontée est dès lors sa capacité de penser une stratégie sans toutefois courir le risque de provoquer la seule superpuissance du globe. Par conséquent, cette étude analyse les politiques et actions stratégiques développées par la Chine à la lumière des contraintes que lui impose un environnement international peu favorable. Elle s’intéresse en particulier à la manière dont Beijing a su exploiter avec maestria une des armes les plus redoutables de l’ère post-Guerre froide, sa puissance économique, afin de consolider son ascension au rang de grande puissance. Elle soutient que, tenant compte d’un retard considérable à combler, la Chine a entrepris de balancer la superpuissance américaine d’une manière pragmatique. A cet effet, elle a conçu une stratégie qui comprend deux grands piliers : sur le plan interne, des réformes économiques et militaires ; sur le plan externe, une diplomatie agressive et efficace en adéquation avec ses ambitions de puissance. Nous concluons qu’une telle stratégie vise à éviter à la Chine pour le moment tout risque de confrontation directe qui aurait pour principal effet de nuire à son ascension. Cependant, à mesure que sa puissance s’accroît, elle pourrait afficher une posture plus agressive, quitte à engager également, avec la seule superpuissance du monde, des compétitions de nature sécuritaire en Asie et au-delà de cette région.