475 resultados para Cône de croissance
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Les Tableaux de Bord de la Performance ont été acclamés avec raison depuis leur introduction en 1992, mais les intellectuels continuent encore à étudier leurs aspects pragmatiques. Ce papier contribue à la littérature sur les Tableaux de Bord de la Performance, tout d’abord, en offrant une explication logique quant à leur succès et ensuite, en présentant un cadre de travail contextuel de tableaux de bord de la performance pour une structure de gestion hiérarchisée. Le cadre de travail contextuel réforme la perspective d’apprentissage et de croissance du tableau de bord de la performance (i) en effectuant la transition de référence (subjective/objective), et (ii) en reconnaissant que la Perspective d’Apprentissage et de Croissance implique avant tout une incidence de formulation stratégique d’une extra-entité. Le transfert de l’incidence (intra-entité/extra-entité) réconcilie l’évolution de la position de politique de gestion non ordonnée [Contenu: (Contenu: Contexte): Contexte] qu’est la Perspective d’Apprentissage et de Croissance Concomitante. Le cadre de travail supplante également les Perspectives des Tableaux de Bord de la Performances développés par Kaplan et Norton en ajoutant la perspective de politique sociale qui manquait. La perspective manquante implique une transition de référence objective [(position endogène, perspective exogène): (position exogène, perspective exogène)]. De tels signaux de transition [Contenu: (Contenu: Contexte): Contexte] ordonnent l’évolution de la position de politique de gestion.
Resumo:
Les changements climatiques amènent des transformations profondes de l’environnement arctique. La diminution de l’étendue de la couverture de glace permet un accès facilité aux ressources naturelles et aux communautés nordiques. Au Canada, la région arctique est caractérisée par une géographie archipélagique et un réseau de transport rudimentaire. Le transport maritime est le mode privilégié pour l’acheminement du fret aux communautés et aux sites industriels de l’Arctique. La littérature scientifique présente des lacunes importantes au sujet de la navigation commerciale dans l’Arctique canadien. Peu d’études portent sur le trafic de ravitaillement en raison de son volume peu élevé et de la faible diversité des types de produits transportés, bien qu’il s’agisse d’une activité grandement significative pour les populations et l’économie du Nord. Cette recherche vise à combler cette lacune en dressant un portrait du transport maritime et de la performance des opérations portuaires dans l’Arctique canadien. L’étude est structurée en quatre parties. Une analyse du trafic et des échanges maritimes est d’abord réalisée sous trois échelles : internationale, nationale et intra-arctique. Ensuite, l’étude de la flotte et des routes fait ressortir la distribution géographique des transporteurs. Puis, la performance des ports est mesurée grâce à des indicateurs et un système de cotation. Finalement, une évaluation des opérations maritimes arctiques est menée par l’entremise d’informations récoltées lors d’entrevues avec les membres de l’industrie maritime, de conférences et de travail de terrain. Les sujets abordés concernent l’évolution de la desserte, les défis posés par la navigation en milieu arctique et le développement des ports du Nord canadien. Les résultats de l’étude mènent à la conclusion que le transport maritime dans l’Arctique est caractérisé par une croissance positive du volume acheminé et une implication profonde des transporteurs dédiés à la desserte nordique, mais des infrastructures portuaires et maritimes sous-développées.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La présence d’un récepteur de type RXR a récemment été rapporté chez la pensée de mer, Renilla koellikeri, de même que chez d’autres anthozoaires, et le NO semble jouer des différents rôles physiologiques, chez plusieurs cnidaires. L’acide rétinoïque (AR) et le monoxyde d’azote (NO) sont connus pour leur implication dans l’induction de la croissance des neurites chez les vertébrés ainsi que chez les invertébrés. Mais jusqu’à présent, aucun rôle de ces agents n’a encore été identifié chez ce phylum ancien des invertébrés. Dans le but de montrer que ces agents morphogénétiques ont un rôle dans le développement neuronal chez ces ancêtres des métazoaires bilatéraux, nous avons utilisé des cultures primaires de cellules du cnidaire anthozoaire Renilla koellikeri (pensée de mer), doté d’un système nerveux des plus primitif. Nous avons trouvé que les deux types d’acide rétinoïque, 9-cis et 11-trans, induisent une prolifération cellulaire dose-dépendante en fonction du temps dans les boîtes de pétri enduites de polylysine. Les cultures cellulaires exposées à l’acide rétinoïque dans les boîtes sans polylysine montrent une différenciation en des cellules épithéliales. D’autre part, le NO induit exclusivement une différenciation neuronale dans les boîtes enduites de polylysine. Aucun autre type de cellules subit un différenciation en présence de NO et la densité des cellules dédifférenciées a diminué. Les prolongements des neurones différenciés semblent s’enchevêtrer et former un réseau neuronal assez dense. L’ensemble de ces observations suggère que l’acide rétinoïque, contrairement à NO, est associé à l’activité mitotique, et que l’acide rétinoïque et le NO sont impliqués différemment dans la spécification cellulaire, respectivement épithéliale et neuronale, chez la pensée de mer. Le type d’action déclenchée, qu’il soit la mitogénèse ou la différenciation (épithéliale ou neuronale), varie alors selon l’état d’adhésion des cellules au substrat. Comme les données moléculaires et paléontologiques rapprochent les cnidaires, telle la pensée de mer, des ancêtres des eumétazoaires, nos résultats suggèrent que le rôle morphogénétique de l’acide rétinoïque et du NO est enraciné dans l’ancêtre commun de tous les métazoaires.
Resumo:
La réduction importante de l'aide internationale au développement et le processus de mondialisation ont fait en sorte que les investissements étrangers directs (IBD) sont considérés de nos jours comme une source importante de capital et de croissance économique dans un pays d'accueil comme la Serbie. Les IBD sont réputés stimuler la concurrence, l'innovation, l'épargne, la création d'emplois et le développement des ressources humaines dans les pays les plus pauvres et ceux en transition. Les institutions internationales encouragent la promotion des IBD dans tels pays et incitent leurs gouvernements à œuvrer à leur promotion active en tant que localité attrayante pour les obtenir. Il existe aussi un consensus selon lequel les investisseurs étrangers sont attirés par les pays dont le système juridique est stable et prévisible et qui réglemente l'économie selon le modèle d'une économie de marché. Si les réformes juridiques sont incontestablement importantes pour attirer les IBD, notre étude cherche à vérifier quel est le véritable impact du droit interne et des institutions étatiques du pays d'accueil sur l'établissement des entreprises étrangères et sur l'exercice de leur activité économique dans ce pays. Il s'agit de voir de quelle manière la présence des investisseurs étrangers contribue à la consolidation de l'État de droit dans le pays d'accueil. Pour analyser ces questions de plus près, nous avons choisi l'étude de cas de la Serbie, dont le système juridique est en chantier depuis le changement de régime en 2000. Notre hypothèse de travail a supposé que l'instauration de l'État de droit était importante pour l'implantation des investisseurs étrangers dans le pays, car les institutions étatiques et juridiques pourraient offrir des garanties pour le bon déroulement de l'activité économique étrangère. Après avoir étudié le cas de la Serbie, il y a lieu de conclure que la réforme du cadre juridique interne joue un rôle important, mais toutefois non déterminant dans le choix de la localisation d'un investissement étranger. Notre étude montre que la motivation en matière d'investissement ne tient généralement pas compte de la normativité juridique comme facteur à considérer, c'est-à-dire parmi les facteurs définis par la théorie du OLI Paradigm de John Dunning. Toutefois, ce facteur joue un rôle politique par le fait qu'il est véhiculé dans le droit international et dans le discours des organisations internationales. Les investisseurs demeurent également attentifs à la législation pouvant influencer leur propre activité économique. Nos entretiens ont révélé l'existence d'une véritable volonté de la part des investisseurs de favoriser les réformes juridiques du pays d'accueil. Leur perception du cadre juridique favorable au plan économique peut éventuellement jouer un certain rôle dans la transformation de l'État de droit et des institutions juridiques du pays d'accueil. Mais les entrepreneurs n'attendent pas un cadre juridique reformé dans le pays d'accueil pour décider d'y investir. En résumé, l'amélioration des institutions de l'État de droit concerne au premier chef des services sociaux de qualité et des meilleures conditions économiques pour ses citoyens. La promotion des IBD dans le pays ne constitue pas un objectif en soi mais s'inscrit dans la politique d'un État de droit en tant qu'outil indispensable de réformes et constitue un facteur favorable au développement économique.
Resumo:
La réparation par excision de nucléotides (NER) est une voie critique chez l'homme pour enlever des lésions qui déforment l’hélice d'ADN et qui bloquent à la fois la réplication et la transcription. Parmi ces lésions, il y a les dimères cyclobutyliques de pyrimidines (CPDs) et les adduits pyrimidine (6-4) pyrimidone (6-4PPs) induient par les rayons ultraviolets. L'importance physiologique de la NER est mise en évidence par l’existence de la maladie Xeroderma pigmentosum (XP), causée par des mutations affectant des gènes impliqués dans cette voie de réparation. Les personnes atteintes sont caractérisées par une photosensibilité extrême et une forte prédisposition à développer des tumeurs cutanées (plus de 1000 fois). Les patients atteints du type variant de la maladie Xeroderma pigmentosum (XPV), apparemment compétents en réparation, portent plutôt des mutations dans le gène codant pour l'ADN polymérase η (polη). Polη est une ADN polymérase translésionnelle capable de contourner avec une grande fidélité certaines lésions telles que les CPDs, qui autrement bloquent les polymérases réplicatives. Ainsi, la polη prévient la formation de mutations et permet la reprise de la synthèse d'ADN. L'objectif principal de cette thèse est d'évaluer le rôle potentiel de voies de signalisation majeures dans la régulation de la NER, dont celles régulées par la kinase ATR (Ataxia Télangiectasia and Rad3-related kinase). Suite à l'irradiation UV, ATR est rapidement activée et phosphoryle des centaines de protéines qui régulent les points de contrôle du cycle cellulaire et joue un rôle notoire dans le maintient de la stabilité génomique. Nous avons postulé qu’ATR puisse réguler la NER de manière dépendante du cycle cellulaire. Cependant, tester cette hypothèse représente un grand défi car, pour des raisons techniques, les méthodes conventionnelles n’ont pas à ce jour été adaptées pour l'évaluation de la cinétique de réparation au cours des différentes phases du cycle cellulaire. Nous avons donc développé une méthode novatrice basée sur la cytométrie en flux permettant de quantifier avec grande précision la cinétique de réparation des 6-4PPs et CPDs dans chacune des phases G0/G1, S et G2/M. Avec cette nouvelle méthode, nous avons pu démontrer que l'inhibition d'ATR ou polη résulte en une très forte inhibition de la NER exclusivement durant la phase S du cycle cellulaire. Ces études ont révélé, pour la première fois, une fonction critique pour ces protéines dans le retrait des lésions qui bloquent la réplication. En outre, nous avons démontré que la synthèse d'ADN est indispensable pour l’inhibition de la réparation en phase-S, reflétant un lien potentiel entre la NER et la réplication. Curieusement, nous avons également montré que parmi six lignées cellulaires tumorales choisies aléatoirement, trois présentent une abrogation totale de la NER uniquement pendant la phase S, ce qui indique que de nombreux cancers humains pourraient être caractérisés par un tel défaut. Nos observations pourraient avoir d'importantes implications pour le traitement du cancer. En effet, le statut de la NER semble constituer un déterminant majeur dans la réponse clinique aux médicaments chimiothérapeutiques tels que le cisplatine, qui inhibent la croissance des cellules cancéreuses via l'induction de lésions à l’ADN.
Resumo:
Ce mémoire analyse la stratégie d’affirmation de puissance mise en oeuvre par la Chine dans le contexte post-Guerre froide, caractérisé par la seule superpuissance des États-Unis, en utilisant le cadre théorique du réalisme offensif. Challenger désigné des États-Unis, la Chine a basculé dans le 21ème siècle avec un défi important à relever. La prépondérance américaine continue d’être une donnée essentielle dans le système politique mondial. Les États-Unis produisent plus du quart du total de l’économie mondiale et comptent pour près de la moitié des dépenses militaires. La Chine, de son côté, avec ses 1.3 milliards d’habitants, une croissance économique quasiexponentielle, dotée d’un arsenal nucléaire conventionnel, est la principale puissance émergente, avec le potentiel de rivaliser avec les États-Unis dans les affaires mondiales. Mais, vu l’énorme écart qui les sépare, pour la Chine la question de l’hégémonie américaine se pose sous la forme d’une équation dont la seule variable connue est le potentiel de l’adversaire à affronter. Le principal problème auquel la Chine est confrontée est dès lors sa capacité de penser une stratégie sans toutefois courir le risque de provoquer la seule superpuissance du globe. Par conséquent, cette étude analyse les politiques et actions stratégiques développées par la Chine à la lumière des contraintes que lui impose un environnement international peu favorable. Elle s’intéresse en particulier à la manière dont Beijing a su exploiter avec maestria une des armes les plus redoutables de l’ère post-Guerre froide, sa puissance économique, afin de consolider son ascension au rang de grande puissance. Elle soutient que, tenant compte d’un retard considérable à combler, la Chine a entrepris de balancer la superpuissance américaine d’une manière pragmatique. A cet effet, elle a conçu une stratégie qui comprend deux grands piliers : sur le plan interne, des réformes économiques et militaires ; sur le plan externe, une diplomatie agressive et efficace en adéquation avec ses ambitions de puissance. Nous concluons qu’une telle stratégie vise à éviter à la Chine pour le moment tout risque de confrontation directe qui aurait pour principal effet de nuire à son ascension. Cependant, à mesure que sa puissance s’accroît, elle pourrait afficher une posture plus agressive, quitte à engager également, avec la seule superpuissance du monde, des compétitions de nature sécuritaire en Asie et au-delà de cette région.
Resumo:
Les interneurones GABAergiques constituent une population mineure de cellules par rapport aux neurones glutamatergiques dans le néocortex. Cependant ils contrôlent fortement l'excitabilité neuronale, la dynamique des réseaux neuronaux et la plasticité synaptique. L'importance des circuits GABAergiques dans le processus fonctionnel et la plasticité des réseaux corticaux est soulignée par des résultats récents qui montrent que des modifications très précises et fiables des circuits GABAergiques sont associées à divers troubles du développement neurologique et à des défauts dans les fonctions cérébrales. De ce fait, la compréhension des mécanismes cellulaires et moléculaires impliquant le développement des circuits GABAergiques est la première étape vers une meilleure compréhension de la façon dont les anomalies de ces processus peuvent se produire. La molécule d’adhésion cellulaire neurale (NCAM) appartient à la super-famille des immunoglobulines de reconnaissance cellulaire et est impliquée dans des interactions homophiliques et hétérophiliques avec d’autres molécules. Même si plusieurs rôles de NCAM ont été démontrés dans la croissance neuronale, la fasciculation axonale, la formation et la maturation de synapses, de même que dans la plasticité cellulaire de plusieurs systèmes, le rôle de NCAM dans la formation des synapses GABAergiques reste inconnu. Ce projet visait donc à déterminer le rôle précis de NCAM dans le processus de maturation des synapses GABAergiques dans le néocortex, en modulant son expression à différentes étapes du développement. L’approche choisie a été de supprimer NCAM dans des cellules GABAergiques à paniers avant la maturation des synapses (EP12-18), pendant la maturation (EP16-24), ou durant le maintien de celles-ci (EP24-32). Les méthodes utilisées ont été le clonage moléculaire, l’imagerie confocale, la culture de coupes organotypiques et des techniques morphométriques de quantification de l’innervation GABAergique. Nos résultats montrent que l’inactivation de NCAM durant la phase de maturation des synapses périsomatiques (EP16-24) cause une réduction du nombre de synapses GABAergiques périsomatiques et du branchement de ces axones. En revanche, durant la phase de maintien (EP26-32), l’inactivation de NCAM n’a pas affecté ces paramètres des synapses GABAergiques. Or, il existe trois isoformes de NCAM (NCAM120, 140 et 180) qui pourraient jouer des rôles différents dans les divers types cellulaires ou à des stades développementaux différents. Nos données montrent que NCAM120 et 140 sont nécessaires à la maturation des synapses périsomatiques GABAergiques. Cependant, NCAM180, qui est l’isoforme la plus étudiée et caractérisée, ne semble pas être impliquée dans ce processus. De plus, l’inactivation de NCAM n’a pas affecté la densité des épines dendritiques ou leur longueur. Elle est donc spécifique aux synapses périsomatiques GABAeriques. Finalement, nos résultats suggèrent que le domaine conservé C-terminal KENESKA est essentiel à la maturation des synapses périsomatiques GABAergiques. Des expériences futures nous aiderons à mieux comprendre la mécanistique et les différentes voies de signalisation impliquées.
Resumo:
Cette thèse rapporte le greffage chimique de brosses de polymères neutres de poly(acrylate de tert-butyle) (PtBA) et de brosses chargées d’acide polyacrylique (PAA) sur des substrats de mica afin d’étudier leur conformation en fonction de la densité de greffage, du pH et de la force ionique. Le greffage est réalisé par polymérisation contrôlée par transfert d’atome (ATRP) initiée depuis la surface de mica afin de contrôler la croissance du polymère et sa densité de greffage. L’étude de la conformation des brosses de PtBA et de PAA a été menée avec la technique AFM en mesurant les épaisseurs des films à sec et gonflés sous différentes conditions de solvant, de pH et de force ionique. Une monocouche d’amorceurs est tout d’abord greffée sur du mica porteur de groupes hydroxyles créés par plasma (Ar/H2O). Cette couche a été caractérisée par des mesures d’angle de contact et par la technique TOF-SIMS. L’amorceur greffé a ensuite permis d’initier l’ATRP directement depuis la surface pour former des brosses neutres de PtBA liés de façon covalente au mica. La croissance linéaire de l’épaisseur du film avec la masse molaire du polymère en solution et le taux de conversion montre que la polymérisation est contrôlée. De plus, la ré-initiation des chaînes greffées atteste du caractère vivant de la polymérisation. L’hydrolyse des brosses de PtBA, confirmée par des mesures d’angle de contact, d’épaisseur et par FT-IR, conduit à des brosses de PAA. Les différentes couches greffées sont stables à l’air, en milieu organique et en milieu aqueux et leur gonflement est réversible. Le degreffage de la couche de PAA est observé suite à une longue exposition à pH basique. Cette étude représente le premier exemple de brosses greffées chimiquement sur du mica par polymérisation initiée depuis la surface. La variation des paramètres de la réaction de greffage de l’amorceur, tels que la concentration et la durée de réaction, a permis de contrôler le taux de recouvrement de l’amorceur et la densité de greffage du polymère. Une grande gamme de taux de recouvrement de l’amorceur est accessible et se traduit par un intervalle de densités de greffage allant de faibles à élevées (e.g. 0,04 chaîne/nm2 à 0,5 chaîne/nm2). L’étude de la conformation des chaînes de PtBA dans le DMF montre que cet intervalle de densités recouvre le régime crêpe au régime brosse. Le gonflement de brosses de PAA et la variation de la hauteur de la brosse L ont été étudiés en fonction de la densité de greffage, du pH et du sel ajouté cs (NaCl). Une transition brusque de collapsée à étirée est observée avec l’augmentation du pH, indépendamment de la densité de greffage. A pH neutre, les brosses sont collapsées et se comportent comme des brosses neutres en mauvais solvant. A pH basique, les brosses sont gonflées et chargées et se trouvent dans un régime de Pincus caractéristique des polyélectrolytes forts. En présence de sel, les charges sont partiellement écrantées et les répulsions électrostatiques dominent toujours dans la brosse. Cette étude contribue à une meilleure compréhension du comportement complexe des brosses de polyélectrolytes faibles et apporte un soutien expérimental à la théorie sur le comportement de ces brosses.
Resumo:
La dissémination métastatique est associée à de faibles chances de survie dans les cas de mélanomes humains, comme pour d’autres cancers. Le développement de métastases est un processus qui se fait en plusieurs étapes et nécessite la réorganisation du cytosquelette d’actine pour permettre la migration et l’invasion cellulaire. La protéine Nck2 est un adaptateur protéique principalement impliqué dans la réorganisation du cytosquelette. Une étude préliminaire réalisée dans notre laboratoire avait révélé que les niveaux de la protéine Nck2 et de son ARNm sont augmentés dans les lignées de mélanome métastatiques en comparaison aux lignées primaires. Le but de la présente recherche était donc d’étudier le rôle de l’adaptateur Nck2 dans la progression métastatique. Les résultats obtenus confirment que l’expression de Nck2 augmente de façon marquée au cours de la progression métastatique du mélanome humain. Cette étude révèle en plus que l’expression de hauts niveaux de Nck2 dans les cellules de mélanome primaire stimule la prolifération cellulaire et la migration, n’affecte pas l’invasion d’une matrice de collagène de type I, mais semble affaiblir les contacts cellule-cellule et l’adhésion au substrat. Une étude préliminaire effectuée in vivo révèle que ces phénomènes se traduisent par une légère augmentation de la tumorigenèse et de la croissance tumorale. Dans l’ensemble, les résultats obtenus suggèrent que Nck2 pourrait effectivement jouer un rôle dans la progression métastatique du mélanome en favorisant la prolifération des cellules tumorales et en facilitant leur détachement de la tumeur primaire, les rendant plus aptes à se disperser dans l’organisme et à établir des colonies métastatiques. Au niveau moléculaire, nous proposons que Nck2 est recruté dans les invadopodes pour favoriser la formation de complexes protéiques qui stimulent l’invasion. La mobilisation de Nck2 dans ces structures membranaires diminuerait sa disponibilité pour l’établissent d’autres complexes protéiques, entre autres dans les complexes d’adhésion focaux (FAs) et dans les jonctions adhérentes, diminuant ainsi les contacts des cellules cancéreuses avec la matrice extracellulaire et les cellules avoisinantes.
Resumo:
Le commerce a connu à travers le temps de nombreuses évolutions, tant dans sa forme que dans son implantation, passant de grands magasins prestigieux dans le cœur des villes au début du XXe siècle à de grands centres commerciaux à la jonction d’autoroute dans les années 2000. Le lifestyle center est la forme commerciale la plus aboutie, concept américain existant depuis les années 80, il est apparu pour la première fois au Québec en 2006 à Brossard sur la Rive-Sud de Montréal. Ses caractéristiques hors du commun ; une surface de vente de près de 2 000 000 pi² faisant de lui un centre d’envergure supra régional, son agencement de boutiques en plein air regroupé autour d’une rue piétonne ainsi qu’un mix commercial extrêmement varié rompt avec les traditionnels centres commerciaux existants. Ainsi en s’implantant à Brossard le Quartier DIX30 est venu modifier profondément la structure commerciale de la Rive-Sud en s’imposant comme un contre poids de taille par rapport à la domination du pôle des Promenades Saint-Bruno. Cependant, le Quartier DIX30 ne va pas seulement modifier cette structure commerciale, mais plus globalement la centralité urbaine de la Rive-Sud en s’imposant comme un pôle central majeur. Le Quartier DIX30 grâce à sa mixité d’activité et son concept favorisant les interactions sociales est en train d’insuffler un mouvement de concentration d’activité commerciale et tertiaire. Ainsi aujourd’hui se développe au pourtour du Quartier DIX30 de nombreux locaux à bureaux. Cependant, cette nouvelle centralité créée par le Quartier DIX30 soulève des interrogations notamment vis-à-vis de la privatisation d’un espace s’imposant de plus en plus comme un des pôles principaux de croissance de la Rive-Sud. Ainsi, une question légitime se pose, ne sommes-nous pas en train d’assister à une privatisation d’un centre-ville en devenir ?
Resumo:
La prééclampsie est la première cause de mortalité et de morbidité périnatale et aucun traitement, mis à part l’accouchement, n’est connu à ce jour. Pour mieux comprendre cette maladie, nous avons utilisé trois modèles animaux. Dans un premier temps, nous avons voulu confirmer la présence de prééclampsie chez les souris déficientes en p57kip2, une protéine impliquée dans le cycle cellulaire des trophoblastes. Contrairement au groupe japonais, l’hypertension et la protéinurie au cours de la gestation ne survenaient pas, malgré une perte de structure des trophoblastes dans le labyrinthe ainsi qu’une microcalcification au niveau de leurs placentas. Nous avons alors observé que la diète japonaise induisait à elle seule une diminution de la croissance fœtale, ainsi qu’une dysfonction endothéliale chez ces souris. Nos résultats démontrent que ni les altérations placentaires, ni la génétique ne sont suffisantes pour induire les symptômes de la prééclampsie dans ce modèle, et que la diète peut avoir des effets délétères chez la souris gestante peu importe le génotype. Ensuite, nous avons démontré que les souris hypertendues surexprimant la rénine et l’angiotensinogène humaine développent de la protéinurie et une augmentation de la pression artérielle au cours de la gestation. Leurs placentas sont affectés par de la nécrose et une perte de structure des trophoblastes du labyrinthe en plus de surexprimer le gène du récepteur sFlt-1. Ces souris représentent le premier modèle animal de prééclampsie superposée à de l’hypertension chronique. Finalement, en utilisant des femelles normotendues surexprimant l’angiotensinogène humaine qui développent les symptômes de la prééclampsie lorsqu’elles sont accouplées à des mâles qui surexpriment la rénine humaine, nous avons établi que l’entraînement physique normalisait la hausse de pression ainsi que l’apparition de protéinurie en fin de gestation. Aussi, l'entraînement améliorait la croissance fœtale et placentaire ainsi que la réponse vasculaire indépendante de l’endothélium, et ce, indépendamment du génotype des souris. La présence d’une prolifération exagérée et désorganisée des trophoblastes dans ce modèle était aussi normalisée. L’entraînement physique prévient donc l’apparition des symptômes de la prééclampsie dans ce modèle. Mis ensemble, nos résultats aideront à mieux comprendre les mécanismes à l’origine de la prééclampsie et de sa prévention.
Resumo:
Cette recherche vise à décrire l’association entre certaines variables démographiques telles que l’âge de la mère, le sexe, le rang de naissance et le statut socio-économique – représenté par l’indice de Pampalon – et l’hypotrophie fœtale au Québec. L’échantillon est constitué de 127 216 naissances simples et non prématurées ayant eu lieu au Québec entre le 1er juillet 2000 et le 30 juin 2002. Des régressions logistiques portant sur le risque d’avoir souffert d’un retard de croissance intra-utérine ont été effectuées pour l’ensemble du Québec ainsi que pour la région socio-sanitaire (RSS) de Montréal. Les résultats révèlent que les enfants de premier rang et les enfants dont la mère était âgée de moins de 25 ans ou de 35 ans et plus lors de l’accouchement ont un risque plus élevé de souffrir d’hypotrophie fœtale et ce dans l’ensemble du Québec et dans la RSS de Montréal. De plus, les résultats démontrent que le risque augmente plus la mère est défavorisée. Puisque l’indice de Pampalon est un proxy écologique calculé pour chaque aire de diffusion, les intervenants en santé publique peuvent désormais cibler géographiquement les femmes les plus à risque et adapter leurs programmes de prévention en conséquence. Ainsi, le nombre de cas d’hypotrophie fœtale, voire même la mortalité infantile, pourraient être réduits.
Resumo:
Les MAP kinases sont des enzymes essentielles impliquées dans 7 voies de signalisation distinctes qui permettent à la cellule de répondre de manière adéquate aux stimuli extra-cellulaires. Chez les mammifères, les MAP kinases les mieux caractérisées sont Erk1/2, Jnk, p38 et Erk5. Ces enzymes jouent un rôle important dans l’embryogenèse, la prolifération et la différenciation cellulaire ainsi que dans la réponse au stress. Erk4 est un membre atypique de la famille MAP kinase. D’une part, la boucle d’activation de Erk4 possède un motif SEG au lieu du motif TXY, très conservé chez les MAP kinases. D’autre part, Erk4 possède une extension en C-terminal du domaine kinase qui n’est pas présente chez les MAP kinases classiques. Jusqu’à présent aucune fonction n’a été attribuée à Erk4. De plus, la voie de signalisation ainsi que le mode de régulation conduisant à l’activation de Erk4 ne sont pas connus. Le seul substrat de Erk4 identifié jusqu’à maintenant est la MAPKAP kinase MK5. L’impact fonctionnel de cette interaction n’est également pas connu. Afin d’en apprendre davantage sur la MAP kinase atypique Erk4, nous avons étudié le mécanisme d’activation de cette kinase ainsi que sa fonction physiologique par une approche de délétion génique chez la souris. En ce qui concerne l’activation de Erk4, nous avons montré que la boucle d’activation de Erk4 (S186EG) est constitutivement phosphorylée in vivo et que cette phosphorylation n’est pas modulée par les stimuli classiques des MAP kinases dont le sérum et le sorbitol. Cependant, nous avons observé que la phosphorylation de la S186 augmente en présence de MK5 et que cette augmentation est indépendante de l’activité kinase de l’une ou l’autre de ces kinases. De plus, nous avons établi que la phosphorylation de la boucle d’activation de Erk4 est requise pour l’interaction stable entre Erk4 et MK5 ainsi que pour l’activation, et la relocalisation cytoplasmique de MK5. Ainsi, notre étude a permis de révéler que Erk4 est régulée de manière différente des MAP kinases classiques et que la phosphorylation de la boucle d’activation de Erk4 joue un rôle essentiel dans la régulation de l’activité de MK5. Parallèlement, nos résultats mettent en évidence l’existence d’une “Erk4 kinase”, dont le recrutement et/ou l’activation semble être facilité par MK5. Afin identifier la fonction physiologique de Erk4, nous avons généré des souris Erk4-déficientes. L’inactivation génique de Erk4 est viable et les souris ne présentent aucune anomalie apparente. Dans le but d’expliquer l’absence de phénotype, nous avons regardé si l’expression de Erk3, le paralogue de Erk4, pouvait compenser la perte de Erk4. Notre analyse a révélé que l’expression de Erk3 dans les souris Erk4-/- n’augmente pas au cours du développement embryonnaire ou dans les tissus adultes afin de compenser pour la perte de Erk4. Par la suite, nous avons adressé la question de redondance entre Erk4 et Erk3. Dans notre laboratoire, les souris Erk3-déficientes ont également été générées et le phénotype de ces souris a récemment été analysé. Cette étude a révélé que l’inactivation génique de Erk3 entraîne un retard de croissance intra-utérin, un défaut de maturation pulmonaire et la mort néo-natale des souriceaux. Nous avons donc regardé la contribution de Erk4 dans ces phénotypes. L’analyse des souris Erk4-/- a révélé que l’inactivation de Erk4 n’entraîne pas de retard de croissance ou de maturation du poumon. De plus, nous avons montré que l’inactivation additionnelle de Erk4 dans les souris Erk3-/- n’accentue pas le phénotype des souris Erk3-déficientes. Ainsi, notre étude a révélé que contrairement à Erk3, Erk4 n’est pas essentielle au développement murin dans des conditions physiologiques. Parallèlement, nous avons montré que Erk4 et Erk3 possèdent des fonctions non-redondantes in vivo.