796 resultados para EXTRACARDIAC CONDUIT
Resumo:
L’effervescence religieuse et politique au Cameroun engendre progressivement la fragmentation ethnique du peuple chrétien camerounais. Face à la manipulation politique, l’autre nom de l’injustice ethnique, la plupart des Camerounais et Camerounaises y compris les chrétiens réagissent désormais par le tribalisme, l’autre nom de la résignation ou mieux du déchirement social. Les Camerounais et Camerounaises donnent l’impression d’avoir perdu l’esprit de résistance/dissidence qui leur a valu la liberté ou mieux l’indépendance. Comment ignorer que de s’accoutumer au drame de la dérive ethnique, en s’installant, pour des raisons de survie, dans l’éclatement le plus abject, c’est opter pour l’asservissement volontaire d’un peuple qui mène inexorablement au génocide collectif ? Notre recherche repose sur l’hypothèse que les conflits ethniques ont pénétré la sphère du christianisme et font désormais partie des dysfonctionnements de l’Église du Cameroun. Ces dysfonctionnements internes nuisent à la crédibilité de l’Église. Il y a un lien entre les défaillances observées dans l’Église et les défaillances de la société Camerounaise. De plus, le rapport de convergence entre les rivalités ethniques et la religion, provoque un questionnement théologique inévitable : comment amener les différentes ethnies qui forment la plupart des États africains à un harmonieux vivre - ensemble inspiré par le mode de vie et de fonctionnement des Églises chrétiennes, au Cameroun en l'occurrence ? Faut-il se limiter à l’adoption d’une nouvelle image de l’Église par exemple l’Église-famille-de-Dieu, ou bien faut-il prendre le taureau par les cornes et éduquer les peuples africains à une culture de la paix ? La démarche de cette thèse s’inspire de la méthode adoptée par la théologie pratique, c’est-à-dire la praxéologie1, en relation avec la théologie contextuelle2, au niveau du lien avec les méthodes d’analyses des sciences sociales et sciences humaines, et au niveau de sa dimension prophétique créatrice. Elle est construite autour de quatre coordonnées: observation (médiation sociale), interprétation (médiation herméneutique), intervention pastorale (médiation pratique) et prospective. 1 Cf. G. ROUTHIER, et M.VIAU, (dir.), Précis de théologie pratique, Montréal/Bruxelles, Novalis/Lumen Vitae, 2004, 819 p. 2 Cf. C. BOFF, Théorie et pratique . La méthode des théologies de la libération, Paris, Cerf, 1990, 400 p. ii La thèse comporte quatre parties. La première partie (chapitres 1, 2 et 3) consacrée à l’observation cerne la problématique du vivre ensemble multiethnique, pour permettre de mieux percevoir la manifestation du phénomène du tribalisme dans l’Église (les Églises) et la société camerounaise. Elle montre que des situations dramatiques, de malheurs, de pauvreté, de famine, de conflits et de guerres sont causées en partie par le tribalisme exclusif. La deuxième partie (chapitres 4 et 5) porte sur la question du sens. Elle analyse et met à l’épreuve la compréhension du phénomène du tribalisme et des conflits ethniques dans la société et dans les Églises du Cameroun. Sont ainsi abordés, successivement, les principales articulations du tribalisme, la stratégie mise sur pied (diviser pour mieux régner) pour la transformation des structures sociales au Cameroun pendant la colonisation, puis récupérée par les politiciens comme idéologie politique depuis les indépendances. Nous en sommes arrivés à constater que cette idéologie a conduit à une profonde déstructuration de la société camerounaise jusque dans l’Église (les Églises). La troisième partie (chapitres 6 et 7) est consacrée à la pratique ecclésiale du dialogue de la diversité ethnique africaine pour la paix ; nous y montrons comment les solidarités ethniques purifiées au feu de l’Évangile peuvent avoir une influence sur la pratique chrétienne. Nous cherchons ensuite à démontrer que le dialogue interethnique bien articulé est le chemin de la réconciliation. La quatrième partie (chapitre 8) est un effort pour passer de l’utopie mise en pratique à une pratique en forme d’utopie. Nous cherchons à montrer que le dialogue pastoral enrichi par la diversité ethnique et religieuse entraînera la transformation de l’Église locale dans son interaction avec les différentes ethnies du Cameroun et d’Afrique.
Resumo:
Cet ouvrage traite principalement de la synthèse de motifs polypropionates de type stéréopentade ainsi qu’une application à la synthèse d’une molécule naturelle possèdant des propriétés biologiques. La stratégie envisagée pour l’élaboration de ces motifs récurrents dans plusieurs structures d’origine naturelle fait appel à la chimie des radicaux. Cette thèse se divise en différents chapitres dans lesquels la versatilité de la méthodologie développée sera démontrée. En premier lieu, il sera question de présenter l’importance de la synthèse de motifs polypropionates. Le domaine couvert par la chimie de ces molécules complexes hautement fonctionnalisées a contribué énormément à l’avancement de nos connaissances en synthèse organique, particulièrement dans le contexte des réactions impliquant des molécules acyliques. Une brève description des méthodes connues est présentée afin de saisir l’étendue des défis restants pour construire efficacement tous les isomères possibles des polypropionates de type stéréopentade. La stratégie proposée est basée sur une approche contrôlée entièrement par le substrat. Ce contrôle s’appuie sur le choix judicieux de l’acide de Lewis activant les deux réactions impliquées, soit la réaction de Mukaiyama et le transfert d’hydrogène. La seconde section de cette thèse concerne principalement le développement d’une réaction de Mukaiyama impliquant un éther d’énol silylé portant un lien pouvant être homolytiquement brisé dans la réaction suivante et un aldéhyde de type propionate. Le contrôle de l’aldolisation provient de la nature de l’acide de Lewis. Une espèce monodentate (BF3·OEt2) génère une relation 3,4-syn selon le modèle dit Felkin-Anh tandis que les acides de Lewis bidentates mènent à la relation 3,4-anti via un état de transition définit comme Cram-chélate. Une optimisation des conditions réactionnelles en variant l’acidité et la stoechiométrie de l’acide de Lewis de titane a permis de construire diastéréosélectivement le produit de Mukaiyama ayant une relation 3,4-anti. En outre, la nature des complexes impliqués dans ces réactions a été élucidée par des études RMN 13C à basse température. Une fois les précurseurs radicalaires synthétisés, notre méthodologie de réduction par transfert d’hydrogène contrôlée également par les acides de Lewis s’avère très efficace. Les acides de Lewis dérivés d’aluminium mènent sélectivement à la relation 2,3-syn selon un contrôle endocyclique tandis que les acides de Lewis de bore permettent la création des relations 2,3-anti en se basant sur une stabilisation par les divers facteurs de contrôle de molécules acycliques. Cette stratégie novatrice nous a ainsi permis de construire efficacement les 16 diastéréoisomères possibles. Le chapitre suivant concerne l’application de cette méthodologie à la synthèse de l’hémisphère ouest de la salinomycine et de la narasine. Plusieurs défis synthétiques ont été relevés à cette occasion par la présence de nombreux centres stéréogènes contigus. Nous avons réalisé que la relation stéréochimique 2,3-anti de la salinomycine n’est pas accessible sélectivement par la chimie des radicaux via l’effet exocyclique. Des études ont été entreprises afin de comprendre cette perte de sélectivité. Les conclusions suggèrent que les substituants sur le cycle imposent un biais conformationnel conduisant à des faibles sélectivités. Une alternative utilisant un réactif de crotylsilane chiral a été développée pour arriver à la molécule cible. Cette situation est différente dans le cas de la narasine où la présence du méthyle sur le carbone en position β du radical bloque efficacement l’approche d’une des faces d’attaque par l’hydrure. Des sélectivités impressionnantes nous ont permis de construire le fragment C1-C9 de la narasine de manière expéditive et efficace. Finalement, l’élongation sélective utilisant à nouveau la séquence d’aldolisation de Mukaiyama/réduction radicalaire suivie d’un couplage de type aldol stéréosélectif conduit au fragment C1-C17 de la narasine (hémisphère ouest)en 19 étapes avec un rendement global de l’ordre de 7 %. En dernier lieu, nous nous sommes penchés sur la réactivité des α-bromo-β- alkoxycétones lors de transfert d’hydrogène. Nous avons découvert que la chimie de ces derniers pourrait s’avérer utile dans le contexte de la synthèse de motifs complexes polypropionates. La présence d’un centre stéréogène de l’autre coté de la cétone semble avoir un impact sur la sélectivité.
Resumo:
L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.
Resumo:
Le diabète est une maladie métabolique qui se caractérise par une résistance à l’insuline des tissus périphériques et par une incapacité des cellules β pancréatiques à sécréter les niveaux d’insuline appropriés afin de compenser pour cette résistance. Pour mieux comprendre les mécanismes déficients dans les cellules β des patients diabétiques, il est nécessaire de comprendre et de définir les mécanismes impliqués dans le contrôle de la sécrétion d’insuline en réponse au glucose. Dans les cellules β pancréatiques, le métabolisme du glucose conduit à la production de facteurs de couplage métabolique, comme l’ATP, nécessaires à la régulation de l’exocytose des vésicules d’insuline. Le mécanisme par lequel la production de l’ATP par le métabolisme oxydatif du glucose déclenche l’exocytose des vésicules d’insuline est bien décrit dans la littérature. Cependant, il ne peut à lui seul réguler adéquatement la sécrétion d’insuline. Le malonyl-CoA et le NADPH sont deux autres facteurs de couplage métaboliques qui ont été suggérés afin de relier le métabolisme du glucose à la régulation de la sécrétion d’insuline. Les mécanismes impliqués demeurent cependant à être caractérisés. Le but de la présente thèse était de déterminer l’implication des navettes du pyruvate, découlant du métabolisme mitochondrial du glucose, dans la régulation de la sécrétion d’insuline. Dans les cellules β, les navettes du pyruvate découlent de la combinaison des processus d’anaplérose et de cataplérose et permettent la transduction des signaux métaboliques provenant du métabolisme du glucose. Dans une première étude, nous nous sommes intéressés au rôle de la navette pyruvate/citrate dans la régulation de la sécrétion d’insuline en réponse au glucose, puisque cette navette conduit à la production dans le cytoplasme de deux facteurs de couplage métabolique, soit le malonyl-CoA et le NADPH. De plus, la navette pyruvate/citrate favorise le flux métabolique à travers la glycolyse en réoxydation le NADH. Une étude effectuée précédemment dans notre laboratoire avait suggéré la présence de cette navette dans les cellules β pancréatique. Afin de tester notre hypothèse, nous avons ciblé trois étapes de cette navette dans la lignée cellulaire β pancréatique INS 832/13, soit la sortie du citrate de la mitochondrie et l’activité de l’ATP-citrate lyase (ACL) et l’enzyme malique (MEc), deux enzymes clés de la navette pyruvate/citrate. L’inhibition de chacune de ces étapes par l’utilisation d’un inhibiteur pharmacologique ou de la technologie des ARN interférant a corrélé avec une réduction significative de la sécrétion d’insuline en réponse au glucose. Les résultats obtenus suggèrent que la navette pyruvate/citrate joue un rôle critique dans la régulation de la sécrétion d’insuline en réponse au glucose. Parallèlement à notre étude, deux autres groupes de recherche ont suggéré que les navettes pyruvate/malate et pyruvate/isocitrate/α-cétoglutarate étaient aussi importantes pour la sécrétion d’insuline en réponse au glucose. Ainsi, trois navettes découlant du métabolisme mitochondrial du glucose pourraient être impliquées dans le contrôle de la sécrétion d’insuline. Le point commun de ces trois navettes est la production dans le cytoplasme du NADPH, un facteur de couplage métabolique possiblement très important pour la sécrétion d’insuline. Dans les navettes pyruvate/malate et pyruvate/citrate, le NADPH est formé par MEc, alors que l’isocitrate déshydrogénase (IDHc) est responsable de la production du NADPH dans la navette pyruvate/isocitrate/α-cétoglutarate. Dans notre première étude, nous avions démontré l’importance de l’expression de ME pour la sécrétion adéquate d’insuline en réponse au glucose. Dans notre deuxième étude, nous avons testé l’implication de IDHc dans les mécanismes de régulation de la sécrétion d’insuline en réponse au glucose. La diminution de l’expression de IDHc dans les INS 832/13 a stimulé la sécrétion d’insuline en réponse au glucose par un mécanisme indépendant de la production de l’ATP par le métabolisme oxydatif du glucose. Ce résultat a ensuite été confirmé dans les cellules dispersées des îlots pancréatiques de rat. Nous avons aussi observé dans notre modèle que l’incorporation du glucose en acides gras était augmentée, suggérant que la diminution de l’activité de IDHc favorise la redirection du métabolisme de l’isocitrate à travers la navette pyruvate/citrate. Un mécanisme de compensation à travers la navette pyruvate/citrate pourrait ainsi expliquer la stimulation de la sécrétion d’insuline observée en réponse à la diminution de l’expression de IDHc. Les travaux effectués dans cette deuxième étude remettent en question l’implication de l’activité de IDHc, et de la navette pyruvate/isocitrate/α-cétoglutarate, dans la transduction des signaux métaboliques reliant le métabolisme du glucose à la sécrétion d’insuline. La navette pyruvate/citrate est la seule des navettes du pyruvate à conduire à la production du malonyl-CoA dans le cytoplasme des cellules β. Le malonyl-CoA régule le métabolisme des acides gras en inhibant la carnitine palmitoyl transférase 1, l’enzyme limitante dans l’oxydation des acides gras. Ainsi, l’élévation des niveaux de malonyl-CoA en réponse au glucose entraîne une redirection du métabolisme des acides gras vers les processus d’estérification puis de lipolyse. Plus précisément, les acides gras sont métabolisés à travers le cycle des triglycérides/acides gras libres (qui combinent les voies métaboliques d’estérification et de lipolyse), afin de produire des molécules lipidiques signalétiques nécessaires à la modulation de la sécrétion d’insuline. Des études effectuées précédemment dans notre laboratoire ont démontré que l’activité lipolytique de HSL (de l’anglais hormone-sensitive lipase) était importante, mais non suffisante, pour la régulation de la sécrétion d’insuline. Dans une étude complémentaire, nous nous sommes intéressés au rôle d’une autre lipase, soit ATGL (de l’anglais adipose triglyceride lipase), dans la régulation de la sécrétion d’insuline en réponse au glucose et aux acides gras. Nous avons démontré que ATGL est exprimé dans les cellules β pancréatiques et que son activité contribue significativement à la lipolyse. Une réduction de son expression dans les cellules INS 832/13 par RNA interférant ou son absence dans les îlots pancréatiques de souris déficientes en ATGL a conduit à une réduction de la sécrétion d’insuline en réponse au glucose en présence ou en absence d’acides gras. Ces résultats appuient l’hypothèse que la lipolyse est une composante importante de la régulation de la sécrétion d’insuline dans les cellules β pancréatiques. En conclusion, les résultats obtenus dans cette thèse suggèrent que la navette pyruvate/citrate est importante pour la régulation de la sécrétion d’insuline en réponse au glucose. Ce mécanisme impliquerait la production du NADPH et du malonyl-CoA dans le cytoplasme en fonction du métabolisme du glucose. Cependant, nos travaux remettent en question l’implication de la navette pyruvate/isocitrate/α-cétoglutarate dans la régulation de la sécrétion d’insuline. Le rôle exact de IDHc dans ce processus demeure cependant à être déterminé. Finalement, nos travaux ont aussi démontré un rôle pour ATGL et la lipolyse dans les mécanismes de couplage métabolique régulant la sécrétion d’insuline.
Resumo:
Nous nous proposons dans ce papier d'étudier la question de la coopération à la lumière de la moralité. Cela nous conduit à discerner deux formes de moralité, celle conçue comme un devoir (impératif catégorique de Kant) et celle conçue comme un choix (l'altruisme). Néanmoins, ces deux représentations se recoupent dans leur traitement de la coopération. Dans la mesure où elles sont formalisées dans le cadre d'un jeu statique, les résultats qui en ressortent ne nous disent pas plus qu'il est dans l'intérêt d'un individu de s'y soumettre lorsque les autres en ont fait autant. Toutefois, il n'est pas expliqué comment les autres en sont venus à adopter un comportement moral. Cela soulève en substance le problème de l'outil utilisé, celui-ci définissant les comportements à l'équilibre sans nous livrer la moindre information sur la situation qui prédominait avant d'arriver à l'équilibre.
Resumo:
Ibn Khaldûn(1332-1406) fut homme d’Etat et historien des conflits et des changements politiques au Moyen-Orient et en Afrique du Nord. Il a écrit la Muqaddima, une vaste analyse du déclin de la civilisation arabe. Dans cet ouvrage l’ «éthique du Juste » est présentée comme l’obéissance à la loi et l’application des sciences rationnelles à la tradition. Ceci le mène à condamner l’ « éthique du Bien » en tant que calcul de son propre bonheur. Le conflit actuel reflète bien ce dualisme sous de nouvelles formes d’eudémonisme telle que l’utilitarisme. Sa théorie du changement politique et des conflits est toujours d’actualité : le développement économique conduit à la destruction des dynasties au pouvoir ; ce dernier repose sur l’Asabiya, une forme spécifique du capital social. Le pouvoir politique dure trois générations et connaît une évolution faite d’essor, d’apogée et de déclin. Cette théorie des « trois phases » du développement permet de mieux comprendre les conflits que connaît actuellement le monde arabe.
Resumo:
Dans cet article nous passons en revue les différentes théories économiques traitant du travail des enfants. Nous distinguons deux analyses différentes du travail des enfants. Une première analyse se référant à la pauvreté, étudie les impacts sur le bien-être du ménage d’une décision parentale de mettre les enfants au travail. De ce fait, la pauvreté est l’unique facteur explicatif du travail des enfants. Dans cette approche, le ménage arbitre entre offrir du loisir aux enfants ou les mettre au travail, en fonction du revenu parental. Dans la deuxième analyse, l’arbitrage ne s’opère plus en terme de loisir et travail mais en terme d’éducation et travail. Selon cette approche, le travail des enfants est facteur non seulement de la pauvreté mais aussi des imperfections du marché des capitaux. La décision parentale de mettre les enfants au travail a un impact sur le bien-être futur de ces enfants. Ces deux analyses montrent que le travail des enfants conduit à une situation de trappe à pauvreté.
Resumo:
Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.
Resumo:
L’infection par le Virus Respiratoire Syncytial cause des affections pulmonaires aiguës en pédiatrie caractérisée par une réponse inflammatoire excessive médiée par la production de cytokines par les cellules épithéliales des voies aériennes. Les gènes codant pour ces cytokines sont régulés par le facteur de transcription NF-κB (p50/p65) dont l’activation est classiquement induite par la phosphorylation de son inhibiteur IκBα, ce qui permet l’accumulation de l’hétérodimère au noyau. Par contre, nous avons récemment identifié la phosphorylation en sérine 536 de la sous-unité p65 comme une autre étape essentielle à son activation lors de l’infection des AEC par RSV. Le travail présenté dans ce mémoire a permis de démontrer que l’inhibition de l’expression de RIG-I, de Cardif ou de TRAF6, 3 protéines impliquées dans la reconnaissance cellulaire des virus, conduit à l’inhibition de cette phosphorylation en réponse à RSV. Nous avons également établi à l’aide d’inhibiteurs pharmacologiques et d’ARNi que, parmi les diverses kinases connues pour phosphoryler p65 en réponse à divers stimulus, IKKα/β sont essentielles à cette phosphorylation lors d’une stimulation par RSV. Puisque TRAF6 est bien connu dans la littérature pour activer le complexe IKK, nous proposons que TRAF6, après reconnaissance de l’ARN viral de RSV par RIG-I, active le complexe IKK qui induit la phosphorylation de la sousunité p65 de NF-κB, permettant l’expression de gènes cibles. D’autre part, nous avions précédemment démontré que Nox2, un isoforme de NADPH oxydase, contrôle l’activation de NF-κB en régulant les phosphorylations de IκBα et p65. Nous montrons ici que l’inhibition de Nox2 réduit fortement l’activité du complexe kinase IKK. De plus, la présence au niveau basal de Nox2 est critique pour le niveau d’ARN messager de Cardif. Nous proposons donc que la régulation de la phosphorylation de p65 en ser536 par Nox2 soit via son effet sur Cardif en permettant la fonctionnalité de la voie RIG-I.
Resumo:
John B. Davis explores the question of what the economic individual is. He bases his considerations of orthodox economics on the assumption that these theories implicitly rely on a conception of the individual that has its origin in Locke’s idea of the self as subjective inwardness. Economic history then is the attempt to deal with Locke’s inherent problems that this view involved. If neoclassical economics still has aspects of human psychology, mainstream economics dropped the subjective concept of the individual out of their considerations. However, Davis demonstrates that even the neoclassical concept of the individual fails to pass the existence test of individual identity. The latter is an idea developed in analogy to philosophers’ concern about personal identity and examines if the individual can be distinguished among different individuals and if he or she can be reidentified as the selfsame individual through time. The failure of the theory of the individual in orthodox economics led Davis to develop a concept of a socially embedded individual in accordance with heterodox accounts of economics. He submits this conception to the same test of individual identity. It appears that the socially embedded individual can be said to hold an identity in specific circumstances.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Dans les neurones et les cellules vasculaires cérébrales, les dérivés réactifs de l’oxygène jouent un double rôle puisqu’ils peuvent avoir à la fois des effets bénéfiques, à faibles concentrations, et des effets délétères, à des concentrations élevées. Chez la souris, la circulation cérébrale se distingue des autres lits vasculaires puisque le peroxyde d’hydrogène (H2O2) est le principal médiateur endothélial relaxant endogène. L’objectif de notre première étude a été de caractériser l’implication physiologique du H2O2 dérivé de la eNOS dans la fonction endothéliale cérébrale de la souris. Nous avons voulu identifier les mécanismes impliqués dans la dilatation induite par l’augmentation de débit intra-luminal (flow-mediated dilation, FMD). La FMD est la réponse à un stimulus physiologique endothélial la plus représentative de la situation in vivo. Nous avons démontré que le H2O2, et non le monoxyde d’azote (NO), dérivant de l’activation de la eNOS cérébrale, est le principal médiateur de la FMD. Cependant, nous connaissons très peu de données sur l’évolution de la voie du H2O2 au cours du vieillissement qu’il soit associé ou non aux facteurs de risque pour les maladies cardiovasculaires. Au cours du vieillissement, au niveau périphérique, les facteurs endothéliaux constricteurs ou dilatateurs évoluent en fonction de l’augmentation de stress oxydant. La présence de facteurs de risque pour les maladies cardiovasculaires, telle que l’hypercholestérolémie, pourrait accentuer l’augmentation du stress oxydant et ainsi accélérer la dysfonction endothéliale. Au niveau cérébral, très peu de données sont disponibles. Dans le cadre de notre deuxième étude, nous avons émis l’hypothèse qu’un débalancement des facteurs endothéliaux pourrait être à l’origine (1) de la dysfonction endothéliale cérébrale observée au cours du vieillissement et (2) de la dysfonction endothéliale précoce qui apparaît en présence d’athérosclérose. Nos résultats ont montré que l’augmentation de stress oxydant associée au vieillissement conduit à une libération endogène accrue de TXA2 qui diminue la voie du H2O2 au niveau cérébral et, par conséquent, réduit la dilatation dépendante de l’endothélium. De plus, la présence d’athérosclérose accélère l’apparition de la dysfonction endothéliale cérébrale. Le rôle clé joué par le stress oxydant a été confirmé par un traitement préventif avec l’antioxydant catéchine qui a permis de renverser tous les effets délétères de l’athérosclérose sur les fonctions endothéliales cérébrales. Finalement, la dysfonction endothéliale cérébrale précoce, associée avec l’athérosclérose, pourrait non seulement augmenter l’incidence de développer des accidents vasculaires cérébraux (AVC) mais aussi induire une diminution du débit sanguin cérébral et, ultimement, affecter les fonctions neuronales. Dans le cadre de notre troisième étude, nous avons émis l’hypothèse que l’augmentation de stress oxydant est associée avec une diminution du débit sanguin cérébral et un déclin subséquent des fonctions cognitives. Nous avons utilisé des souris athérosclérotiques âgées de 3 mois que nous avons soumises, ou pas, à un traitement chronique à la catéchine. Nos travaux montrent qu’un traitement préventif avec la catéchine peut prévenir les effets néfastes de l’athérosclérose sur la FMD, le débit sanguin et le déclin des fonctions cognitives qui est normalement associé au vieillissement. Nos résultats ont permis de distinguer l’effet du vieillissement des effets de l’athérosclérose sur les fonctions vasculaires cérébrales. Le traitement préventif avec la catéchine a eu des effets bénéfiques marqués sur la fonction endothéliale cérébrale, le débit sanguin cérébral et les fonctions cognitives, démontrant le rôle clé de l’environnement redox dans la régulation des fonctions cérébrales.
Resumo:
L’utilisation continue de corticostéroïdes inhalés est reconnue pour réduire le nombre d’hospitalisations, la morbidité ainsi que les décès liés à l’asthme. Cependant, l’observance à cette médication chez les enfants asthmatiques demeure sous-optimale. Objectif : L’objectif général de ce mémoire de maîtrise est d’identifier les déterminants de l’observance aux corticostéroïdes inhalés durant les 28 jours suivant une visite médicale d’urgence en raison d’une une exacerbation d’asthme. Méthodologie : Il s’agit d’une analyse de données secondaires provenant d’un essai randomisé conduit auprès de patients se présentant dans un département d’urgence pour une exacerbation d’asthme. L’utilisation de corticostéroïdes inhalés au cours des 28 jours suivant la visite à l’urgence a été mesurée à l’aide de compteurs de doses électroniques. Résultats : Deux cent onze enfants ont été inclus dans les analyses et 76,8% étaient âgés de moins de 7 ans. L’observance moyenne au cours des 28 jours suivant la visite à l’urgence était de 62% (±29%). Les déterminants associés à une meilleure observance étaient une durée de traitement prescrite plus courte, une scolarité maternelle universitaire, une plus grande consommation de médication de soulagement rapide, une crise d’asthme plus sévère, un plus jeune âge de l’enfant et être Caucasien. Conclusion : Cette étude se distingue par le fait qu’elle inclut une large proportion d’enfants d’âge préscolaire, une population d’asthmatiques sous-représentée dans la littérature médicale malgré sa morbidité élevée. Une prescription de corticostéroïdes inhalés de courte durée s’est avérée être le meilleur prédicteur d’une bonne observance et témoigne d’une pratique en milieu hospitalier qui va à l’encontre des lignes directrices en matière de gestion de l’asthme.
Resumo:
Les dérivés cyclopropaniques 1,2,3-substitutés sont des composés intéressants dans de nombreux domaines de la chimie. Au cours de cet ouvrage, nous nous sommes intéressés à la synthèse, tout d’abord diastéréosélective puis énantiosélective de ces composés. Nous nous sommes en particulier intéressés à l’utilisation de la zinciocyclopropanation pour l’obtention de ces dérivés cyclopropaniques 1,2,3-substitutés. Cette méthode consiste en l’utilisation d’un carbénoïde gem-dizincique pour effectuer une réaction de type Simmons-Smith. Cette stratégie a l’avantage d’être diastéréosélective favorisant la formation du zinciocyclopropane dont l’atome de zinc est dans une configuration cis avec le groupement directeur qu’est l’oxygène allylique basique. Lors de cette réaction, l’existence d’une réaction compétitive avec un réactif monozincique diminuait l’utilité de la zinciocyclopropanation. L’issue de la réaction s’est avérée dépendre fortement de la nature du carbénoïde utilisé, de la température réactionnelle et de la présence de ZnI2 dans le milieu. L’étude par GCMS de nombreuses conditions pour la formation des différents carbénoïdes a permis d’identifier les paramètres clés conduisant à la zinciocyclopropanation. Ces découvertes ont notamment permis d’étendre la réaction de zinciocyclopropanation aux alcools allyliques portant un seul groupement directeur (ie. non dérivé du 1,4-buténediol). Dans ces conditions, la réaction s’est avérée extrêmement diastéréosélective favorisant la formation du zinciocyclopropane dont l’atome de zinc est dans une configuration cis avec le groupement directeur. Afin de fonctionnaliser les zinciocyclopropanes ainsi obtenus, plusieurs réactions de fonctionnalisation in situ ont été développées. Chacune de ces méthodes a montré une conservation totale de la diastéréosélectivité obtenue lors de la réaction de zinciocyclopropanation. La versatilité de la zinciocyclopropanation a donc été démontrée. Avec une méthode diastéréosélective efficace pour la formation de zinciocyclopropanes à partir d’alcools allyliques ne portant qu’un seul groupement directeur, il est devenu possible d’envisager le développement énantiosélectif de la réaction. L’utilisation d’un dioxaborolane énantiopur a permis la zinciocyclopropanation avec de très bons excès énantiomères de divers alcools allyliques chiraux. La présence sur la même molécule d’un lien C–Zn nucléophile est d’un atome de bore électrophile a conduit à un échange bore-zinc in situ, formant un cyclopropylborinate énantioenrichi. La formation de ce composé bicyclique a permis d’obtenir une diastéréosélectivité parfaite. De nombreux alcools allyliques ont pu ainsi être convertis en cyclopropylborinates. Une réaction de Suzuki subséquente a permis la formation de dérivés cyclopropaniques 1,2,3-trisubstitués avec de très bons excès énantiomères et une excellente diastéréosélectivité. Les cyclopropylborinates obtenus à l’issue de la zinciocyclopropanation énantiosélective se sont avérés être des unités très versatiles puisque de nombreuses méthodes ont pu être développés pour leur fonctionnalisation.
Resumo:
Rationnelle. La ventilation mécanique invasive (VI) s’accompagne lorsqu’elle se prolonge, d’une augmentation de la morbimortalité. Jusqu’à 64% des enfants hospitalisés aux soins intensifs sont ventilés et peu de données épidémiologiques existent afin d’estimer précocement la durée du support ventilatoire. Objectifs. Déterminer l’incidence et les facteurs de risque précoces de ventilation mécanique invasive prolongée aux soins intensifs pédiatriques. Méthode. Nous avons conduit une étude descriptive rétroélective sur un an. Tous les épisodes de VI aux soins intensifs du Centre hospitalier universitaire Sainte Justine de Montréal ont été inclus. Les facteurs de risque de VI prolongée (≥ 96 heures) ont été déterminés par régression logistique. Résultats. Parmi les 360 épisodes de VI, 36% ont duré ≥ 96 heures. Les facteurs de risques de ventilation prolongée en analyse multivariée sont : âge <12 mois, score de PRISM ≥ 15 à l’admission, pression moyenne dans les voies aériennes ≥13 cm H2O au jour 1 de ventilation, utilisation de la sédation intraveineuse continue au jour 1 de ventilation et ventilation non invasive avant intubation. Conclusion. La VI prolongée survient chez environ un tiers des patients ventilés. Les patients de moins de 12 mois semblent être plus à risque que les enfants plus âgés et devraient bénéficier de stratégies différentes pour diminuer leur durée de ventilation mécanique. La sévérité de la maladie, l’agressivité du support ventilatoire, l’utilisation d’une sédation continue au premier jour de ventilation sont également des facteurs à considérer dans les études visant à diminuer la durée de support ventilatoire.