949 resultados para Nest returning
Resumo:
Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.
Resumo:
La victimisation au sein du groupe de pairs est un facteur de risque associé à l’augmentation des symptômes dépressifs au début de l’adolescence. En contrepartie, le fait d’entretenir des relations d’amitié constitue un facteur protecteur important susceptible de modérer les conséquences négatives associées à la victimisation par les pairs. Toutefois, les bénéfices associés aux relations d’amitié peuvent varier en fonction de certaines caractéristiques de celles-ci. Cette étude a pour but d’évaluer dans quelle mesure les caractéristiques des relations d’amitié (c.-à-d., le caractère intime et soutenant de la relation et la propension des amis à co-ruminer) modèrent l’association entre la victimisation par les pairs et l’augmentation des symptômes dépressifs sur une période d’un an. L'échantillon est composé de 536 élèves du secondaire auprès de qui la victimisation et les caractéristiques des relations d’amitié ont été évaluées au premier temps de mesure de façon auto-rapportée. Les symptômes dépressifs des élèves ont également été mesurés lors de deux années consécutives. Les résultats démontrent que le niveau de victimisation des élèves, la qualité des relations d’amitié et la tendance des amis à co-ruminer sont respectivement associés de façon concomitante à l’expression des symptômes dépressifs. En contrepartie, seule la co-rumination entre amis permet de rendre compte de l’augmentation des symptômes dépressifs sur une période d’un an. L’association entre la victimisation par les pairs et le développement des symptômes dépressifs n’est toutefois pas modérée par les caractéristiques des relations d’amitié.
Resumo:
Face à l’incapacité de l’État à offrir des services de base aux ménages pauvres des zones urbaines périphériques et marginales, ce sont les opérateurs informels (individuels et collectifs) qui s’activent à répondre aujourd’hui aux besoins croissants des ménages. Mais leurs actions sont ponctuelles, éparpillées sur le territoire, non intégrées dans un plan de développement local, et beaucoup de ménages n’ont toujours pas accès à l’eau potable. Cette recherche, de type exploratoire, porte donc sur l’examen d’un type de partenariat entre les acteurs publics et les opérateurs informels collectifs, susceptible de créer la synergie entre les partenaires locaux et de pérenniser la fourniture de l’eau potable. Elle vise à analyser et à comprendre les mécanismes de collaboration entre l’État et les opérateurs informels collectifs en vue d’améliorer la qualité de la vie dans les quartiers urbains pauvres grâce à la résolution des problèmes d’accès à l’eau potable. À partir de l’étude de cas d’une zone pauvre de la ville de Kinshasa (République Démocratique du Congo), nous avons donc cherché à dégager ce qui peut éclairer le fonctionnement du partenariat État-opérateurs informels collectifs. Comme cadre d’analyse, nous avons recouru à l’analyse stratégique et, pour l’examen des expériences de partenariat, nous avons utilisé le modèle de Coston (1998) et recouru aux approches de régulation État-tiers secteur (approche socio-étatique et approche socio-communautaire). La méthode qualitative a été privilégiée. Les données analysées proviennent d’entrevues semi-dirigées, de la recherche documentaire et de l’observation. À partir du modèle de Coston (1998), les résultats obtenus montrent que les relations qui correspondent le mieux au partenariat entre les acteurs publics et les opérateurs informels collectifs sont de type « contractuel » et correspondent à l’orientation socio-étatique. Mais le système formel actuel de gestion de l’eau potable et les relations de pouvoir sont plus proches du type « rivalité ». Notre étude montre également que les partenariats, entre les acteurs publics et les opérateurs informels collectifs, sont très difficiles à instituer, car il n’existe pas encore d’environnement socio-politique solidaire. Le contexte institutionnel n’est pas propice à l’émergence d’un partenariat dynamique. Les déficiences structurelles, humaines et institutionnelles constatées sont la résultante directe de la pauvreté dont sont victimes les individus et les institutions. Les réseaux sociaux (à base de parenté, ethnique ou religieux) affectent les relations entre les individus, membres d’une association locale et les représentants des institutions locales ou nationales. Une complémentarité, négociée entre l’État et les opérateurs informels collectifs, ne pourra se réaliser que par la mise en place de nouvelles politiques favorisant la démocratie, la décentralisation et la promotion du mouvement associatif avec une société civile forte, dynamique, soucieuse du bien commun, privilégiant les qualités managériales plutôt que l’assistance perpétuelle.
Resumo:
On pense souvent que le professionnalisme moderne exige qu’on regarde comme non relevante les traditions particulières ainsi que les liens avec familiaux, tribaux et religieux. Du point de vue du professionnalisme, ce qu’est important sont des règles internes à la profession et aussi les droits universels de l’homme vu comme individu abstrait. Dans une société où l’individualisme et le commerce deviennent omniprésents, les traditions éthiques et les identités narratives pourraient pourtant constituer un cadre de motivations clé pour l’intégrité éthique professionnelle. Je prendrai comme exemple la profession militaire et en particulier l’utilisation de mercenaires. En distinguant entre les compétences et les vertus je me demanderai si oui ou non il y a une relation nécessaire entre un bon soldat et le fait d’être un citoyen. Le fait d’être est compris ici comme catégorie morale qui occasionne un certain idéal de caractère et en particulier des vertus. Je conclus que l’action de contractualisation privée d’un soldat n’est pas en général moralement digne d’éloge et ne devrait pas être encouragée dans une société éthiquement orientée.
Resumo:
Le diabète de type 2 et l'obésité sont des problèmes de santé majeurs et les peuples autochtones sont particulièrement à risque. Pour remédier à ce problème largement répandu dans les populations autochtones canadiennes pour qui la médication moderne n’est pas culturellement adaptée, notre équipe s’est donné comme objectif d’étudier les activités potentielles antidiabétique et anti-obésité de la pharmacopée traditionnelle des Cris de la Baie James. Le but de cette étude est de tester l’hypothèse selon laquelle certaines plantes médicinales pourraient inhiber l'absorption intestinale du glucose, une activité anti-hyperglycémique qui, par la même occasion, contribuerait à combattre l’obésité. Les extraits éthanoliques de dix-sept plantes médicinales de la forêt boréale ont été testés dans des cellules intestinales Caco-2 et comparés à l’effet d’inhibiteurs compétitifs connus, tels que la phlorizine et la phlorétine. Ces inhibiteurs sont des composés polyphénoliques qui partagent de nombreuses caractéristiques structurelles avec des constituants moléculaires de plusieurs plantes Cri. Les résultats démontrent que treize des dix-sept extraits de plantes ont inhibé de façon significative l'absorption intestinale du 3H-D-glucose. Pour valider ces effets in vivo, quatre extraits ont été administrés à des rats Wistar par gavage intragastrique (250 mg/kg) en même temps qu’un bolus de glucose (3 g/kg). Suite à ce gavage, deux de ces extraits ont restreint l’augmentation de la glycémie d'environ 40% par rapport à un contrôle sans extrait. Ces résultats indiquent qu’une inhibition compétitive de l'absorption intestinale du glucose peut être atteinte par des extraits bruts de plantes médicinales. La prise de ces plantes durant les repas aiderait à un meilleur contrôle post-prandial de la glycémie, particulièrement chez les personnes à risque.
Resumo:
From a legal perspective, the membership in a business corporation is expressed through shares, and individual membership succession can in principle be achieved through a negotiable transaction. This has the effect that the interests of the corporation’s shareholders may be directed away from the enterprise activity to the shares, into which the corporation is divided. To illustrate this shift of interest, I characterize the membership in a business corporation as potentially “dispassionate”. Serving the financial interests of the “dispassionate” shareholder will be presented here as the modus operandi of the corporation. In this light, the attention that a company’s management must pay to the enrichment of shareholders depends on the importance of dispassionate shareholder support for the company’s activities. This perspective permits the introduction of new arguments in the CSR debate.
Resumo:
Through the justice principles –equality, time, status, need, efficiency and worth– developed by Jon Elster, we show in this article how fair trade certification for producers is legitimatised by stakeholders. Based on a field investigation with coffee growers in Peru, Ecuador and Bolivia and with fair trade organisations in the North (Max Havelaar/FLO, Andines and Artisans du Monde), the analysis firstly reviews just certification according to the impersonal criteria of “mechanical” justice, such as equality, time and efficiency. The second section looks at more individualised criteria such as the status, need and worth of the beneficiaries. Finally, it determines in what way fair trade is really a mixed bag, one which calls upon different principles of justice to justify what it is out to accomplish. The main result of the analysis is that fair certification granted to producer organisations is not being distributed according to a unique system of justice based on just one criterion. On the contrary, fair trade is a complex and hybrid bag that uses different components from each distribution procedure.
Resumo:
Les effets positifs des appellations d’origine pour le développement territorial dans certaines régions européennes ont attiré l’attention de producteurs et de promoteurs du développement dans les pays du Sud. Ainsi, les producteurs de fromage Cotija au Mexique ont sollicité une appellation d’origine en 2004. Elle leur a été refusée, l’administration estimant que la dénomination Cotija constituait un terme générique. Au-delà du débat sur le caractère générique ou non d’une appellation, ce cas est très instructif sur les limites du cadre légal et institutionnel mexicain, plus de 30 ans après que la Tequila soit devenue la première appellation reconnue au Mexique. L’absence d’un objectif politique clair et explicite pour les appellations d’origine se traduit dans l’incertitude et la faiblesse des institutions mises en place. Ce contexte n’est pas favorable pour la reconnaissance d’appellations d’origine et remet donc en cause leur utilisation comme outil de développement territorial.
Resumo:
Résumé La présente thèse doctorale vise à déterminer sous quelles conditions la garde non-maternelle est associée (positivement/négativement) au niveau de stress et au développement cognitif des enfants. Elle comporte une recension des écrits et trois articles empiriques. Le premier article présente une recension des écrits (de type méta-analytique) qui synthétise les études portant sur le stress des enfants en services de garde et ayant utilisé le niveau de cortisol comme indicateur. Les résultats montrent que la garde non-maternelle est associée au niveau de stress des enfants, se reflétant dans des concentrations de cortisol élevées. Les niveaux de stress élevés s’observent particulièrement chez les enfants qui au départ ont tendance à être retirés, anxieux ou qui sont gardés dans un milieu de faible qualité. Cependant, certains éléments indiquent que les élévations de cortisol à la garderie sont temporaires et qu’elles disparaissent au fur et à mesure que l’enfant s’adapte à son milieu. Le deuxième article de thèse, réalisé dans le contexte de l’Échantillon longitudinal national des enfants et des jeunes [ELNEJ] (n = 3093), vise à déterminer dans quelle mesure l’association entre la fréquentation des services de garde et l’acquisition du vocabulaire réceptif au préscolaire dépend du milieu familial de l’enfant. Les résultats indiquent qu’à l’intérieur du groupe d’enfants défavorisés, ceux ayant été gardés à temps plein dans la première année de vie obtiennent des scores supérieurs sur une mesure de vocabulaire réceptif administrée à 4 ½ ans, comparativement aux enfants restés à la maison avec la mère (d=0.58). Le troisième article, réalisé dans le contexte de l’Étude longitudinale des enfants du Québec [ELDEQ]; (n=2,120), vise à documenter les bénéfices à long terme de la fréquentation des services de garde par les enfants issus de milieux désavantagés sur la préparation scolaire et les compétences académiques. Les résultats révèlent que les enfants dont la mère n’a pas terminé ses études secondaires obtiennent de meilleurs résultats sur une mesure de préparation scolaire cognitive (d=0.56) et de vocabulaire réceptif (d=0.30) en maternelle, et de connaissance des nombres (d=0.43) en première année, s’ils ont fréquenté un service de garde sur une base régulière. Par ailleurs, la garde non-parentale n’est pas associée aux compétences cognitives des enfants de milieux sociaux favorisés. L’objectif du quatrième article est d’examiner les facteurs de sélection quant à l’utilisation des services de garde dans le contexte de l’ELDEQ. Les résultats montrent que l’absence d’emploi de la mère pendant la grossesse, le faible niveau d’éducation de la mère; le revenu insuffisant de la famille, avoir plus de 2 frères et sœurs, la surprotection maternelle, et le faible niveau de stimulation cognitive sont associés à une faible utilisation des services de garde (30.7% de l’échantillon québécois). En d’autres termes, les enfants qui sont les plus susceptibles de retirer des avantages des services de garde sur le plan du développement, en raison de la présence de facteurs de risque dans leur milieu familial, sont aussi ceux qui utilisent le moins les services de garde.
Resumo:
Des études récentes ont démontré l’importance du travail dans la construction de l’identité. Pour les personnes atteintes d’un trouble psychiatrique qui se retrouvent la plupart du temps exclues du marché du travail, l’absence d’un emploi suppose une construction identitaire problématique. Dans cette perspective, ce mémoire vise à mieux comprendre ce processus. Le cadre conceptuel utilisé dans cette recherche se base sur les principes de l’approche théorique de Dubar. Il permet d’étudier la reconstruction identitaire à partir de l’interaction entre l’identité revendiquée par les personnes atteintes d’une maladie mentale et l’identité attribuée par des personnes de leur entourage. En conséquence, cette recherche analyse le discours de 28 personnes atteintes d’un trouble mental ainsi que de celui de 6 intervenants sociaux. Nos résultats démontrent la reconstruction de formes identitaires problématiques. La première forme touche la majorité des personnes atteintes de troubles mentaux. Ces dernières aspirent à réintégrer le marché du travail et vivre une vie normale. Toutefois, les intervenants sociaux les perçoivent comme des malades qui ne peuvent fonctionner normalement. La deuxième forme identitaire est reconstruite dans un rapport de concordance entre les perceptions des personnes atteintes de troubles mentaux et celles des intervenants. Les répondants se perçoivent comme étant des malades. Cette identité est validée par les intervenants. La dernière forme identitaire s’inscrit dans un rapport conflictuel qui touche seulement une personne. Cette dernière se perçoit comme une personne malade, mais cette identité est refusée par l’intervenant qui la perçoit comme une personne fonctionnelle et apte à retourner sur le marché du travail.
Resumo:
Les cellules gliales sont essentielles au fonctionnement du système nerveux. Dans la rétine, les cellules gliales de Müller assurent à la fois l’homéostasie du tissu et la protection des neurones, notamment celle des cellules ganglionnaires de la rétine (CGRs). L’hypothèse principale de la thèse est que les cellules de Müller joueraient un rôle primordial dans la survie neuronale tant au plan de la signalisation des neurotrophines/proneurotrophines par suite d’une blessure que lors des mécanismes d’excitotoxicité. Contrairement au brain-derived neurotrophic factor (BDNF), le nerve growth factor (NGF) n’est pas en mesure d’induire la survie des CGRs après une section du nerf optique. Le premier objectif de la thèse a donc été de localiser les récepteurs p75NTR et TrkA du NGF dans la rétine adulte et d’établir leur fonction respective en utilisant des ligands peptidomimétiques agonistes ou antagonistes spécifiques pour chacun des récepteurs. Nos résultats ont démontré que TrkA est surexprimé par les CGRs après l’axotomie, tandis que p75NTR est spécifiquement exprimé par les cellules de Müller. Alors que NGF n’est pas en mesure d’induire la survie des CGRs, l’activation spécifique de TrkA par des ligands peptidomimétique est nettement neuroprotectrice. De façon surprenante, le blocage sélectif de p75NTR ou l’absence de celui-ci protège les CGRs de la mort induite par l’axotomie. De plus, la combinaison de NGF avec l’antagoniste de p75NTR agit de façon synergique sur la survie des CGRS. Ces résultats révèlent un nouveau mécanisme par lequel le récepteur p75NTR exprimé par les cellules gliales de Müller peut grandement influencer la survie neuronale. Ensuite, nous avons voulu déterminer l’effet des proneurotrophines dans la rétine adulte. Nous avons démontré que l’injection de proNGF induit la mort des CGRs chez le rat et la souris par un mécanisme dépendant de p75NTR. L’expression de p75NTR étant exclusive aux cellules de Müller, nous avons testé l’hypothèse que le proNGF active une signalisation cellulaire non-autonome qui aboutit à la mort des CGRs. En suivant cette idée, nous avons montré que le proNGF induit une forte expression du tumor necrosis factor α (TNFα) dans les cellules de Müller et que l’inhibition du TNF bloque la mort neuronale induite par le proNGF. L’utilisation de souris knock-out pour la protéine p75NTR, son co-récepteur sortiline, ou la protéine adaptatrice NRAGE a permis de montrer que la production de TNF par les cellules gliales était dépendante de ces protéines. Le proNGF semble activer une signalisation cellulaire non-autonome qui cause la mort des neurones de façon dépendante du TNF in vivo. L’hypothèse centrale de l’excitotoxicité est que la stimulation excessive des récepteurs du glutamate sensibles au N-Methyl-D-Aspartate (NMDA) est dommageable pour les neurones et contribue à plusieurs maladies neurodégénératives. Les cellules gliales sont soupçonnées de contribuer à la mort neuronale par excitotoxicité, mais leur rôle précis est encore méconnu. Le dernier objectif de ma thèse était d’établir le rôle des cellules de Müller dans cette mort neuronale. Nos résultats ont démontré que l’injection de NMDA induit une activation du nuclear factor κB (NF-κB) dans les cellules de Müller, mais pas dans les CGRs, et que l’utilisation d’inhibiteurs du NF-κB empêche la mort des CGRs. De plus, nous avons montré que les cellules de Müller en réaction à l’activation du NF-κB produisent la protéine TNFα laquelle semble être directement impliquée dans la mort des CGRs par excitotoxicité. Cette mort cellulaire se produit principalement par l’augmentation à la surface des neurones des récepteurs AMPA perméables au Ca2+, un phénomène dépendant du TNFα. Ces donnés révèlent un nouveau mécanisme cellululaire non-autonome par lequel les cellules gliales peuvent exacerber la mort neuronale lors de la mise en jeu de mécanismes excitotoxiques.
Resumo:
Cette thèse porte sur l’émergence sur la scène chilienne d’un nouvel acteur dans la production du livre, acteur qui s’organise à la fin des années 1990 en se définissant lui-même en tant qu’éditeur indépendant et qui, au cours des premières années du XXIe siècle, élargit cette définition pour inclure le phénomène de l’édition autonome et le domaine de l’édition universitaire. Le point de ralliement de ces acteurs, organisés autour de l’association Editores de Chile, est la reprise et l’affirmation d’un rôle moderne des éditeurs de livres, au sens des Lumières. On peut constater l’articulation entre les revendications spécifiques du secteur et ses positions politiques sur la valeur symbolique de la production culturelle, sur son rôle en tant que facteur de construction identitaire et démocratique car l’accès aux livres ne peut pas être restreint par l’action sans contrepoids du marché. L’angle théorique que nous proposons est celui des théories des industries culturelles tout en intégrant aussi les contributions des études culturelles. En nous situant dans une perspective de l’économie politique des industries culturelles, nous chercherons à redéfinir le concept d’indépendance par le biais d’une analyse des stratégies d’unités économiques (les maisons d’édition) et des rapports entre ces unités et leurs contextes géographiques, politiques et culturels spécifiques. Nous tenons aussi en considération des éléments macrostructurels, mais en considérant que leur capacité d’influence est toujours relative et, en conséquence, doit faire l’objet d’une réévaluation en fonction des rapports de forces et des conjonctures politiques, économiques et sociales spécifiques. Nous pensons que l’indépendance n’est pas un phénomène qui n’est pas exclusif au monde de l’édition. Nous avons fait le constat qu’il existe aussi au sein des industries de l’enregistrement sonore, de l’audiovisuel et des médias comme la presse, la radio et, en moindre proportion, la télévision. En termes méthodologiques, nous proposons une approche qui combine des méthodes et des instruments quantitatifs et qualitatifs, c’est-à-dire, l’analyse des statistiques de l’édition au Chili (fréquences des titres, genres et auteurs), des entrevues semi-structurées et une analyse documentaire. Avant d’aborder la description et l’analyse de la production de livres au Chili et du sens que les éditeurs donnent à l’indépendance et à leurs prises de position dans le champ culturel, nous proposons une description historique et industrielle de l’édition du livre chilien. Cette description permet de comprendre la naissance et le développement du secteur en regard des processus politiques, économiques et sociaux du Chili et de l’Amérique latine, ainsi que sa situation actuelle en regard des nouvelles conditions politiques et économiques qui résultent du processus de globalisation et des transformations néolibérales locales et internationales. La recherche examine ensuite le caractère de la production de livres publiés au Chili entre les années 2000 et 2005 en considérant les titres produits, les auteurs et les genres. Cette analyse permet aussi d’établir des différences entre ces maisons d’édition et celles qui relèvent des grands conglomérats transnationaux de l’édition de livres. Cette analyse comparative nous permet d’établir de manière concluante des différences quant au nombre et á la diversité et l’intérêt culturel des livres publiés entre les éditeurs transnationaux et les éditeurs indépendants regroupés sous le nom de Editores de Chile. Cette analyse permet aussi d’établir des liens précis entre la production des éditeurs indépendants et leurs objectifs culturels et politiques explicites. Nous faisons ensuite état, par le biais de l’exposition et de l’analyse des entrevues réalisées avec les éditeurs, des trajectoires de ces organisations en tenant compte des périodes historiques spécifiques qui ont servi de contexte à leur création et à leur développement. Nous mettons ici en rapport ces trajectoires des éditeurs, les définitions de leurs missions et les stratégies mobilisées. Nous tenons aussi compte des dimensions internationales de ces définitions qui s’expriment dans leur participation au sein d’organisations internationales telle que l’Alliance internationale d’éditeurs indépendants (Gijón 2000 et Dakar 2003) et, spécifiquement, leur expression dans la coopération avec des maisons d’édition latino-américaines. Les entrevues et l’analyse documentaire nous permettent d‘entrevoir les tensions entre la politique culturelle de l’État chilien, en contraste avec des définitions, des objectifs et des actions politiques de Editores de Chile. Nous relions donc dans l’analyse, l’émergence de l’édition indépendante et les résistances qu’engendrent la globalisation des marchés culturels et les mouvements de concentration de la propriété, ainsi que les effets et réponses aux transformations néolibérales au plan des politiques culturelles publiques. Nous concluons alors à la nécessité d’une économie politique critique des industries culturelles qui puisse se pencher sur ces phénomènes et rendre compte non seulement de rapports entre conglomérats et indépendants et du développement des filières de la production culturelle, mais aussi du déploiement des logiques culturelles et politiques sous-jacentes, voire des projets historiques, qui se confrontent dans le champ des industries culturelles.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Réalisé en cotutelle avec l'Université de Paris-sud XI, France.
Resumo:
L'interaction entre le système immunitaire et le métabolisme du fer est bien illustrée par l'anémie des maladies chroniques (ACD), qui est fréquemment rencontrée dans les infections chroniques, l'inflammation et le cancer. La majorité des modifications dans les paramètres du fer observées dans l’ACD tient compte des modifications de l’homéostasie du fer, avec la délocalisation du métal de la circulation et les sites de l'érythropoïèse au compartiment de stockage dans les macrophages. Les mécanismes de la réponse hyposidérémique impliquent des cytokines, notamment TNF-alpha et IL-6, qui régulent les niveaux de plusieurs gènes du métabolisme du fer, y compris les transporteurs de fer et de l'hepcidine, un régulateur négatif de l’absorption du fer, ce qui entraîne l'inhibition de l'exportation du fer à travers la ferroportine 1 (FPN1) au niveau de l'intestin et les macrophages. Des études antérieures ont montré que l'IL-6 induit l’expression d’hepcidine dans les hépatocytes, mais il y a très peu de données concernant la façon par laquelle l'hepcidine et la FPN1 sont régulées dans les macrophages. Récemment, nous avons constaté que l'induction de l'hepcidine dans le foie par le lipopolysaccharide (LPS) dépend de la voie de signalisation médiée par le récepteur Toll-like 4 (TLR4). Le but de ce travail est d’identifier les ligands des TLRs capables d'induire l'hepcidine dans les macrophages et de déterminer l’exigence des TLRs dans l’induction de l’hepcidine et le développement d’hyposidérémie. En plus, nous voulons étudier l’effet de l’inflammation causée par les ligands des TLRs sur le taux de fer sérique, la production des cytokines et l'expression de l’hepcidine et de la ferroportine. D’autre part nous voulons étudier l’effet du taux du fer sur la production d’IL-6 macrophagique en réponse à la stimulation par le TLR4. D'abord, pour identifier les ligands des TLRs capables d'induire l'hepcidine dans les macrophages, nous avons traité les macrophages RAW 264.7 et les macrophages péritonéaux de souris (MPMs) avec différents ligands TLRs et on a mesuré l’expression de l'hepcidine par qRT-PCR. Nous avons observé que Pam3CSK4 (Pam), un ligand de TLR2/1; LPS, un ligand de TLR-4 et FSL1 un ligand de TLR2/6 induisent l’expression de l'hepcidine dans les cellules RAW 264.7 et les MPMs, contrairement au polyinosinic: polycytidylic acid (Poly I: C), un ligand de TLR3. De plus, LPS était capable de réprimer l’expression de la ferroportine dans les cellules RAW 264.7. Afin de mieux définir la nécessité des TLRs pour assurer cette expression, nous avons utilisé les souris TLR-2 knock-out et on a établi que l'expression de l'hepcidine dans les macrophages par LPS, Pam ou FSL1 est dépendante du TLR2. En accord avec les expériences in vitro, les études effectuées in vivo ont montré que LPS réprime l’expression de la ferroportine, ainsi que PolyI:C n’est pas capable de stimuler l'expression d'hepcidine hépatique, par contre il était efficace pour déclencher une hyposidérémie. Ensuite, on voulait déterminer la voie de signalisation utilisée dans l’induction de l’hepcidine dans les macrophages. Comme il y deux voies majeures connues pour la signalisation des TLRs : une dépendante et l’autre indépendante de la protéine MyD88, on a étudié l’expression de l’hepcidine dans les MPMs isolés des souris MyD88-/- et nous avons constaté que l'absence de signalisation MyD88 abolit l'induction de l'hepcidine déclenchée par Pam, LPS et FSL1. D’autre part, la stimulation avec du LPS induisait in vivo la production d’IL-6 et de TNF-alpha, et la stimulation d’IL-6 était renforcée in vitro par la présence du fer. Ces observations indiquent que l’expression de HAMP (Hepcidin Antimicrobial Peptide) dans les macrophages peut être régulée par différents TLRs, ce qui suggère que la production d'hepcidine macrophagique fait partie d'une réponse immunitaire activées par les TLRs.