1000 resultados para Espace et temps au cinéma
Resumo:
Le cancer épithélial des ovaires (CEO) est classifié en sous types histopathologiques identifiés tel que séreux, endométrioide, à cellules claires et mucineux. Une analyse génétique réalisée au niveau moléculaire a suggéré un rôle pour des gènes suppresseurs de tumeur localisés sur le bras court du chromosome 3p21.3 dans la pathogénèse du CEO de type séreux. Notre objectif était d’évaluer le profil d’expression de HYAL-1, localisé dans cette même région, dans les différents sous types du CEO, et de vérifier une éventuelle corrélation avec l’expression des récepteurs d’hormones stéroïdiennes. Pour se faire, nous avons analysé par RT-PCR quantitative l’expression de l’ARNm de HYAL-1, des récepteurs d’estrogène (ER-α et ER-β) et du récepteur de progestérone (PR) dans des échantillons de tissus extraits de tumeurs du CEO provenant de deux cohortes indépendantes et dans des lignées cellulaires. Nous avons également réalisé des analyses bioinformatiques à partir de l’expression de ces gènes en ayant recours à une base de données de microarray disponible en ligne et ouverte au public. Par la suite, nous avons mesuré l’activité enzymatique de HYAL-1 dans des lignées cellulaires du CEO et dans des échantillons de plasma. Nos résultats ont montré que l’expression de l’ARNm de HYAL-1 était élevée dans le type à cellules claires et mucineux mais non dans les types séreux et endométrioides, autant dans les échantillons sains que de ceux provenant de tumeurs bénignes. De façon cohérente, le niveau d’ARNm et l’activité enzymatique de HYAL-1 étaient élevés dans les lignées cellulaires à cellules claires et mucineuses. Nous avons aussi démontré qu’il y avait une corrélation inverse entre les niveaux de l’ARNm de HYAL-1 et ceux d’ER-α et PR dans les échantillons de tissus de CEO du type mucineux et à cellules claires. De façon similaire, nous avons noté que l’activité de HYAL-1 était élevée dans le plasma de ces mêmes patients. En conséquence nos travaux proposent HYAL-1 en tant que biomarqueur potentiel dans le cas des CEO de type à cellules claires et mucineux présentant un faible niveau d’expression d’ER-α et PR.
Resumo:
Ce mémoire propose une lecture du recueil Art poétique d’Eugène Guillevic. Art poétique parait non seulement comme un livre où se développe la recherche patiente d’un principe directeur, mais aussi comme « l’autoportrait d’un poète qui continue de s’interroger et d’interroger le monde » . Le poète a résumé cette double interrogation dans l’expression suivante : « Écrire, c’est bien s’inscrire dans le monde » . Cette formule inspire notre réflexion sur le recueil et nous amène à avancer l’hypothèse suivante : la reprise du genre de l’art poétique par Guillevic s’accorde paradoxalement avec sa recherche d’une expression subjective et singulière. Au cours de ce mémoire, nous allons examiner les relations que le sujet guillevicien entretient avec l’espace et le temps. Nous allons chercher notre appui dans la théorie du discours, telle que la décrit Émile Benveniste.
Resumo:
Le but de cette étude est de proposer une conceptualisation de la résilience familiale en tant que processus au sein de couples dont la femme est atteinte d’insuffisance cardiaque (IC). D’année en année, cette maladie cardiaque chronique afflige non seulement un nombre croissant de femmes mais tout autant leur partenaire de vie. On reconnaît de plus en plus que l’expérience de ces femmes diffère de celle de leur homologue masculin. Quant à l’expérience de leur conjoint et celle en tant que couple, ces dernières demeurent toujours peu abordées dans les écrits. Les couples constitués d’une femme atteinte d’IC doivent affronter de nombreuses difficultés inhérentes à l’IC qui peuvent les amener à faire preuve de résilience familiale. Pour atteindre notre but, une approche par théorisation ancrée a été utilisée. Les données ont été recueillies à l’aide d’entrevues semi-structurées conjointes auprès de 12 couples, d’un questionnaire sociodémographique et de notes de terrain. L’analyse de ces données a permis de proposer cette conceptualisation de la résilience familiale en tant que processus au sein de ces couples. L’IC au féminin est une expérience empreinte de difficultés pour les couples. Ils font face au choc encouru par le lot de bouleversements liés à l’IC qui perturbent à jamais tous les plans de leur vie conjugale. Devant une telle situation de vie aussi déplorable, ils sont appelés à s’engager dans un processus de résilience familiale. Cet engagement s’actualise par la mise en place de maintes stratégies en majorité conjugales, sauf quelques-unes qui relèvent de chaque membre des couples, et ce, selon deux perspectives de la résilience familiale. En effet, les couples rebondissent, selon la première perspective, en faisant face au choc de façons individuelle et conjugale. Sur le plan individuel, les membres tendent à se prendre en main tout en conservant leur propre autonomie. Pour ce faire, les femmes atteintes d’IC prennent, d’une part, le contrôle de l’IC et de ses manifestations et, d’autre part, soin de leur personne sur les plans physique et psychologique. Prendre ce contrôle devient possible en gérant leur énergie, en découvrant des astuces et en se responsabilisant face à l’IC. Parallèlement, les conjoints privilégient une seule et unique stratégie individuelle, soit de s’ouvrir à d’autres façons de faire. Quant au plan conjugal, les couples tendent à préserver à la fois leur autonomie et leur complicité à travers l’expérience liée à l’IC. A cette fin, ils font place à la réciprocité du prendre soin et s’activent à solidifier et réitérer leur autonomie conjugale en s’ouvrant aux ressources familiales et communautaires et en dosant la place laissée à l’IC au sein de leur couple. Selon la seconde perspective, les couples rebondissent, cette fois, en ressortant grandis, et ce, en découvrant de nouvelles façons de faire et en donnant un sens à leur expérience liée à l’IC. Pour découvrir de nouvelles façons, ils s’adonnent ensemble à des activités revisitées. Pour donner un sens, ils relativisent les bouleversements liés à l’IC qui s’actualisent par ces stratégies : dresser un bilan de la vie conjugale/familiale, adopter des leitmotive propices, et finalement, découvrir et se laisser porter par la magie des petits-enfants. À notre avis, les connaissances qui découlent de cette conceptualisation de la résilience familiale en tant que processus contribuent à l’avancement de connaissances dans le domaine des sciences infirmières. Cet apport de connaissances devrait aider les infirmières à mieux comprendre ce processus et contribuer au renouvellement des pratiques infirmières auprès des couples aux prises avec l’IC au féminin.
Resumo:
Le théâtre populaire, concept chargé des finalités les plus diverses, sʼinstitutionnalise en France à la fin du XIXe siècle, notamment grâce à Romain Rolland, Firmin Gémier, Jacques Copeau, Jean Vilar et Bertolt Brecht. De nombreuses traces de ces réflexions et pratiques se retrouvent dans le théâtre québécois, et tout au long de lʼexistence du Théâtre Populaire du Québec (TPQ) dont ce mémoire veut dégager les principaux éléments de la pensée artistique des directions successives pour les confronter aux programmes établis de la fondation de la compagnie en 1963 jusquʼen 1976. Au cours de cette période qui sʼest avérée déterminante dans le domaine de la production théâtrale au Québec, lʼhistoire de la compagnie met en lumière les paradoxes et les apories du concept de théâtre populaire.
Resumo:
Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.
Resumo:
Ce mémoire propose d’aborder la relation entre le chez-soi et la construction des identités géographiques. Plus précisément, il s’agit de se pencher sur l’importance que revêt cette dimension intime et familière de l’habitat dans la part des identités qui mobilise les lieux, territoires et paysages comme référents. S’interroger à cet égard s’avère d’autant plus pertinent aujourd’hui, dans un contexte de fragmentation socio-spatiale à l’échelle urbaine et de prolifération d’enclaves résidentielles qui témoignent d’un enfermement et d’une introversion de l’habitat. Nous abordons la question à travers le cas du projet AlphaVille São Paulo (Brésil), un large développement résidentiel composé de plusieurs communautés fermées. Les entretiens semi-directifs réalisés auprès de onze habitants de ce projet permettent de confirmer l’importance du chez-soi dans leur construction identitaire. En effet, le chez-soi en communauté fermée représente l’aboutissement d’un parcours géographique et permet au regard des habitants rencontrés une expérience de l’espace résidentiel qui s’approche de celle qu’ils ont connue au cours de l’enfance et qu’ils ont perdue à mesure que la ville s’est transformée en un milieu de plus en plus hostile. Ainsi, il leur permet dans une certaine mesure de revivre un idéal perdu. Néanmoins, habiter en communauté fermée contraint les territorialités : au sein de la métropole, le chez-soi fait figure de refuge. Il n’en demeure pas moins que les réponses des résidents révèlent une conscience que leur choix d’habitat constitue en quelque sorte une fuite de la réalité. Ainsi, ils entretiennent à l’égard de leur milieu de vie une relation qui oscille entre illusion et désillusion.
Resumo:
L’hypertrophie du ventricule gauche (HVG) est un processus adaptif et compensatoire qui se développe conséquemment à l’hypertension artérielle pour s’opposer à l’élévation chronique de la pression artérielle. L’HVG est caractérisée par une hypertrophie des cardiomyocytes suite à l’augmentation de la synthèse d’ADN, une prolifération des fibroblastes, une augmentation du dépôt de collagène et une altération de la matrice extracellulaire (MEC). Ces changements génèrent des troubles de relaxation et mènent au dysfonctionnement diastolique, ce qui diminue la performance cardiaque. La suractivité du système nerveux sympathique (SNS) joue un rôle essentiel dans le développement de l’hypertension artérielle et de l’HVG à cause de la libération excessive des catécholamines et de leurs effets sur la sécrétion des cytokines pro-inflammatoires et sur les différentes voies de signalisation hypertrophiques et prolifératives. Le traitement antihypertenseur avec de la moxonidine, un composé sympatholytique d’action centrale, permet une régression de l’HVG suite à une réduction soutenue de la synthèse d'ADN et d’une stimulation transitoire de la fragmentation de l'ADN qui se produit au début du traitement. En raison de l’interaction entre l’HVG, les cytokines inflammatoires, le SNS et leurs effets sur les protéines de signalisation hypertrophiques, l’objectif de cette étude est de détecter dans un modèle animal d’hypertension artérielle et d’HVG, les différentes voies de signalisation associées à la régression de l’HVG et à la performance cardiaque. Des rats spontanément hypertendus (SHR, 12 semaines) ont reçu de la moxonidine à 0, 100 et 400 µg/kg/h, pour une période de 1 et 4 semaines, via des mini-pompes osmotiques implantées d’une façon sous-cutanée. Après 4 semaines de traitement, la performance cardiaque a été mesurée par écho-doppler. Les rats ont ensuite été euthanasiés, le sang a été recueilli pour mesurer les concentrations des cytokines plasmatiques et les cœurs ont été prélevés pour la détermination histologique du dépôt de collagène et de l'expression des protéines de signalisation dans le ventricule gauche. Le traitement de 4 semaines n’a eu aucun effet sur les paramètres systoliques mais a permis d’améliorer les paramètres diastoliques ainsi que la performance cardiaque globale. Par rapport au véhicule, la moxonidine (400 µg/kg/h) a permis d’augmenter transitoirement la concentration plasmatique de l’IL-1β après une semaine et de réduire la masse ventriculaire gauche. De même, on a observé une diminution du dépôt de collagène et des concentrations plasmatiques des cytokines IL-6 et TNF-α, ainsi qu’une diminution de la phosphorylation de p38 et d’Akt dans le ventricule gauche après 1 et 4 semaines de traitement, et cela avec une réduction de la pression artérielle et de la fréquence cardiaque. Fait intéressant, les effets anti-hypertrophiques, anti-fibrotiques et anti-inflammatoires de la moxonidine ont pu être observés avec la dose sous-hypotensive (100 µg/kg/h). Ces résultats suggèrent des effets cardiovasculaires bénéfiques de la moxonidine associés à une amélioration de la performance cardiaque, une régulation de l'inflammation en diminuant les niveaux plasmatiques des cytokines pro-inflammatoires ainsi qu’en inhibant la MAPK p38 et Akt, et nous permettent de suggérer que, outre l'inhibition du SNS, moxonidine peut agir sur des sites périphériques.
Resumo:
Nous avons récemment démontré que les espèces réactives oxygénées induisent une augmentation de l’expression des protéines Giα dans les cellules du muscle lisse vasculaire (CMLV) provenant d’aortes de rats spontanément hypertendus (SHR, de l’anglais spontaneously hypertensive rats). La présente étude a pour but d’étudier les effets du peroxyde d’hydrogène (H2O2), un oxydant qui induit le stress oxydatif, sur l’expression de Giα et sur l’activité de l’adénylate cyclase, et d’explorer les voies de signalisation sous-jacentes responsables de cette réponse. Nos résultats montrent que H2O2 induit une augmentation de l’expression des protéines Giα-2 et Giα-3 de manière dose- et temps-dépendante avec une augmentation maximale de 40-50% à 100 µM après 1 heure, sans affecter l’expression de Gsα. L’expression des protéines Giα a été maintenue au niveau normal en presence de AG 1478, AG1295, PD98059 et la wortmannine, des inhibiteurs d’EGF-R (de l’anglais epidermal growth factor receptor), PDGFR-β (de l’anglais platelet-derived growth factor receptor β), de la voie de signalisation ras-ERK1/2 (de l’anglais extracellular regulated kinase1/2), et de la voie de la PI3Kinase-AKT (de l’anglais phosphatidyl inositol-3 kinase), respectivement. En outre, le traitement des CMLV avec H2O2 a induit une augmentation du degré de phosphorylation d’EGF-R, PDGF-R, ERK1/2 et AKT; et cette expression a été maintenue au niveau témoin par leurs inhibiteurs respectifs. Les inhibiteurs d’EGF-R et PDGF-R ont aussi induit une diminution du degré de phosphorylation de ERK1/2, et AKT/PKB. En outre, la transfection des cellules avec le siRNA (de l’anglais, small interfering ribonucleic acid) de EGF-R et PDGFR-β a atténué la surexpression des protéines Giα-2 et Giα-3 induite par le traitement au H2O2. La surexpression des protéines Giα induite par H2O2 a été corrélée avec une augmentation de la fonction de la protéine Giα. L’inhibition de l’activité de l’adénylate cyclase par de faibles concentrations de GTPγS après stimulation par la forskoline a augmenté de 20% dans les cellules traitées au H2O2. En outre, le traitement des CMLV au H2O2 a aussi accru l’inhibition de l’activité de l’adénylate cyclase par les hormones inhibitrices telles que l’angiotensine II, oxotrémorine et C-ANP4-23. D’autre part, la stimulation de l’adénylate cyclase induite par GTPγS, glucagon, isoprotérénol, forskoline, et le fluorure de sodium (NaF) a été atténuée de façon significative dans les cellules traitées au H2O2. Ces résultats suggèrent que H2O2 induit la surexpression des protéines Giα-2 and Giα-3 via la transactivation des récepteurs des facteurs de croissance EGF-R, PDGFR-β et l’activation des voies de signalisation ras-ERK1/2 et PI3K-AKT Mot-cles: Protéines Giα, peroxyde d’hydrogène, stress oxydant, récepteurs des facteurs de croissance, MAP kinases, adénylate cyclase, hypertension
Resumo:
Thèse réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'Université d'Auvergne en France
Resumo:
Les graphiques ont été réalisés avec le logiciel Alceste.
Resumo:
Cette thèse est constituée de trois articles. Le premier étudie le problème de pollution globale dans un contexte environnemental incertain. Le deuxième article traite des accords internationaux sur l'environnement. Le troisième article montre comment la libéralisation du commerce peut affecter le bien-être et les taxes sur la pollution dans un monde où les pays sont hétérogènes et la pollution transfrontalière. Dans le premier article, je considère un monde dans lequel les pays souffrent uniformément de la pollution globale. Ils font face à une menace continuelle de voir les dommages causés par cette pollution globale s'accroître subitement de façon irréversible. Je caractérise le niveau des émissions, le stock de pollution, et le niveau de bien-être actualisé en équilibres coopératif et non-coopératif. L'objectif visé est d'analyser l'impact de ce type d'incertitude sur les équilibres issus des comportements stratégiques des pays. Je trouve que cette incertitude peut avoir un effet significatif sur ces équilibres. Les pays réduisent leurs émissions pour atténuer leur exposition à cette menace. Plus la menace est grande, plus les pays ajustent leurs émissions afin de réduire le stock de pollution globale. Cependant, en dépit du fait que cette incertitude diminue le bien-être net initial, elle peut à long terme avoir un effet net positif sur le bien-être. Le deuxième article étend la classe des modèles dynamiques standards traitant des accords internationaux sur l'environnement au cas où la durée de la période d'engagement à de tels accords est un paramètre que l'on peut varier de façon exogène. Nous y étudions les évolutions dans le temps de la taille des coalitions stables, du stock de pollution et du taux d'émissions en fonction de la durée d'engagement. Nous montrons que la longueur de la période d'engagement a un effet très significatif sur l'équilibre. Trois intervalles de durée d'engagement sont identifiés pour lesquels l'équilibre et sa dynamique diffèrent considérablement. Alors que pour des durées de la période d'engagement très longues on observe des coalitions stables constituées d'un petit nombre de pays, si ces durées sont suffisamment courtes on peut observer un niveau de coopération élevé. Les durées d'engagement entre ces deux extrêmes sont caractérisées par une relation inverse entre la durée de la période d'engagement et la taille des coalitions stables. Ces faits portent à croire qu'il faudrait accorder une attention toute particulière au choix de la durée d'engagement lors de l'élaboration de tels accords internationaux. Le troisième article s'inscrit dans un contexte où les activités de production des pays potentiellement hétérogènes génèrent de la pollution qui peut traverser les frontières et nuire au bien-être des pays impliqués. Dans chacun de ces pays, l'état impose des taxes sur la pollution aux firmes polluantes et des tarifs à l'importation afin de corriger cette distorsion. Ce papier a pour but d'évaluer les effets que pourrait avoir une diminution des tarifs douaniers sur la production, les taxes sur la pollution et le bien-être de ces pays. La littérature existante a étudié ce problème, mais seulement dans le cadre d'un commerce bilatéral entre pays identiques. Cet article fournit un cadre d'analyse plus réaliste dans lequel les pays ne seront pas nécessairement identiques et où le commerce pourra être multilatéral. Il devient alors possible de mettre en évidence le biais introduit en négligeant ces deux facteurs. Dans ce nouveau contexte, je montre qu'une réduction des tarifs d'importation n'augmente pas nécessairement la production; elle peut aussi nuire au bien-être, même si la pollution est purement locale.
Resumo:
En octobre 2005, l’assemblée générale de l’UNESCO adoptait la Déclaration universelle sur la bioéthique et les droits de l’Homme. Le projet de cette déclaration a été élaboré par le Comité international de bioéthique (CIB) en consultation avec le Comité intergouvernemental de bioéthique (CIGB), les États membres, le comité interagences des Nations Unies, des organisations gouvernementales et non gouvernementales, des comités nationaux d’éthiques et de multiples acteurs impliqués en bioéthique. Cette déclaration faisait suite à deux autres textes sur le même sujet produits en 1997 et 2003, la Déclaration sur le génome humain et les droits de l’homme et la Déclaration internationale sur les données génétiques humaines. Les nouvelles questions éthiques que suscitaient les développements scientifiques et technologiques ainsi que la mondialisation de la recherche avaient incité cette organisation à se doter d’instruments normatifs pouvant rejoindre toutes les nations. Seule organisation mondiale ayant une vocation spécifique en éthique, l’UNESCO a voulu par cette dernière déclaration fournir à ses États membres un cadre normatif susceptible de les aider à formuler des lois et des lignes directrices. Ayant été impliquée, à titre de présidente du Comité international de bioéthique dans la préparation de cet instrument nous nous sommes posée la question suivante : Dans un contexte de mondialisation, une bioéthique qui vise le bien commun universel est-elle possible au sein de la diversité et de la pluralité culturelle des nations ? L’exemple de l’élaboration de la déclaration universelle sur la bioéthique et les droits de l’homme de l’UNESCO. Le bien commun étant un concept fréquemment mentionné et à peu près jamais défini clairement, il nous a semblé intéressant d’en retracer l’histoire et de dégager un cadre conceptuel qui a ensuite servi à étudier et dégager le sens donné à ces concepts dans la préparation de la déclaration. Un premier chapitre présente le contexte et la problématique. Le deuxième chapitre présente la revue de la littérature et la définition des concepts ainsi que le cadre conceptuel. Le troisième chapitre présente le cadre théorique et les données analysées et la méthodologie. Le quatrième chapitre présente l’analyse détaillée des différentes étapes de l’élaboration de la déclaration. Le cinquième chapitre présente la portée et les limites de la thèse et le cinquième chapitre la conclusion. Nous concluons que la déclaration en ayant utilisé une méthode de consultation, de délibération et de consensus pragmatique, offre un texte avec une vision d’un bien commun universel susceptible d’être utilisé dans tous les contextes culturels et par toutes les nations, spécialement les nations en développement. En effet, son architecture flexible et son souci de ne pas catégoriser les principes, mais plutôt de les utiliser en complémentarité les uns avec les autres, en fait un texte souple et adaptable au plan mondial. Ce travail pourra aussi contribuer à enrichir la réflexion et l’action des organisations internationales impliquées en bioéthique. Il pourra aussi inspirer les recherches actuelles en sciences politiques et en droit alors que sont explorés de nouveaux modèles de gouvernance et de nouvelles façons de construire les législations et les normes et de faire face aux défis actuels qui se posent aux droits de l’homme.
Resumo:
Nous nous pencherons sur les travaux du jeune Heidegger afin de montrer que, s’il affirme dans Être et temps que les animaux ne sont ni chose, ni Dasein, mais participent d’un énigmatique mode d’être propre – le « simplement vivant », ce qui ne fait « rien de plus que vivre » – cela constitue un revirement dans la pensée heideggérienne. Dans les travaux qui préparent la rédaction de Sein und Zeit, l'animal avait toujours été considéré comme un être qui a un monde, comme un être auquel nous devons reconnaître le mode d'être du Dasein. En s’appuyant sur l’interprétation phénoménologique d’Aristote qu’il présente dans ses cours de 1919 à 1926, nous montrerons que les structures fondamentales de l'être-au-monde ont été élaborées sur le fond des capacités propres à la vie animale que sont l’affection (pathos), la perception (aisthēsis), la discrimination (krinein), la mobilité (kinesis kata topon) et le désir (orexis).
Resumo:
On se propose dans cet article d'explorer les relations ambivalentes qu'entretient le commerce équitable avec le marché. L'objectif de développement mis en avant par le commerce équitable est-il compromis ou favorisé par le recours aux échanges marchands ? Les militants du commerce équitable semblent très critiques envers la logique marchande, le marché étant souvent présenté comme un lieu d'exploitation des faibles par les forts. En même temps, le principe même du commerce équitable fait de l'échange marchand le moyen privilégié pour sortir de la pauvreté, de l'assistance, et accéder au développement. En fait, le commerce équitable nous permet de redécouvrir différentes formes de marché.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.