996 resultados para Éthique appliquée
Resumo:
Depuis son émergence, il y a maintenant plus de vingt ans, le projet sociétal du Développement durable s’institutionnalise en France, notamment dans un contexte de priorisation de l’environnement. Le commerce équitable, défini institutionnellement comme contribuant au Développement durable, renouvelle alors son paradigme et semble se trouver à moment charnière de sa construction sociale, celui d’un « commerce durable ». L’intégration de ce nouveau cadre offrirait alors aux organisations du commerce équitable des opportunités notamment en termes de stratégies et pratiques environnementales. Cependant, cette évolution les expose aussi à un « écoloscepticisme » ambiant et pose clairement l’effectivité de leur logique originelle, anthropocentrique, celle d’avoir comme essence les producteurs défavorisés au Sud.
Resumo:
Les résultats du processus de normalisation du commerce équitable – demandé par les associations de consommateurs agréées – peuvent être approchés, au moins, de deux manières complémentaires. Une première chercherait à comprendre pourquoi les acteurs impliqués n’ont pas réussi à obtenir le consensus utile pour la publication d’une norme. La seconde argumentant que l’intentionnalité des acteurs est primordiale dans tout changement économique. Aussi, en mobilisant la théorie de la dépendance au sentier cet article montre comment l’association, désormais, établie entre le commerce équitable, et des « systèmes plus vastes et plus complexes » comme la responsabilité sociétale des entreprises et le développement durable a contribué, partiellement, à rendre improbable la normalisation du commerce équitable dans le court terme, en France (AFNOR) et à un niveau international (ISO).
Resumo:
Le rapprochement du commerce équitable vis à vis de la grande distribution et des entreprises transnationales, l’inscrit dans une approche éthique de l’économie. Or cette orientation fait courir le risque de la dénégation du politique et d'échouer dans son ambition sociale. De plus, en privatisant la régulation du travail et du commerce, les ONG tendent aussi à renforcer un courant qu’elle dénonce: une gouvernance par la société civile de nature néolibérale.
Resumo:
L’article décrit comment l’idée d’un commerce équitable Nord-Nord est envisagée dans le plus important réseau spécialisé français de commerce équitable, Artisans du Monde. Il montre que la promotion d’un commerce équitable avec des producteurs locaux est souvent pensée comme une extension naturelle du projet du mouvement, mais que cet objectif génère aussi parmi les militants d’Artisans du Monde des interrogations quant aux différences de situations socio-économiques entre les producteurs des pays du Sud et les producteurs locaux et quant à la nature de l’équité qu’ils souhaitent défendre. Ensuite, il explique que les circuits de commerce équitable d’Artisans du Monde et les circuits courts qui inspirent l’idée d’un commerce équitable local sont organisés de façons très différentes, en particulier parce que les premiers sont très intermédiés alors que les seconds établissent des relations directes entre producteurs et consommateurs.
Resumo:
Le partenariat demeure l’un des éléments les plus flous du commerce équitable. Il est composé de trois éléments principaux (un régime de représentation, des mécanismes de contrôle et des espaces de négociation) qui coexistent et prennent une importance variables selon les époques. À partir de l’étude du partenariat entre CIAP au Pérou, Solidarmonde et Artisans du Monde en France, le texte propose une analyse de ces différentes dimensions. D’une primauté des représentations et du contrôle dans le CÉ actuel, nous proposons une réflexion sur les outils qui permettraient de tabler sur les espaces de négociation présents dans cette relation. Inspiré de la littérature sur la coopération internationale et l’évaluation, l’idée d’outils de cogestion partenariale est proposée comme base principale à la relation entre acteurs du Nord et du Sud.
Resumo:
A partir de l’expérience gabonaise, cet article étudie la façon dont les injonctions internationales de « bonne gouvernance » se traduisent dans l’évolution de l’organisation et du fonctionnement du système de santé dans un pays en développement. Dans un premier temps, les termes de « gouvernance » et de « bonne gouvernance » sont définis sous en angle critique. Ensuite nous présentons l’influence de la thématique « gouvernance » dans l’évolution des discours et des politiques officielles de santé au Gabon. Enfin nous cherchons à montrer la déconnexion entre les discours et les réformes. La conclusion tire des enseignements concernant la pertinence de l’argumentaire de « bonne gouvernance ».
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Notre contexte pratique — nous enseignons à des élèves doués de cinquième année suivant le programme international — a grandement influencé la présente recherche. En effet, le Programme primaire international (Organisation du Baccalauréat International, 2007) propose un enseignement par thèmes transdisciplinaires, dont un s’intitulant Où nous nous situons dans l’espace et le temps. Aussi, nos élèves sont tenus de suivre le Programme de formation de l’école québécoise (MÉLS Ministère de l'Éducation du Loisir et du Sport, 2001) avec le développement, notamment, de la compétence Résoudre une situation-problème et l’introduction d’une nouveauté : les repères culturels. Après une revue de la littérature, l’histoire des mathématiques nous semble tout indiquée. Toutefois, il existe peu de ressources pédagogiques pour les enseignants du primaire. Nous proposons donc d’en créer, nous appuyant sur l’approche constructiviste, approche prônée par nos deux programmes d’études (OBI et MÉLS). Nous relevons donc les avantages à intégrer l’histoire des mathématiques pour les élèves (intérêt et motivation accrus, changement dans leur façon de percevoir les mathématiques et amélioration de leurs apprentissages et de leur compréhension des mathématiques). Nous soulignons également les difficultés à introduire une approche historique à l’enseignement des mathématiques et proposons diverses façons de le faire. Puis, les concepts mathématiques à l’étude, à savoir l’arithmétique, et la numération, sont définis et nous voyons leur importance dans le programme de mathématiques du primaire. Nous décrivons ensuite les six systèmes de numération retenus (sumérien, égyptien, babylonien, chinois, romain et maya) ainsi que notre système actuel : le système indo-arabe. Enfin, nous abordons les difficultés que certaines pratiques des enseignants ou des manuels scolaires posent aux élèves en numération. Nous situons ensuite notre étude au sein de la recherche en sciences de l’éducation en nous attardant à la recherche appliquée ou dite pédagogique et plus particulièrement aux apports des recherches menées par des praticiens (un rapprochement entre la recherche et la pratique, une amélioration de l’enseignement et/ou de l’apprentissage, une réflexion de l’intérieur sur la pratique enseignante et une meilleure connaissance du milieu). Aussi, nous exposons les risques de biais qu’il est possible de rencontrer dans une recherche pédagogique, et ce, pour mieux les éviter. Nous enchaînons avec une description de nos outils de collecte de données et rappelons les exigences de la rigueur scientifique. Ce n’est qu’ensuite que nous décrivons notre séquence d’enseignement/apprentissage en détaillant chacune des activités. Ces activités consistent notamment à découvrir comment différents systèmes de numération fonctionnent (à l’aide de feuilles de travail et de notations anciennes), puis comment ces mêmes peuples effectuaient leurs additions et leurs soustractions et finalement, comment ils effectuaient les multiplications et les divisions. Enfin, nous analysons nos données à partir de notre journal de bord quotidien bonifié par les enregistrements vidéo, les affiches des élèves, les réponses aux tests de compréhension et au questionnaire d’appréciation. Notre étude nous amène à conclure à la pertinence de cette séquence pour notre milieu : l’intérêt et la motivation suscités, la perception des mathématiques et les apprentissages réalisés. Nous revenons également sur le constructivisme et une dimension non prévue : le développement de la communication mathématique.
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Les résultats du processus de normalisation du commerce équitable – demandé par les associations de consommateurs agréées – peuvent être approchés, au moins, de deux manières complémentaires. Une première chercherait à comprendre pourquoi les acteurs impliqués n’ont pas réussi à obtenir le consensus utile pour la publication d’une norme. La seconde argumentant que l’intentionnalité des acteurs est primordiale dans tout changement économique. Aussi, en mobilisant la théorie de la dépendance au sentier cet article montre comment l’association, désormais, établie entre le commerce équitable, et des « systèmes plus vastes et plus complexes » comme la responsabilité sociétale des entreprises et le développement durable a contribué, partiellement, à rendre improbable la normalisation du commerce équitable dans le court terme, en France (AFNOR) et à un niveau international (ISO).
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Cette thèse s’intéresse à l’alimentaire en tant que discours social du « comment se nourrir » se déployant avec une intensité toute particulière dans l’actuel régime de gouvernement de libéralisme avancé. Elle propose plus spécifiquement de penser cette intensité comme participant d’un investissement de l’alimentaire en tant que lieu privilégié dans la production d’articulations du rapport à soi (relation éthique à soi-même) et d’une citoyenneté comprise en termes d’abord normatifs. Cette productivité est mise en évidence par le biais d’une « exemplification » des ensembles de régularités des discours alimentaires contemporains qui s’avèrent les plus saillants quant à leurs effets de citoyenneté. Le premier de ces ensembles est abordé à travers une analyse de la campagne de réforme des habitudes alimentaires des écoliers britanniques Jamie’s School Dinners, considérée en tant qu’exemple des discours tendant aujourd’hui à faire d’une certaine culture alimentaire un enjeu de citoyenneté culturelle. Je m’intéresse dans un second temps aux dynamiques qui s’opèrent dans Mettez le Québec dans votre assiette!, une campagne sociétale en faveur de l’alimentation locale qui m’apparait exemplaire de la production contemporaine du « manger local » en tant qu’expression de confiance et de patriotisme envers une nation définie par ses terroirs. Finalement, je me tourne vers l’ouvrage In Defense of Food. An Eater’s Manifesto de Michael Pollan en tant qu’exemple de coprésence des deux ensembles de régularités discutés précédemment et d’un troisième (le « nutritionnisme ») que j’analyse en tant que réarticulation du discours de devoir de santé de la science nutritionnelle. Cette thèse se conclut sur une discussion de quelques-uns des effets de cette coprésence et des citoyennetés alimentaires qu’elle informe. Je m’attarde plus spécifiquement à la politique des plaisirs qui traverse ces citoyennetés, une politique se déployant sur le mode de l’anxiété (face à un futur incertain) et selon une logique générationnelle par laquelle les espaces de la nation et de la famille se trouvent simultanément investis.
Resumo:
Cette étude s’applique à démontrer comment la relation documentaire peut être mise à l’épreuve du pardon dans deux films mettant en scène des bourreaux. Comment est-il possible de concevoir un dispositif cinématographique éthique avec la participation d’anciens criminels ? C’est la question que se sont posée les cinéastes Avi Mograbi et Rithy Panh. L’objectif de cette recherche sera de relever comment le pardon intervient explicitement, mais aussi implicitement, dans la forme documentaire. Il s’agira de comprendre comment ces films, "Z32" et "S21 la machine de mort khmère rouge", s’élaborent socialement, politiquement et esthétiquement du tournage à la réception, afin de cerner le potentiel symbolique et performatif du pardon dans la reconstruction du lien avec autrui.