199 resultados para Catégorie
Resumo:
Dans ma thèse doctorale, j'étudie trois facteurs importants qui caractérisent le commerce international : les différences technologiques entre les pays, les barrières à l'entrée sous la forme de coûts fixes et la migration internationale. Le premier chapitre analyse si les différences technologiques entre les pays peuvent expliquer la spécialisation dans le commerce international entre les pays. Pour mesurer le niveau de la spécialisation, je calcule les index de concentration pour la valeur des importations et des exportations et décompose la concentration totale dans la marge de produits extensive (nombre de produits commercialisés) et la marge de produits intensive (volume de produits commercialisés). En utilisant des données commerciales détaillées au niveau du produit dans 160 pays, mes résultats montrent que les exportations sont plus concentrées que les importations, que la spécialisation se produit principalement au niveau de la marge intensive du produit, et que les économies plus grandes disposent d'importations et d'exportations plus diversifiées, car elles commercialisent plus de produits. Compte tenu de ces faits, j'évalue la capacité du modèle Eaton-Kortum, le principal modèle de la théorie ricardienne du commerce, pour représenter les preuves empiriques. Les résultats montrent que la spécialisation à travers l'avantage comparatif induit par les différences de technologie peut expliquer les faits qualitatifs et quantitatifs. De plus, j'évalue le rôle des déterminants clés de la spécialisation : le degré de l'avantage comparatif, l'élasticité de la substitution et la géographie. Une implication de ces résultats est qu'il est important d’évaluer jusqu'à quel point la volatilité de production mesurée par la volatilité du PIB est motivée par la spécialisation des exportations et des importations. Étant donné le compromis entre l'ouverture du commerce et la volatilité de production, les bénéfices tirés du commerce peuvent s'avérer plus faibles que ceux estimés précédemment. Par conséquent, les politiques commerciales alternatives telles que l'ouverture graduelle au commerce combinée à la diversification de la production pour réduire la concentration de l'exportation peuvent se révéler être une meilleure stratégie que l'approche du laissez-faire. En utilisant la relation entre la taille du marché et l’entrée de firmes et produits, le deuxième chapitre évalue si les barrières à l'entrée sous la forme de coûts fixes à exporter sont au niveau de la firme ou au niveau du produit. Si les coûts fixes se trouvent au niveau de la firme, la firme multiproduits a un avantage de coût de production par rapport aux autres firmes parce qu’elles peuvent diviser les coûts fixes sur plusieurs produits. Dans ce cas, le commerce international sera caractérisé par peu de firmes qui exportent beaucoup des produits. Si les coûts fixes sont au niveau du produit, l’entrée d’un produit est associée avec l’entrée de plusieurs firmes. La raison est qu’une fois que la première firme entre et paye les coûts fixes du produit, elle crée un effet d’entrainement qui réduit les coûts fixes pour des firmes rivales. Dans ce cas, le commerce international sera caractérisé par plusieurs firmes qui vendent des variétés différentes du même produit. En utilisant des données détaillées provenant de 40 pays exportateurs à travers 180 marchés de destination, mes résultats montrent que les barrières à l'entrée se trouvent principalement au niveau du produit. Un marché plus large favorise l'expansion d'un plus grand nombre d’entreprises au sein d'une catégorie de produit plutôt que de permettre aux entreprises produisant plusieurs produits de croître dans une gamme de produits. En regardant la différence entre le nombre d'exportateurs au sein d'une catégorie de produit dans des destinations données, je trouve que le taux d'entrée de firmes augmente significativement après qu'un produit entre la première fois dans le marché. J'en déduis donc que le premier entrant réduit les coûts fixes pour les firmes suivantes. Mes recherches démontrent également que malgré une plus grande compétition sur le marché du produit, les entreprises disposent de revenus d'exportation supérieurs et sont plus susceptibles de rester sur les marchés internationaux. Ces résultats sont cohérents avec l’hypothèse que l’effet d’entrainement incite l'entrée de firmes rivales et permettent aux entreprises de produire à plus grande échelle. Cette recherche dévoile un nombre de conclusions importantes. D'abord, les politiques commerciales encouragent l'entrée de nouveaux produits, par exemple, en promouvant des produits dans les marchés de destination entraînant ainsi des retombées qui se traduiront par un taux de participation plus élevé de l'entreprise et une croissance de l'exportation. Deuxièmement, les consommateurs du pays importateur peuvent bénéficier de prix plus bas pour le produit en réduisant les barrières techniques du commerce. Troisièmement, lorsque l'on effectue des expérimentations politiques sous la forme de réduction des coûts commerciaux, il est de coutume de considérer uniquement une baisse des coûts marginaux et d'évaluer les répercussions sur le bien-être du consommateur. Cependant, un élément important des accords commerciaux est la réduction des barrières techniques au commerce grâce à la négociation de normes communes pour un produit. Négliger l'existence des barrières à l'entrée et les conséquences des réaffectations de l'industrie affaiblit l'impact des réformes commerciales. Le troisième chapitre prend en compte le rôle de l'information dans la facilitation du commerce international. Les immigrants réduisent les coûts de transaction dans le commerce international en fournissant des informations sur les possibilités d'échange avec leur pays d'origine. En utilisant des données géographiques détaillées sur l'immigration et les importations aux États-Unis entre 1970 et 2005, je quantifie l'incidence qu'ont les nouveaux immigrants sur la demande pour les importations de biens intermédiaires aux États-Unis. Pour établir le lien cause à effet entre le commerce et la migration, j’exploite l'important afflux d'immigrants d'Amérique centrale après l'ouragan Mitch. Les résultats montrent que l'augmentation de dix pour cent d'immigrants a fait croître la demande pour les importations de biens intermédiaires de 1,5 pour cent. Mes résultats sont robustes aux problèmes de la causalité inverse ou la décision d’émigrer est causée par des opportunités de faire du commerce.
Resumo:
L’adoption de la Charte des Nations unies à San Francisco le 26 juin 1945 et son entrée en vigueur le 24 octobre de la même année a matérialisé la volonté des Vainqueurs d'éviter une troisième catastrophe à l'humanité. Cet accord a eu la bénédiction des super puissances et scellé la naissance d'une Organisation à vocation universelle qu'est l'ONU, susceptible de faire asseoir des instruments nécessaires pour pallier aux manquements de la défunte SDN. Aussi, cette naissance est perçue comme le parachèvement de l'évolution du droit international, ayant édifié, non seulement une structure plus solide, mais aussi capable d'encadrer l'usage de la force par les États. Par ailleurs, cet encadrement est confié au Conseil de sécurité, son organe le plus puissant dans la mesure où il est le seul compétent pour constater la violation par un État de ses obligations en matière de respect de la paix et de la sécurité internationales. Cependant, les critiques sont de plus en plus nombreuses à son égard. En effet, dans son ossature actuelle, il paraît obsolète, car n'est pas en phase avec les réalités géopolitiques et économiques du moment. Depuis plusieurs décennies, des propositions de réforme ont été suggérées sans pourtant parvenir à un consensus au niveau des États membres, plus spécifiquement des membres permanents du Conseil. Ce mémoire vise premièrement à effectuer une analyse des différentes propositions puis deuxièmement à présenter une formule de « sortie de crise ». Des deux types de propositions que nous avons identifiés (Groupes de travail vs Groupes d'États), à l'exception de l'équipe « Unis pour le consensus », préconisent à l'unanimité la modification de la catégorie des membres permanents. Notre analyse révèle que les principaux privilèges, à savoir le droit de véto et la permanence au Conseil de sécurité constituent les points d'achoppement de la réforme dans la mesure où leur modification reviendrait à amoindrir les prérogatives du club des cinq. À cet effet, nous courons le risque de nous engager dans une solution utopique. Pour notre part, nous avons souhaité la solution de la « régionalisation de la sécurité », c'est-à-dire, confier les opérations de maintien de la paix et de la sécurité de chacune des régions du monde à son organisation correspondante. Pour y parvenir, il est primordial de renforcer les pouvoirs desdites organisations, afin d'avoir toute l'autonomie nécessaire dans les prises de décisions dans la prévention et la gestion de ces différents conflits régionaux.
Resumo:
Thèse réalisée en co-tutelle à l'Université de Montréal et de Paris Sud
Resumo:
Les impacts des changements climatiques sur la population sont nombreux et ont été relativement bien documentés, ce qui n’est pas le cas de ces impacts sur la santé et la sécurité des travailleurs. L’objectif de cette thèse est de documenter les effets négatifs des changements climatiques sur la santé et la sécurité des travailleurs dans une région d’un pays industrialisé à climat tempéré, comme le Québec. Pour y arriver, deux approches ont été utilisées : a) les dangers et les effets sanitaires ont été identifiés par une revue de la littérature validée par des experts nationaux et internationaux, et des priorités de recherche ont été établies à l’aide d’une méthode de consultation itérative, b) des modèles statistiques, utiles à l’estimation des impacts sanitaires des changements climatiques, ont été développés pour apprécier les associations entre la survenue de lésions professionnelles et l’exposition des travailleurs aux chaleurs estivales et à l’ozone troposphérique, deux problématiques préoccupantes pour le Québec. Le bilan des connaissances a mis en évidence cinq catégories de dangers pouvant affecter directement ou indirectement la santé et la sécurité des travailleurs au Québec (vagues de chaleur, polluants de l’air, rayonnements ultraviolets, événements météorologiques extrêmes, maladies vectorielles transmissibles et zoonoses) et cinq conditions pouvant entraîner des modifications dans l’environnement de travail et pouvant ultimement affecter négativement la santé et la sécurité des travailleurs (changements dans les méthodes agricoles et d’élevage, altérations dans l’industrie de la pêche, perturbations de l’écosystème forestier, dégradation de l’environnement bâti et émergence de nouvelles industries vertes). Quant aux modélisations, elles suggèrent que les indemnisations quotidiennes pour des maladies liées à la chaleur et pour des accidents de travail augmentent avec les températures estivales, et que ces associations varient selon l’âge des travailleurs, le secteur industriel et la catégorie professionnelle (manuelle vs autre). Des associations positives statistiquement non significatives entre les indemnisations pour des atteintes respiratoires aiguës et les concentrations d’ozone troposphérique ont aussi été observées. Dans l’ensemble, cette thèse a permis de dégager douze pistes de recherche prioritaires pour le Québec se rapportant à l’acquisition de connaissances, à la surveillance épidémiologique et au développement de méthodes d’adaptation. Selon les résultats de cette recherche, les intervenants en santé au travail et les décideurs devraient déployer des efforts pour protéger la santé et la sécurité des travailleurs et mettre en place des actions préventives en vue des changements climatiques.
Resumo:
Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.
Resumo:
Dans Trouble dans le genre, Judith Butler conteste l’aspect identitaire du féminisme, qui selon elle produirait de nouvelles possibilités d’exclusion, basées sur la catégorie même de « femme ». Je ne contesterai pas le mouvement qu’elle adopte, à savoir que la sexualité informe du genre, qui produit le sexe, bien que j’exposerai les difficultés que cela soulève. Mon intérêt se situe dans la vision que Butler a de la formation des sujets individuels et de leur rattachement à des identités collectives, via la performativité du genre. Sa position voulant que le genre soit un acte et l’identité une pratique, je vais expliquer comment elle conçoit l’humain constitué par ses actes et critiquer, avec deux auteures féministes, sa conception du genre. J’en conclurai que Butler doit admettre qu’une forme d’identité féminine soit nécessaire au féminisme tout en tenant compte de son plaidoyer d’inclusion des individus aux sexualités marginales.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.
Resumo:
Notre étude porte sur la manière dont les chercheurs universitaires junior et senior en sciences sociales au Québec établissent leurs réseaux de cosignataires et donnent une interprétation discursive à leurs activités de collaboration face à l'impact du changement institutionnel universitaire pendant la période 1990-2009. Plus spécifiquement, notre recherche s'intéresse à montrer que la création des réseaux et la collaboration scientifique par cosignature peuvent être identifiées comme des « ajustements professionnels » et se présenter aussi comme une ressource du capital social qui peut être mobilisé et qui peut produire des avantages aux chercheurs en accord avec leur statut junior ou senior. Il s’agit donc d’une recherche qui relève de la sociologie des sciences. Notre approche a été opérationnalisée à partir de l'étude de 15 membres d'un centre de recherche universitaire au Québec, et leur réseau de 447 cosignataires (y compris les chercheurs de l'étude), et à travers l'application de 7 entretiens auprès de chercheurs junior et senior du même centre. Dans le même plan opérationnel, depuis une perspective qualitative, la thèse permet d'identifier le sens discursif que les chercheurs fournissent à la collaboration et à la participation en réseaux de cosignatures. Ensuite, depuis l'analyse structurelle des réseaux, notre étude montre les connexions individuelles et leurs formes d'interprétation — spécialement la théorie des graphes et ses mesures de centralité (la centralité de degré, la centralité d’intermédiarité et la centralité de vecteur propre) — de même que l'homophilie par statut entre chercheurs. Enfin, depuis l'analyse statistique, elle montre la corrélation des périodes de l'étude et des attributs socioprofessionnels des chercheurs étudiés (sexe, statut universitaire, affiliation institutionnelle, discipline d’appartenance, pays, région du Canada et ville de travail). Notamment, les résultats de notre thèse montrent que chaque catégorie de chercheurs possède ses propres particularités structurelles et discursives en ce qui a trait à ses pratiques de collaboration en réseau, et vont confirmer que les chercheurs senior, plus que les chercheurs junior, grâce à leur capital social mobilisé, ont conservé et obtenu plus d'avantages de leur réseau de cosignataires afin de s'adapter au changement institutionnel et mieux gérer leur travail de collaboration destiné à l’espace international, mais surtout à l'espace local.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
Ce mémoire de maitrise vise à dresser un portrait des erreurs syntaxiques des élèves du secondaire en analysant un corpus de textes de cinq groupes du Québec, de la 1re à la 5e secondaire. Les résultats actuels aux épreuves ministérielles des élèves de 5e secondaire nous indiquent que les élèves éprouvent des difficultés avec l’écriture du français. Une analyse approfondie nous permet de comprendre que l’amélioration de la situation passe par une meilleure connaissance des erreurs syntaxiques des élèves. En nous appuyant sur la grille de Boivin et Pinsonneault (2014), nous avons analysé les données provenant du codage des textes d’élèves de la 1re à la 5e secondaire. L’analyse de ces données nous a permis de constater que parmi les sept grandes catégories d’erreurs de la grille, c’est en syntaxe que les élèves commettent le plus d’erreurs. Une incursion au cœur des six sous-catégories de la syntaxe a révélé que la ponctuation causait le plus de problème aux élèves, et ce, à tous les niveaux. Les erreurs liées à la détermination de la catégorie grammaticale des mots (homophones) arrivaient en deuxième place. Par la suite, nous avons précisé davantage l’analyse en déterminant, pour chacun des codes, l’évolution du nombre d’erreurs d’un niveau du secondaire à l’autre. Il est ressorti de cette étude que les deux principales erreurs, basées sur les sous-catégories syntaxiques, sont celles portant sur l’usage de la virgule et celles liées à la confusion qui existe encore un verbe terminant par «er» et un adjectif ou un participe passé terminant par «é-e-s».
Resumo:
Réalisé en cotutelle avec Aix Marseille Université.
Resumo:
- Thèse réalisée en cotutelle entre les Université de Montréal et Paris Ouest Nanterre la Défense. -Thèse construite à partir de logiciels libres et gratuits : Ubuntu, Lyx, LibreOffice, Zotero, The Gimp.
Resumo:
Les récits d’Éric Chevillard appartiennent sans conteste à la catégorie des « fictions joueuses » décrites par Bruno Blanckeman (2002, p. 61) en ce qu’ils entretiennent un rapport ambigu avec la littérature, souvent détournée au moyen de la parodie, du pastiche ou d’une esthétique loufoque. Cet article propose un petit essai de typologie du loufoque chez Éric Chevillard au travers de trois œuvres, « Du hérisson » (2002), « Le vaillant petit tailleur » (2003) et « Oreille rouge » (2005), dans lesquelles on identifie cette pratique du détournement générique. Il met ainsi en évidence trois traits majeurs du loufoque : l’incongru, le détournement des topoï et l’écriture sérielle. [...]
Resumo:
Le roman, Les Violettes rouges, met en scène une jeune femme cherchant vengeance à l'époque de la conquête de l'Ouest américain. Il joue sur les codes du western, tout en les transgressant, puisque le héros cow-boy et vengeur est une femme, Lou. Plus libre encore que les héros du western traditionnel, Lou s'approprie des éléments du « masculin » et du « féminin » pour incarner un corps puissant et sensuel qui sera vecteur de violence. Les systèmes hiérarchiques et injustes érigés par l'homme blanc se voient ébranlés par les actes de révolte de Lou. L'essai L'échec du système des genres dans La Maladie de la mort de Marguerite Duras explore, par le biais de la pensée de certains théoriciens féministes et par l'entremise de certaines questions sur les identités sexuées selon la catégorie d'analyse du gender, l'impossible rencontre entre l'homme et la femme du récit de Duras. L'échec du système double et duel entre le masculin et le féminin est exprimé, entre autres, par un système de voiles et de voilements, de regards aveugles, par un féminin fuyant et, ultimement, par un renversement des pouvoirs. Ici, la conception double des genres se voit remise en cause puisqu'elle rend stérile toute rencontre entre l'homme et la femme du récit et ultimement, entre le masculin et le féminin.
Resumo:
Dans un contexte de crise écologique mondiale, la justice sociale ne peut plus être pensée sans la justice environnementale. L'environnementalisme libertarien pose problème dès l'articulation de ses prémisses, car le droit à l'intégrité de sa personne et de sa propriété semble être incompatible avec un droit minimal de polluer : une seule personne pourrait paralyser l'ensemble de l'activité économique en invoquant son droit à l'intégrité physique. La pollution est pourtant conçue comme un mal nécessaire – ce qui constitue un écart conséquentialiste dans le raisonnement libertarien. Le problème de l'arbitrage entre droits concurrents est contourné par le recours au marché, qui doit permettre de définir un niveau minimal de pollution. Si cela semble fonctionner relativement bien pour la catégorie des biens environnementaux directement utiles, un dilemme se pose dans le cas de la biodiversité, un bien environnemental indirectement utile : soit on assure la protection de l'environnement, soit on respecte l'autonomie des personnes. Il est impossible de parvenir à satisfaire ces deux objectifs fondamentaux en même temps.