454 resultados para Maxime
Resumo:
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.
Resumo:
L'agriculture biologique est issue d'une longue lutte du consommateur et du citoyen pour connaître et contrôler la qualité de son alimentation. Sa popularité montante confirme que la disponibilité de l'information sur l'offre joue un rôle économique et social central auprès de la demande. Cette tendance appuie l'émergence d'un nouvel élément au sein du corpus des droits de la personne : le droit à l'information. Cette étude aborde les étapes de sa formation et prend pour exemple la filière agroalimentaire biologique. Elle représente un modèle avant-gardiste de l'hybridation entre le droit privé et le droit public. Nous examinons en premier lieu comment l'activité des secteurs agroalimentaires civils et privés a contribué à fomenter le désir d'information du consommateur, pour ensuite le mettre en péril. Parallèlement à cela, nous proposons d'analyser les effets et l'influence du corpus de droits et de principes du développement durable sur la filière biologique, mais surtout sur la reconnaissance du besoin d'information pour le consommateur. Enfin, nous faisons un tour d'horizon de la réglementation publique de l'appellation biologique, de son label et de son étiquette. Pour cela, nous évaluons les mesures en place selon les critères de la véracité, de l'accessibilité et de l'exhaustivité de l'information divulguée au consommateur. À la lumière de notre analyse, le consommateur peut tirer ses propres conclusions sur les meilleures réponses normatives à ses besoins. Quelles mesures entre le droit transnational, le droit international et le droit national offrent le meilleur résultat? Laquelle de ces formes juridiques s'avère en mesure de promouvoir une consommation responsable où le consommateur ne fait plus face aux obstacles à son choix éclairé?
Resumo:
La circulation extracorporelle (CEC) déclenche une réaction inflammatoire systémique, un dommage d’ischémie-reperfusion (I-R) et une dysfonction de l’endothélium dans la circulation pulmonaire. L’hypertension pulmonaire (HTP) est la conséquence de cette cascade de réactions. Cette HTP augmente le travail du ventricule droit et peut causer sa dysfonction, un sevrage difficile de la CEC et une augmentation des besoins de vasopresseurs après la chirurgie cardiaque. L’administration de milrinone et d’époprosténol inhalés a démontré une réduction de la dysfonction endothéliale dans l’artère pulmonaire. Le but de ce travail est d’évaluer différents types de nébulisateur pour l’administration de la milrinone et d’évaluer l’effet du traitement préventif de la combinaison de milrinone et époprosténol inhalés sur les résultats postopératoires en chirurgie cardiaque. Deux études ont été conduites. Dans la première, trois groupes de porcelets ont été comparés : (1) groupe milrinone avec nébulisateur ultrasonique ; CEC et reperfusion précédées par 2,5 mg de milrinone inhalée, (2) goupe milrinone avec nébulisateur à simple jet ; CEC et reperfusion précédées par 2,5 mg de milrinone inhalée et (3) groupe contrôle ; CEC et reperfusion sans traitement. Durant la procédure, les paramètres hémodynamiques, biochimiques et hématologiques ont été mesurés. Après sacrifice, la relaxation endothélium dépendante de l’artère pulmonaire à l’acétylcholine et à la bradykinine a été étudiée en chambres d’organe. Nous avons noté une amélioration de la relaxation de l’endothélium à la bradykinine et à l’acétylcholine dans le groupe avec inhalation de milrinone avec le nébulisateur ultrasonique. Dans la deuxième étude, une analyse rétrospective de 60 patients à haut risque chirurgical atteints d’HTP et opérés à l’Institut de Cardiologie de Montréal à été effectuée. Deux groupes ont été comparés : (1) 40 patients ayant reçu la combinaison de milrinone et d’époprosténol inhalés avant la CEC (groupe traitement) et (2) 20 patients avec des caractéristiques préopératoires n’ayant reçu aucun traitement inhalé avant la CEC (groupe contrôle). Nous avons observé que les besoins en support pharmacologique vasoactif était réduit à 12 heures et à 24 heures postopératoires dans le groupe traitement. L’utilisation de la nébulisation ultrasonique a un impact favorable sur l’endothélium de l’artère pulmonaire après la CEC lorsque comparée à la nébulisation standard à simple jet. Le traitement préventif des patients atteints d’HTP avec la combinaison de milrinone et d’époprosténol inhalés avant la CEC est associé avec une diminution importante des besoins de support vasoactif aux soins intensifs dans les 24 premières heures après la chirurgie.
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
Les dimères chromosomiques se produisant lors de la réparation de chromosomes circulaires peuvent être dommageables pour les bactéries en bloquant la ségrégation des chromosomes et le bon déroulement de la division cellulaire. Pour remédier à ce problème, les bactéries utilisent le système Xer de monomérisation des chromosomes. Celui-ci est composé de deux tyrosine recombinases, XerC et XerD, qui vont agir au niveau du site dif et procéder à une recombinaison qui aura pour effet de séparer les deux copies de l’ADN. Le site dif est une séquence d’ADN où deux répétitions inversées imparfaites séparées par six paires de bases permettent la liaison de chacune des recombinases. Cette recombinaison est régulée à l’aide de FtsK, une protéine essentielle de l’appareil de division. Ce système a été étudié en profondeur chez Escherichia coli et a aussi été caractérisée dans une multitude d’espèces variées, par exemple Bacillus subtilis. Mais dans certaines espèces du groupe des Streptococcus, des études ont été en mesure d’identifier une seule recombinase, XerS, agissant au niveau d’un site atypique nommée difSL. Peu de temps après, un second système utilisant une seule recombinase a été identifié chez un groupe des epsilon-protéobactéries. La recombinase fut nommée XerH et le site de recombinaison, plus similaire à difSL qu’au site dif classique, difH. Dans cette thèse, des résultats d’expériences in vitro sur les deux systèmes sont présentés, ainsi que certains résultats in vivo. Il est démontré que XerS est en mesure de se lier de façon coopérative à difSL et que cette liaison est asymétrique, puisque XerS est capable de se lier à la moitié gauche du site prise individuellement mais non à la moitié droite. Le clivage par XerS est aussi asymétrique, étant plus efficace au niveau du brin inférieur. Pour ce qui est de XerH, la liaison à difH est beaucoup moins coopérative et n’a pas la même asymétrie. Par contre, le clivage est asymétrique lui aussi. La comparaison de ces deux systèmes montrent qu’ils ne sont pas homologues et que les systèmes Xer à seule recombinase existent sous plusieurs versions. Ces résultats représentent la première découverte d’un espaceur de 11 paires de bases chez les tyrosine recombinases ainsi que la première étude in vitro sur XerH.
Resumo:
L’effet de la disponibilité des AAF sur le taux d’homicide est un sujet qui n’a jamais su faire consensus au sein du corpus scientifique. En tenant compte des réalités canadiennes relatives à l’utilisation d’une arme à feu dans les homicides, la présente étude évaluera la relation entre la disponibilité des armes à feu et le taux d’homicide au Canada, par le biais de séries chronologiques simples et multiples. Les données utilisées dans le cadre de la recherche proviennent de l’Enquête sur l’homicide effectuée par Statistiques Canada, du programme de la déclaration uniforme de la criminalité (DUC), des catalogues Juristats et des catalogues produits par Statistiques Canada sur les causes de décès au pays. Globalement, des relations positives et significatives sont observées entre les deux phénomènes au temps t. Au temps t-1 et t-2, des relations négatives sont observées entre la disponibilité des armes à feu et le taux d’homicide, tandis que des relations positives sont constatées entre le taux d’homicides et la disponibilité des armes à feu. Les résultats confirment que le taux d’homicide et la disponibilité des armes à feu sont des phénomènes qui s’influencent mutuellement dans le temps. En raison du niveau d’agrégation des données, il n’est pas possible de départager l’influence respective des deux phénomènes. Les résultats soutiennent toutefois davantage les thèses de l’autoprotection et de l’autodéfense. Enfin, les résultats montrent l’importance de développer des indices de disponibilité propres aux deux types d’armes à feu impliqués dans les homicides au Canada.
Resumo:
L’étude porte sur la question des burakumin, les intouchables japonais, dans deux oeuvres de l’écrivain japonais Nakagami Kenji (1946-1992), lui-même issu de cette communauté. Mille ans de plaisir, recueil de six contes basés sur des récits de vie, et le roman Miracle forment une suite organisée autour des mêmes lieux, des mêmes personnages et des mêmes thèmes. Ils décrivent la condition sociale d’une collectivité mise au ban de la société japonaise malgré sa modernisation. Ils se distinguent par leur caractère d’ethnofiction. Nakagami cherche à réhabiliter les burakumin en valorisant le patrimoine religieux et folklorique dont ils sont dépositaires. Il puise dans les genres traditionnels comme le monogatari ou les contes et légendes du Japon. Il s’inspire également d’auteurs modernes japonais (Mishima, Tanizaki) et d’auteurs étrangers (Faulkner, García-Márquez). À partir de cet intertexte et pour faire barrage à l’occidentalisation, il élabore un style « hybride » digne de la littérature nationale (kokubungaku). Les oeuvres traditionnelles sont réinterprétées dans une esthétique postmoderne ayant une fonction ironique et critique contre l’idéologie impériale répressive qui continue d’alimenter la discrimination envers les burakumin. L’analyse porte sur les procédés qui sous-tendent le projet social et le projet littéraire de l’auteur. Elle se divise en trois parties. La première donne un aperçu biographique de l’auteur et décrit les composantes de son projet social qui consiste à vouloir changer l’image et le statut des burakumin. La deuxième partie décrit les éléments religieux et folkloriques des deux oeuvres et analyse en contexte leur signification ainsi que leur fonction, qui est de mettre en valeur les traditions préservées par les burakumin. La troisième partie montre en quoi le répertoire traditionnel (monogatari) et les intertextes sont mis au service du projet littéraire proprement dit.
Resumo:
Les écrits aphoristiques de Friedrich Nietzsche (1844-1900) posent une évidente difficulté. Cette difficulté n’a pas échappé à l’auteur qui a recommandé à ses lecteurs, en 1887 dans sa préface à Zur Genealogie der Moral, qu’ils pratiquent en lisant ses aphorismes un « art de l’interprétation [Kunst der Auslegung] » [KSA, V, p. 255, § 8.]. Malheureusement, Nietzsche ne dit pas précisément en quoi consiste une telle lecture. Comment le lecteur doit-il alors interpréter les écrits aphoristiques de Friedrich Nietzsche? Pour répondre à cette question herméneutique nous nous servirons de la « métaphore du théâtre », présente en filigrane dans l’œuvre du philosophe. Notre mémoire se propose d’abord d’examiner ce que Nietzsche a lui-même dit au sujet des « formes brèves » (la maxime, la sentence, mais surtout l’aphorisme), et en même temps ce qu’il attend plus particulièrement d’un lecteur de ces formes d’expression. Cette analyse philologique du corpus nietzschéen se fera aussi à la lumière des commentaires que Peter Sloterdijk (1947-) et Sarah Kofman (1934-1994) ont proposés de la philosophie nietzschéenne. Après avoir nous-mêmes analysé les propos de Nietzsche portant sur ce qu’il estime être un lecteur à la hauteur de ses écrits, il sera dès lors possible de porter un jugement critique sur la pertinence et la portée des études de Sloterdijk et Kofman qui abordent eux-mêmes la mise en scène de la pensée nietzschéenne au moyen de la métaphore du théâtre. Une part importante de notre critique portera notamment sur la nature synthétique de leurs interprétations philosophiques, menées dans une perspective thématico-synthétique et trans-aphoristique, qui marginalisent à bien des égards la particularité et l’autonomie des formes d’expression au moyen desquelles Friedrich Nietzsche s’exprime.
Resumo:
Objectifs: Plusieurs polymorphismes nucléaires localisés sur les gènes des récepteurs nicotiniques cholinergiques CHRN sont associés au tabagisme. Cependant, peu d’études ont examiné l’association entre les polymorphismes sur les gènes CHRN et l’étourdissement. Les polymorphismes et les symptômes subjectifs sont peu être lié à la dépendance à la nicotine et à l’étourdissement ressenti lors de l’initiation. Le but de cette étude est d’étudier l’association entre 61 polymorphismes sur huit gènes CHRN (CHRNA3 CHRNA4 CHRNA5, CHRNA6, CHRNA7, CHRNB2, CHRNB3, CHRNB4) et l’étourdissement ressenti lors de l’initiation. Méthodes: Les données provenant d'une étude de cohorte longitudinale composée de 1293 étudiants, ont été analysées selon un devis d'étude gène-candidat. Les données ont été collectées par le biais de questionnaires auto-reportés aux troix mois, durant 5 ans. L’ADN provenent de la salive ou du sang a été génotypé pour 61 polymosphismes localisés sur les gènes CHRN ont été génotypés, à l'aide d'une stratégie de couverture maximale du gène. L'équation d'analyse est une régression logistique, incluant un ajustement sur l’âge, le sexe et l’origine ethnique. Résultats: Trois SNPs sur le gène CHRNA6 (rs7812298, rs2304297, rs7828365) sont associés à notre phénotype (OR (95% CI)= 0.54 (0.36, 0.81), 0.59 (0.40, 0.86) and 0.58 (0.36, 0.95, respectivement),. Trois autres polymorphismes (rs3743077 (CHRNA3), rs755204 (CHRNA4), rs7178176 (CHRNA7)) sont également associés à phénotype (OR (95% CI)=1.40 (1.02, 1.90), 1.85 (1.05, 3.27) and 1.51 (1.06, 2.15), respectivement) Conclusion: Plusieurs SNPs localisés sur les gènes CHRN sont associés à l'étourdissement, un phénotype de l'initiation qui est peut-être associé à la dépendance à la nicotine.
Resumo:
Ce mémoire propose de mettre à jour l’impact d’une culture visuelle donnée dans la formation et la construction d’une identité féminine japonaise. L’idéal en question, connu sous le nom de kawaii, prône le caractère mignon, adorable et enfantin de la gent japonaise. Les représentations féminines y étant rattachées diffèrent en fonction des lieux et des clientèles visées. Ces différents façonnements ont par la suite une influence prépondérante sur la vision, la perception et l’acceptation sociale des Japonaises, notamment face à leur identité, mais aussi face aux rôles qu’elles entretiennent dans la société moderne. L’esthétisme du kawaii a vivement été critiqué dans les milieux anthropologiques. Nombreux sont ceux qui perçoivent cette image enfantine de manière négative, lui attribuant une influence particulièrement néfaste. Cependant, ces jugements découlent d’une incompréhension liée à des connotations spécifiques, ainsi qu’à des erreurs épistémologiques. L’hégémonie médiatique rattachée à l’idéal du kawaii provient surtout d’une politique économique favorisée par le gouvernement, répondant au nom de Cool Japan. Les représentations féminines y étant associées prônent le caractère docile, innocent et inférieur de la femme. Ces images ne sont pourtant pas représentatives des identités et des rôles véhiculés par la femme japonaise. Elles ne servent qu’à renforcer des présuposés culturels. De par le kawaii, les intellectuels, qu’ils soient Japonais ou non, ont bien souvent fait endosser aux Japonaises des identités et des rôles stéréotypés, qui sont pourtant loin d’être le lot de la jeune génération.
Resumo:
Un débat perdure toujours entre les partisans du relativisme linguistique et ceux qui penchent plutôt pour l’universalisme. Depuis Whorf, plusieurs expériences ont été menées pour déterminer si la langue avait une influence sur l’esprit d’un individu, mais très peu ont porté sur la pragmatique. Je propose d’explorer le relativisme linguistique selon la perspective de la pragmatique du langage. Deux approches théoriques en pragmatique s’opposent sur la question du relativisme : l’ethnopragmatique et la théorie de la pertinence. En utilisant des modèles de l’interaction culturelle en anthropologie, en particulier les idées de Bourdieu et le concept d’assemblage, je démontre que la flexibilité de la théorie de la pertinence permettrait d’y intégrer une composante relativiste, et ce, sans avoir à la dénaturer. Pour illustrer cette possibilité, j’introduis l’Identité Cognitive qui agit comme composante relativiste tout en permettant une interaction avec la pertinence universaliste du modèle.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
L'écriture dans une langue « d'adoption » est un phénomène littéraire de plus en plus courant. À ce jour, la contextualisation qui en est faite gravite principalement autour de l'identitaire et de l'exil, et néglige une approche moins biographique, plus attentive à ce que l'on pourrait appeler une poétique du bilinguisme, en filiation avec la philosophie du langage de Walter Benjamin. Le concept d'une langue pure, résonnant dans le silence de chacune des langues comme une présence antérieure, peut permettre d'accéder à cette ouverture des mots, et contribuer à réaliser leur simultané pouvoir de dévoilement et de dérobade, comme une invitation à l'écoute attentive de ce qui se dit à travers eux. de Silvia Baron Supervielle, écrivaine et traductrice francophone d'origine argentine, témoigne de l'extériorité inhérente aux langues. L'analyse du mémoire essaye de manière suggestive, par un agencement de concepts philosophiques complémentaires, de rendre palpable cette voix singulière dans trois publications de genres différents : réflexions philosophiques sur les langues (l'alphabet du feu), journal de lectrice et de poète (Le pays de l'écriture), poème en prose (La frontière). Il s'agit moins de formuler une théorie de l'entre- deux-langues que de montrer l'ouverture du verbe générée par l'écriture d'une langue à l'autre.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.