975 resultados para Stratégies internationales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’avancement en âge, les personnes âgées qui vivent à domicile ont besoin du soutien des membres de leur entourage, notamment d’un aidant familial dont le rôle n’est toutefois pas sans conséquence sur sa santé. Les écrits empiriques ont montré que certains aidants sont résilients, c’est-à-dire qu’ils s’adaptent à leur situation et continuent leur développement. Toutefois, aucune étude n’a été effectuée au Liban auprès des aidantes familiales pour expliquer la résilience dans ce contexte et, plus spécifiquement, pour déterminer les facteurs qui pourraient l’influencer. Cette étude à devis corrélationnel de prédiction avait pour but de vérifier certaines des relations postulées par un modèle empirique découlant des écrits, soit la contribution de facteurs personnels (stratégies de coping et auto-efficacité) et de facteurs contextuels (relations familiales, perception du soutien de l’entourage, et sens accordé au « prendre soin »),à la résilience des aidantes familiales libanaises qui prennent soin d’un proche âgé à domicile. L’étude a été effectuée au Liban auprès d’un échantillon de convenance composé de 140 aidantes familiales principales cohabitant à domicile avec un parent âgé de 65 ans et plus ayant une perte d’autonomie fonctionnelle ou cognitive. La collecte des données a été réalisée en arabe en utilisant un guide d’entrevue standardisé regroupant des instruments nord-américains traduits selon la méthode de traduction inversée parallèle, de même qu’une question ouverte portant sur la perception des aidantes de la résilience, soit des facteurs qui les aident à continuer à prendre soin de leur proche âgé tout en continuant à se développer. Une analyse de régression hiérarchique a permis de vérifier la contribution unique des facteurs personnels et contextuels à expliquer la résilience des aidantes familiales, en contrôlant pour l’âge et le niveau de scolarité des aidantes et pour le niveau de perte d’autonomie et la fréquence des comportements dysfonctionnels de leurs parents âgés. Une analyse de contenu a permis de décrire la perception des aidantes eu égard à la résilience. Les résultats ont montré que le modèle empirique, incluant les variables de contrôle explique 54% de la variance de la résilience et que quatre des facteurs considérés, soit les stratégies de coping centrées sur le problème, les stratégies de coping centrées sur les émotions, le sentiment d’auto-efficacité et le sens du « prendre soin » ont une contribution statistiquement significative à la résilience des aidantes. Parmi ces quatre facteurs, le sens du « prendre soin » et le sentiment d’auto-efficacité expliquent davantage de variance, soit 11% et 5% respectivement. L’analyse qualitative du discours des aidantes a montré qu’elles prennent soin de leur proche âgé surtout par souci de réciprocité, mais également parce qu’il s’agit d’un membre de la famille et par respect pour Dieu. Ce sont par ailleurs leurs croyances et la satisfaction liée au prendre soin qui les aident à continuer et à se développer. Cette étude offre une meilleure compréhension du concept de la résilience des aidantes familiales au Liban et de certains facteurs qui en sont des prédicteurs significatifs. Elle offre des pistes pour l’intervention infirmière dans le but de promouvoir la santé de la personne/famille en tant que partenaire de soins. Des recommandations pour la pratique, la formation et la recherche sont proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conflit présenté comme gelé, la guerre du Haut-Karabagh n’en est pas moins réelle, s’inscrivant dans une géopolitique régionale complexe et passionnante, nécessitant de s’intéresser à l’histoire des peuples de la région, à l’histoire des conquêtes et politiques menées concomitamment. Comprendre les raisons de ce conflit situé aux limites de l’Europe et de l’Asie, comprendre les enjeux en cause, que se soit la problématique énergétique ou l’importance stratégique de la région du Caucase à la fois pour la Russie mais également pour les Etats-Unis ou l’Union Européenne ; autant de réflexions que soulève cette recherche. Au delà, c’est l’influence réciproque du droit international et du politique qui sera prise en compte, notamment concernant l’échec des négociations actuelles. Les difficultés d’application du droit international à ce conflit sui generis se situent à plusieurs niveaux ; sur le statut de la région principalement, mais également sur les mécanismes de sanctions et de réparations devant s’appliquer aux crimes sur les personnes et les biens et qui se heurtent à la classification difficile du conflit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : Le concept d’« Hôpital promoteur de santé » (HPS) a émergé dans le sillon de la Charte d’Ottawa (1986) qui plaide notamment pour une réorientation des services de santé vers des services plus promoteurs de santé. Il cible la santé des patients, du personnel, de la communauté et de l’organisation elle-même. Dans le cadre de la réforme du système de santé au Québec qui vise à rapprocher les services de la population et à faciliter le cheminement de toute personne au sein d’un réseau local de services de santé et de services sociaux (RLS), l’adoption du concept HPS semble constituer une fenêtre d’opportunité pour les CHU, désormais inclus dans des réseaux universitaires intégrés de soins de santé et rattachés aux RLS, pour opérer des changements organisationnels majeurs. Face au peu de données scientifiques sur l’implantation des dimensions des projets HPS, les établissements de santé ont besoin d’être accompagnés dans ce processus par le développement de stratégies claires et d’outils concrets pour soutenir l’implantation. Notre étude porte sur le premier CHU à Montréal qui a décidé d’adopter le concept et d’implanter notamment un projet pilote HPS au sein de son centre périnatal. Objectifs : Les objectifs de la thèse sont 1) d’analyser la théorie d’intervention du projet HPS au sein du centre périnatal; 2) d’analyser l’implantation du projet HPS et; 3) d’explorer l’intérêt de l’évaluation développementale pour appuyer le processus d’implantation. Méthodologie : Pour mieux comprendre l’implantation du projet HPS, nous avons opté pour une étude de cas qualitative. Nous avons d’abord analysé la théorie d’intervention, en procédant à une revue de la littérature dans le but d’identifier les caractéristiques du projet HPS ainsi que les conditions nécessaires à son implantation. En ce qui concerne l’analyse d’implantation, notre étude de cas unique a intégré deux démarches méthodologiques : l’une visant à apprécier le niveau d’implantation et l’autre, à analyser les facteurs facilitants et les contraintes. Enfin, nous avons exploré l’intérêt d’une évaluation développementale pour appuyer le processus d’implantation. À partir d’un échantillonnage par choix raisonnés, les données de l’étude de cas ont été collectées auprès d’informateurs clés, des promoteurs du projet HPS, des gestionnaires, des professionnels et de couples de patients directement concernés par l’implantation du projet HPS au centre périnatal. Une analyse des documents de projet a été effectuée et nous avons procédé à une observation participante dans le milieu. Résultats : Le premier article sur l’analyse logique présente les forces et les faiblesses de la mise en oeuvre du projet HPS au centre périnatal et offre une meilleure compréhension des facteurs susceptibles d’influencer l’implantation. Le second article apprécie le niveau d’implantation des quatre dimensions du projet HPS. Grâce à la complémentarité des différentes sources utilisées, nous avons réussi à cerner les réussites globales, les activités partiellement implantées ou en cours d’implantation et les activités reposant sur une théorie d’intervention inadéquate. Le troisième article met en évidence l’influence des caractéristiques de l’intervention, des contextes externe et interne, des caractéristiques individuelles sur le processus d’implantation à partir du cadre d’analyse de l’implantation développé par Damschroder et al. (2009). Enfin, le dernier article présente les défis rencontrés par la chercheure dans sa tentative d’utilisation de l’évaluation développementale et propose des solutions permettant d’anticiper les difficultés liées à l’intégration des exigences de recherche et d’utilisation. Conclusion : Cette thèse contribue à enrichir la compréhension de l’implantation du projet HPS dans les établissements de santé et, particulièrement, en contexte périnatal. Les résultats obtenus sont intéressants pour les chercheurs et les gestionnaires d’hôpitaux ou d’établissements de santé qui souhaitent implanter ou évaluer les projets HPS dans leurs milieux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. L’espace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur l’espace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principal pôle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent l’espace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les dinoflagellés sont des eucaryotes unicellulaires que l’on retrouve autant en eau douce qu’en milieu marin. Ils sont particulièrement connus pour causer des fleurs d’algues toxiques nommées ‘marée-rouge’, ainsi que pour leur symbiose avec les coraux et pour leur importante contribution à la fixation du carbone dans les océans. Au point de vue moléculaire, ils sont aussi connus pour leur caractéristiques nucléaires uniques, car on retrouve généralement une quantité immense d’ADN dans leurs chromosomes et ceux-ci sont empaquetés et condensés sous une forme cristalline liquide au lieu de nucléosomes. Les gènes encodés par le noyau sont souvent présents en multiples copies et arrangés en tandem et aucun élément de régulation transcriptionnelle, y compris la boite TATA, n’a encore été observé. L’organisation unique de la chromatine des dinoflagellés suggère que différentes stratégies sont nécessaires pour contrôler l’expression des gènes de ces organismes. Dans cette étude, j’ai abordé ce problème en utilisant le dinoflagellé photosynthétique Lingulodinium polyedrum comme modèle. L. polyedrum est d’un intérêt particulier, car il a plusieurs rythmes circadiens (journalier). À ce jour, toutes les études sur l’expression des gènes lors des changements circadiens ont démontrées une régulation à un niveau traductionnel. Pour mes recherches, j’ai utilisé les approches transcriptomique, protéomique et phosphoprotéomique ainsi que des études biochimiques pour donner un aperçu de la mécanique de la régulation des gènes des dinoflagellés, ceci en mettant l’accent sur l’importance de la phosphorylation du système circadien de L. polyedrum. L’absence des protéines histones et des nucléosomes est une particularité des dinoflagellés. En utilisant la technologie RNA-Seq, j’ai trouvé des séquences complètes encodant des histones et des enzymes modifiant les histones. L polyedrum exprime donc des séquences conservées codantes pour les histones, mais le niveau d’expression protéique est plus faible que les limites de détection par immunodétection de type Western. Les données de séquençage RNA-Seq ont également été utilisées pour générer un transcriptome, qui est une liste des gènes exprimés par L. polyedrum. Une recherche par homologie de séquences a d’abord été effectuée pour classifier les transcrits en diverses catégories (Gene Ontology; GO). Cette analyse a révélé une faible abondance des facteurs de transcription et une surprenante prédominance, parmi ceux-ci, des séquences à domaine Cold Shock. Chez L. polyedrum, plusieurs gènes sont répétés en tandem. Un alignement des séquences obtenues par RNA-Seq avec les copies génomiques de gènes organisés en tandem a été réalisé pour examiner la présence de transcrits polycistroniques, une hypothèse formulée pour expliquer le manque d’élément promoteur dans la région intergénique de la séquence de ces gènes. Cette analyse a également démontré une très haute conservation des séquences codantes des gènes organisés en tandem. Le transcriptome a également été utilisé pour aider à l’identification de protéines après leur séquençage par spectrométrie de masse, et une fraction enrichie en phosphoprotéines a été déterminée comme particulièrement bien adapté aux approches d’analyse à haut débit. La comparaison des phosphoprotéomes provenant de deux périodes différentes de la journée a révélée qu’une grande partie des protéines pour lesquelles l’état de phosphorylation varie avec le temps est reliées aux catégories de liaison à l’ARN et de la traduction. Le transcriptome a aussi été utilisé pour définir le spectre des kinases présentes chez L. polyedrum, qui a ensuite été utilisé pour classifier les différents peptides phosphorylés qui sont potentiellement les cibles de ces kinases. Plusieurs peptides identifiés comme étant phosphorylés par la Casein Kinase 2 (CK2), une kinase connue pour être impliquée dans l’horloge circadienne des eucaryotes, proviennent de diverses protéines de liaison à l’ARN. Pour évaluer la possibilité que quelques-unes des multiples protéines à domaine Cold Shock identifiées dans le transcriptome puissent moduler l’expression des gènes de L. polyedrum, tel qu’observé chez plusieurs autres systèmes procaryotiques et eucaryotiques, la réponse des cellules à des températures froides a été examinée. Les températures froides ont permis d’induire rapidement un enkystement, condition dans laquelle ces cellules deviennent métaboliquement inactives afin de résister aux conditions environnementales défavorables. Les changements dans le profil des phosphoprotéines seraient le facteur majeur causant la formation de kystes. Les phosphosites prédits pour être phosphorylés par la CK2 sont la classe la plus fortement réduite dans les kystes, une découverte intéressante, car le rythme de la bioluminescence confirme que l’horloge a été arrêtée dans le kyste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette oeuvre est mise à disposition selon les termes de la licence Creative Commons Attribution - Pas d'utilisation commerciale - Pas de modification 2.5 Canada Vous avez donc le droit de : Partager - copier, distribuer et communiquer le matériel par tous les moyens et sous tous formats; Selon les conditions suivantes : Attribution — Vous devez créditer l'Oeuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l'Oeuvre. Vous devez indiquer ces informations par tous les moyens possibles mais vous ne pouvez pas suggérer que l'Offrant vous soutient ou soutient la façon dont vous avez utilisé son Oeuvre. Pas d’Utilisation Commerciale — Vous n'êtes pas autoriser à faire un usage commercial de cette Oeuvre, tout ou partie du matériel la composant. Pas de modifications — Dans le cas où vous effectuez un remix, que vous transformez, ou créez à partir du matériel composant l'Oeuvre originale, vous n'êtes pas autorisé à distribuer ou mettre à disposition l'Oeuvre modifiée. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by-nc-nd/2.5/ca/ ou écrivez à Creative Commons, 444 Castro Street, Suite 900, Mountain View, California, 94041, USA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le droit n’est possible que par l’humanité qui le porte. Pourtant, la notion d’humanité n’aura été prise en compte que tardivement par le droit international et seulement à titre d’objet. Depuis la seconde moitié du XXe siècle, au sortir de la Deuxième guerre mondiale, les appels à l’humanité se sont malgré tout multipliés jusqu’à en faire une référence récurrente à la fois transcendante et transversale. La prise en compte de l’humanité juridique demeure cependant complexe dans un paradigme westphalien qu’elle contrarie en révélant au passage toutes les contradictions, mais peine tout de même à dépasser. Ainsi, les tentatives visant à reconnaître à l’humanité une personnalité ou un patrimoine et à assurer ses intérêts communs ont connu des dénouements mitigés. Les changements profonds auxquels le droit international est confronté sous l’influence de la mondialisation pourraient bien être l’opportunité de repenser l’humanité en droit et, surtout, de réaffirmer les valeurs universelles qu’elle promeut.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire propose une réflexion sur des modèles permettant de mieux comprendre et concevoir l’expérience esthétique d’un jeu vidéo. Ces modèles traduisent différents idéaux de la place du joueur. Comme on peut le constater à travers une réflexion sur le modèle du cercle magique, jouer est souvent compris comme un acte unilatéral d’entrée en imagination dans un monde étranger au monde actuel – toute sortie marquant la pénalité ou la fin du jeu. De ce point de vue, le designer aurait donc pour rôle de placer et de maintenir le joueur dans le monde virtuel représenté pour qu’il s’y sente immergé et présent. Cela dit, comme en témoignent les critiques qui s’élèvent contre le modèle du cercle magique, d’autres stratégies de mise en place du joueur sont à distinguer et à définir pour faciliter l’analyse et la conception des jeux vidéo. Devant ce modèle, jugé limitatif, ce que nous proposons ici est de recourir à quelques outils méthodologiques et typologiques de l’esthétique de la réception en histoire de l’art pour bâtir un modèle plus englobant, celui de la place du joueur, dont nous testons la validité par l’analyse du jeu vidéo God of War III (2010).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le droit international véhicule des principes de droits des femmes dits universels. Pourtant, ces droits prennent un tout autre sens lorsque confrontés aux réalités locales. En Inde, le droit hindou entretient la notion de devoirs par opposition aux droits individuels. Ainsi, la femme est définie selon ses relations à la famille et au mariage plutôt que selon ses libertés sociales. Toute dérogation dans les devoirs de la femme envers sa famille ou son mari est une raison valable pour punir la délinquance et discipliner. Cette étude s’intéresse aux tensions entre les standards internationaux et locaux à partir de l’étude de la Protection of Women against Domestic Violence Act de 2005 (PWDVA). Cette loi se trouve au confluent de l’universalisme du droit international des droits humains et du pluralisme culturel en Inde. La PWDVA semble remettre en question le statut de la femme et de la famille dans la société. Les idéaux du droit peuvent-ils être adaptés aux diverses réalités nationales et locales? Comment les organisations non gouvernementales (ONG) s’inscrivent-elles dans la conjugaison du droit vivant et du droit international pour contrer la violence domestique? Cette recherche étudie le rôle des ONG dans l’adaptation et la traduction des normes internationales dans le contexte culturel et social indien. Une analyse approfondie de documents théoriques et juridiques, des observations participatives et des entrevues au sein d'une ONG à Mumbai en 2013 ont permis d’observer la transition des normes internationales vers le local. Un tel séjour de recherche fut possible à l’aide d'une méthodologie suivant le cadre théorique du féminisme postmoderne et de l’anthropologie juridique. L’analyse des résultats a mené à la conclusion que les ONG jouent un rôle de médiateur entre les normes appartenant au droit international, au droit national indien et au droit vivant. Celles-ci doivent interpréter les droits humains intégrés à la PWDVA en reconnaissant ce qui est idéaliste et ce qui est réaliste à la lumière des réalités locales, faisant ainsi l’équilibre entre le besoin de transformations des communautés et le respect des valeurs à préserver. Cette recherche offre donc une ouverture quant aux solutions possibles pour contrer les tensions entre droits des femmes et droits culturels dans un contexte de développement international.