644 resultados para Interprétation réformiste


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente une étude de la morphologie de ce qui est généralement appelé le pluriel nominal du persan (parler de Téhéran) dans le cadre d’une théorie de la morphologie basée sur le mot : Whole Word Morphology, développée par Ford et Singh (1991). Ce modèle lexicaliste adopte une position plus forte que les modèles proposés par Aronoff (1976) et Anderson (1992) en n’admettant aucune opération morphologique sur des unités plus petites que le mot. Selon cette théorie, une description morphologique consiste en l’énumération des Stratégies de Formation de Mots (SFM), licencées chacunes par au moins deux paires de mots ayant la même covariation formelle et sémantique. Tous les SFM suit le même schéma. Nous avons répertorié 49 SFM regroupant les pluriels et les collectifs. Nous constatons qu’il est difficile de saisir le pluriel nominal du persan en tant que catégorie syntaxique et que les différentes « marques du pluriel » présentées dans la littérature ne constituent pas un ensemble homogène : elles partagent toutes un sens de pluralité qui cependant varie d’une interprétation référentielle à une interprétation collective non-référentielle. Cette étude vise la déscription de la compétence morphologique, ce qui ne dépend d’aucune considération extralinguistique. Nous argumentons notamment contre la dichotomie arabe/persan généralement admise dans la littérature. Nous avons également fourni des explications quant à la production des pluriels doubles et avons discuté de la variation supposée du fait d’un choix multiple de « marques du pluriel ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le site archéologique de Las Mercedes est situé sur le versant atlantique du Costa Rica. Ce site monumental est considéré comme le haut lieu d'une société hiérarchisée ayant une organisation sociopolitique complexe. Las Mercedes semble avoir été un centre administratif et cérémoniel dont l'apogée se situe entre 1000 et 1500 ans de notre ère. Notre mémoire porte sur la documentation d'assemblages céramiques extraits de contextes archéologiques stratigraphiques provenant notamment de deux monticules architecturaux. Notre projet se veut une contribution à une meilleure connaissance de Las Mercedes, selon une perspective diachronique d'affiliation culturelle et de séquences d'occupation. Les datations radiométriques provenant de l'assise des monticules convergent aux alentours de l'an 1000 de notre ère. D'autre part, les assemblages céramiques correspondant aux styles culturels El Bosque (500 avant notre ère à 500 de notre ère), La Selva (500-1000) et La Cabana (1000-1500) représentant une séquence temporelle d'environ deux millénaires. La présente étude vise à comprendre ce phénomène à l'aide des données provenant de l'intervention archéologique conduite, en 2005, conjointement par le Museo Nacional du Costa Rica et l'Université de Montréal. Les assemblages sont décrits selon des attributs technologiques, morphologiques et stylistiques en vue d'en faire une étude comparative et interprétative. Les résultats de notre recherche suggèrent qu'indépendamment des contextes archéologiques, les assemblages ont un composition hétérogène formée des trois styles culturels. Par ailleurs, le modèle présente un certain caractère homogène. Ainsi, les assemblages se composent de façon récurrente de 12% de céramique El Bosque, 55 % La Selva et 33 % La Cabana. Une interprétation parcellaire peut être soutirée de ce mélange céramique. L'amalgame des styles culturels témoignent que Las Mercedes a connu une longue occupation, toutefois les résultats ne permettent pas de confirmer ou d'infirmer nos hypothèses de travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse met en place un modèle permettant d'éclairer les relations entre certaines émotions et la conception que l'individu a de lui-même. En accord avec plusieurs auteurs contemporains, il est ici défendu que la conception que nous avons de nous-mêmes prend la forme d'une identité narrative, c'est-à-dire d'un récit à l'intérieur duquel nous tentons de structurer une image cohérente de nous-mêmes. Dans cette perspective, il est proposé qu'un certain groupe d'émotions, comme la honte, la fierté et la culpabilité, occupe une place cruciale dans la formation et le maintien de cette image de soi. Ces émotions, que nous pouvons qualifier d'auto-évaluatives, conditionnent l'évaluation que nous avons de nous-mêmes et participent ainsi à l'élaboration de la représentation de soi. De plus, cette identité narrative, à travers un certain aspect normatif et motivant, vient à son tour influencer la manifestation et l'interprétation de ces mêmes émotions. Ainsi, la relation entre les émotions auto-évaluatives et l'identité narrative serait une relation complexe d'influences réciproques. L’analyse proposée devrait permettre de clarifier de nombreux aspects de l’économie mentale de l’individu et plus particulièrement de sa motivation morale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous examinons le fichage de la délinquance sexuelle dont les divers régimes juridiques reposent sur l’idée que ces contrevenants présentent un risque réel de récidive criminelle. Les données scientifiques sur la délinquance sexuelle relativisent ce risque et attestent qu’il est quasi absent dans un très grand nombre de cas. Il existe donc une dichotomie entre les prémisses du droit et les connaissances issues des sciences sociales et humaines sur cette question. Le fichage de cette délinquance au Canada donne lieu à des mécanismes administratifs provinciaux en plus d’un régime fédéral contenu au Code criminel. Nous émettons l’hypothèse que le fichage provincial emporte de véritables conséquences pénales sur les délinquants sexuels, affectent leurs droits en vertu de l’article 7 de la Charte et contrecarre des principes de justice fondamentale. Ensuite, nous examinons le régime fédéral intégré au Code criminel et nous argumentons que ce mécanisme juridique crée une mesure punitive de la nature d’une peine. Par conséquent, le fichage fédéral devrait être aménagé de façon à satisfaire aux garanties constitutionnelles propres à la peine et aux principes généraux de la détermination de la peine en vertu de la Partie XXIII du Code criminel. Nous concluons que les législateurs successifs ont créé des régimes juridiques régissant le fichage de la délinquance sexuelle en écartant les principes fondamentaux administratifs, criminels et constitutionnels qui devraient présider à l’élaboration des règles concernant ce stigmate de la criminalité. Les tribunaux, par leur interprétation, ont également déqualifié cette stigmatisation de la criminalité sexuelle à titre de peine. Le droit relatif au fichage de la délinquance sexuelle donne donc lieu à une érosion des principes fondamentaux de la justice criminelle et punitive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La philosophie de Spinoza cherche à concilier et réunir trois horizons philosophiques fondamentaux : l’émanation néo-platonicienne (l’expression), le mécanisme cartésien (cause efficiente), et les catégories aristotéliciennes (Substance, attribut, mode). Ce premier point est pris pour acquis. Nous expliquerons que cette tentative sera rendue possible grâce à la conception nouvelle, au 17e siècle, de l’actualité de l’infini. Nous examinerons ensuite les conséquences de cette nouvelle interprétation, qui permet de rendre l’individu transparent à lui-même sur un plan d’immanence, expressif par rapport à une éminence qui le diffuse, mais déterminé dans une substantialité fictive entre objets finis. En proposant le pouvoir de l’imagination et des prophètes comme point de départ et principe actif du conatus, nous montrerons que la distinction, chez Spinoza, demeure toujours une fiction. Pour conclure, nous serons en mesure de signaler en quoi le Zarathoustra de Nietzsche relève d’une volonté de poursuivre le travail entrepris par Spinoza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire a comme sujet l'analyse et la caractérisation de la pensée de Paul sur la parousie (la deuxième venue du Seigneur) et l'étude de l'interprétation de cette pensée dans la théologie contemporaine,telle que représentée par Rudolf Bultmann, tenant de la démythologisation, et les théologiens de la libération Ignacio Ellacuria et Jon Sobrino. Les éléments clés de la parousie sont décrits principalement en Matthieu 25,31-46, 1 Cor 15,20-28, 1 Thess 4,13-18, 2 Thess 2,1-12. D'après Paul, « Le Seigneur, au signal donné, à la voix de l'archange et au son de la trompette de Dieu, descendra du ciel ». La principale question du mémoire porte sur cette vision paulinienne: Est-ce que la deuxième venue du Seigneur d'après la description paulinienne est encore crédible pour l'homme contemporain ou est-ce qu'il s'agit d'un élément mythologique non essentiel à la foi chrétienne? Bultmann considère que la parousie est un mythe : à ce jour, la parousie ne s'est pas produite, et elle ne se produira jamais. Le kérygme est le seul élément que Bultmann considère comme valide. « The kerygma is the proclamation of the decisive act of God in Christ ». Par contraste, Ellacuria est d'avis que l'élément eschatologique est essentiel pour comprendre l'histoire, car cette dernière est orientèe vers la fin. De manière analogue, Sobrino présente le Royaume de Dieu comme étant un élément clé de l'eschatologie. La théologie de la libération présente également la parousie comme un élément à venir qui représente l'implantation intégrale du Royaume de Dieu et qui devrait se comprendre comme une perspective eschatologique au-delà de l'imagerie de la parousie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En analysant les processus dialectiques par lesquels l’art repense le passé, Between Truth and Trauma : The Work of Art and Memory work in Adorno traite du concept adornien de la mémoire. Je postule que l’œuvre d’art chez Adorno incarne un Zeitkern (noyau temporel). Je démontrerai que l’immanence réciproque de l’histoire dans l’œuvre d’art et l’immanence de l’œuvre d’art dans l’histoire permettent de repenser le passé. Le premier chapitre examine la manière par laquelle le passé est préservé et nié par l’œuvre d’art. Le deuxième chapitre montre comment, à l’aide du processus interprétatif, le passé est transcendé à travers l’œuvre d’art. Le dernier chapitre évoque la lecture adornienne d’écrits de Brecht et de Beckett dans le but d’illustrer la capacité de l’œuvre d’art à naviguer entre la vérité et le trauma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plus de soixante-quinze ans après la création des Règles et usances uniformes relatives aux crédits documentaires par la Chambre de commerce internationale, pouvons-nous parler d'un véritable succès international de la lettre de crédit commerciale à titre d'instrument de paiement fiable et sécuritaire ? Nonobstant sa triple finalité et l'application formaliste de ses principes d'incessibilité, de stricte conformité et de double autonomie qui ont su, au cours des années, répondre aux besoins résultant de l'évolution du commerce international, il nous semble utopique de parler d'un tel succès. Mais pourquoi ? Confrontées aux réglementations nationales ainsi qu'aux pratiques nationalistes et protectionnistes des états qui ont pourtant adhéré aux Règles et usances relatives aux crédits documentaires, la malléabilité de ces règles semble avoir dénaturé la lettre de crédit commerciale de ses principaux attributs. À cet égard, nous pouvons nous demander si la lettre de crédit commerciale est une facilité de crédit désuète ou incomprise ? La présente thèse est le fruit de maintes réflexions sur les problèmes liés à l'application et l'interprétation de la lettre de crédit commerciale à titre d'instrument international et plus particulièrement sur les lacunes des Règles et usances uniformes relatives aux crédits documentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : La fibrillation auriculaire est commune chez les insuffisants cardiaques. L’efficacité des stratégies de contrôle de la fréquence et du rythme s’équivalent. Nous avons comparé l’impact économique des deux stratégies de traitement chez les patients avec fibrillation auriculaire et insuffisance cardiaque. Méthode : Dans cette sous-étude de l’essai Atrial Fibrillation and Congestive Heart Failure, la consommation de soins de santé des patients Québécois ainsi que leurs coûts ont été quantifiés grâce aux banques de données de la Régie de l’assurance-maladie du Québec et de l’Ontario Case Costing Initiative. Résultats : Trois cent quatre patients ont été inclus, âgés de 68±9 ans, fraction d’éjection de 26±6%. Les caractéristiques de base étaient bien réparties entre le contrôle du rythme (N=149) et de la fréquence (N=155). Les patients soumis au contrôle de la fréquence ont eu moins de procédures cardiovasculaires (146 versus 238, P<0.001) en raison du plus faible nombre de cardioversions et de moindres coûts reliés aux antiarythmiques (48 $±203 versus 1319 $±1058 par patient, P<0.001). Ces différences ont été compensées par un surplus de dépenses dues aux hospitalisations non-cardiovasculaires, aux dispositifs cardiaques implantables et aux médicaments non-cardiovasculaires dans le groupe du contrôle de la fréquence. Au total, les coûts par patient avec les stratégies du contrôle de la fréquence et du rythme s’élèvent à 78 767 $±79 568 et 72 764 $±72 800 (P=0.49). Interprétation : Chez les patients avec fibrillation auriculaire et insuffisance cardiaque, le contrôle de la fréquence est associé avec moins de procédures cardiovasculaires et une pharmacothérapie cardiovasculaire moins coûteuse. Toutefois, les coûts associés aux arythmies représentent moins de la moitié des dépenses de santé et le total des coûts s’équilibre entre les 2 stratégies.