981 resultados para Einkirch (Peter). inscription autrefois existante dans un album (v. 1564)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ Forme littéraire développée dès les débuts du IVe siècle, l’hagiographie, plus tard sanctionnée par l’Église catholique romaine, se déploie avec tout le rituel et le décorum requis par le genre institué, dévoilant les modalités du savoir et du croire qui la distingue. Cette forme fixe fut réacti©e, contre toute attente, dans une somme étoffée durant la seconde moitié du XXe siècle par le Collège de ‘Pataphysique, aréopage de philosophes, littérateurs et plasticiens, qui n’est pas un conclave d’excentriques, pas davantage qu’un nouvel « isme », mais une institution qui résolument emblématise la Science. Ce réemploi générique de l’hagiographie est caractérisé par une hétérogénéité bien peu canonique s’inscrivant dans une continuité problématique par rapport au sous-texte. Une première traversée du Calendrier inviterait à croire à une entreprise parodique et iconoclaste. La parodie, qui est aussi une imitation, pose un problème de visée. Le second degré de Gérard Genette implique deux grands régimes discursifs : le sérieux (le sérieux proprement dit et le satirique) et le ludique. Ces régimes nous ont été utiles pour arrimer la question de l’humour. Il y a là en somme deux possibilités, soit la parodie sérieuse conduisant à ridiculiser l’hagiographie et le Calendrier des Saints qui seraient sérieusement visés, néantisés, tournés en dérision; soit la parodie ludique, à portée nulle, simple jeu, farce farfelue, « pour rire ». Or, nous avons tenté de démontrer dans ce mémoire que, même s’il y a lieu d’avancer des arguments en faveur de l’un et de l’autre type de parodie, le partage ne fonctionne pas, précisément peut-être parce qu’il est possible de montrer à la fois que c’est sérieux et pas sérieux. Dans un troisième temps, on peut aussi faire la démonstration que le pas-sérieux est sérieux. Les jeux de mots, d’homophonie n’engagent-ils pas le Verbe? L’imitation impossible ne réfléchit-elle pas les imitabile de la Sainte Église? La situation énonciatrice tributaire de l’hagiographie pataphysique est non différentiable d’un souci de didactisme qui place la composante moralisatrice au centre des enjeux discursifs. Elle induit de ce fait des attentes en matière d’ethos consistant à mettre au même diapason une représentation sociale de l’énonciateur et une représentation intradiscursive au ton didactique. Elle adjoint un autre ton, savant celui-là, érudit, qui vient défaire la belle convergence et fait disjoncter la rhétorique du genre. Cette rhétoricité problématique de l’hagiographie pataphysique a été abordée sous l’angle de l’ethos. L’ethos est l’instance de validation par laquelle nous renvoyons non pas au caractère de l’orateur, mais, suivant en cela Dominique Maingueneau, au type de parole engendrée par le discours et qui, en retour, rend ce discours crédible. Que devient cette instance lorsque la visée persuasive du discours est remise en question, que l’ethos se démultiplie de façon hétérogène sans ©ritablement assurer la cohésion du propos ni garantir sa portée? La parodie posant incidemment un problème de visée, est-ce du côté d’un ethos parodique que se trouve la réponse? Il nous a convenu de mesurer, d’articuler, de déplacer cette postulation. Nous nous sommes saisi, pour les besoins de notre argumentation, d’une discipline historiquement lourde d’investissement théorique, soit la rhétorique. Celle-ci constitue à la fois une méthode de composition d’un discours reposant sur des lieux susceptibles de susciter l’adhésion et l’émulation de l’énonciataire et une méthode d’analyse. Guidé par une définition étendue du texte, traversant les littératures non narrative et narrative, il nous a importé enfin de restituer la pratique cymbaliste à partir d’un corpus qui est resté l’apanage du « seul » pataphysicien. Nous nous sommes ainsi situé dans l’horizon plus global de la réceptivité d’un discours qui évacue l’idéologique, qui jamais ne se laisse saisir tout à fait, ni enferrer par le fétiche du sens au profit des potentialités qu’il recèle, et cela à partir d’axiomes arbitraires soumis à l’unique exigence de cohérence interne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La forte prévalence des troubles des conduites alimentaires (TCA) chez les jeunes femmes et les faibles taux de rémission suite à un traitement ont encouragé les chercheurs à mieux comprendre les facteurs impliqués dans ce trouble mental. L’un des premiers modèles à mettre l’emphase sur des traits de personnalité associés au développement d’un TCA a été proposé par Hilde Bruch (1962, 1973, 1978) et a toujours une grande influence dans la recherche actuelle. Le modèle de Bruch inclue trois facteurs, soit l’insatisfaction corporelle, l’inefficacité et la conscience intéroceptive. Le but de cette thèse est d’apporter un support empirique au modèle de Bruch. En se basant sur une revue extensive des écrits scientifiques, cette thèse vise aussi à déterminer si deux facteurs reliés, soit l’alexithymie et le sentiment d’efficacité personnelle face à l’adoption de conduites alimentaires saines, améliorent la précision du modèle dans la prédiction de symptômes de TCA. Pour répondre empiriquement à cette question, il était d’abord nécessaire de disposer d’un questionnaire évaluant le sentiment d’efficacité personnelle en lien avec les conduites alimentaires qui peut être utilisé dans tout le spectre de présentation des TCA. Ainsi, le Eating Disorder Self-Efficacy Questionnaire (EDRSQ) a été adapté en français et ses propriétés psychométriques ont été évaluées. Une analyse factorielle confirmatoire a ré©lé une structure bi-factorielle, soit le sentiment d’efficacité personnelle en lien avec l’insatisfaction corporelle et avec l’adoption d’une alimentation normative. Chaque échelle a démontré une bonne fiabilité ainsi qu’une validité de construit cohérente avec la théorie. Par la suite, la capacité des facteurs proposés par Bruch à prédire les symptômes de TCA a été évaluée et comparée à des adaptations du modèle découlant des écrits. Au total, 203 étudiantes de premier cycle universitaire ont complété les versions validées en français du Eating Disorder Inventory 2, du Eating Attitudes Test, et du Toronto Alexithymia Scale en plus du EDRSQ. Les résultats montrent que le modèle de Bruch explique 46% de la variance des symptômes de TCA. Alors que l’insatisfaction corporelle et la conscience intéroceptive démontrent chacun une contribution importante dans la prédiction des symptômes de TCA, il a été démontré que l’inefficacité présente seulement une contribution spécifique négligeable. Le modèle de Bruch est amélioré par la substitution de l’inefficacité par le sentiment d’efficacité personnelle tel que mesuré par le EDRSQ; le modèle explique alors 64% de la variance des symptômes de TCA. Finalement, cette étude démontre que l’alexithymie n’a pas de contribution spécifique dans la prédiction des symptômes de TCA. Ainsi, la combinaison d’une faible conscience intéroceptive, de l’insatisfaction corporelle et d’un faible sentiment d’efficacité personnelle en lien avec les conduites alimentaires est fortement associée aux symptômes de TCA dans un échantillon non-clinique de jeunes femmes. Finalement, les implications conceptuelles et cliniques de ces résultats sont discutées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse de doctorat effectuée en cotutelle au Département de philosophie Faculté des arts et des sciences de l’Université de Montréal et au département de philosophie école doctorale V de l’Université de la Sorbonne – Paris IV. Soutenue à Paris le 8 avril 2010.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire est consacré à la question de la réception spectatorielle des films en IMAX 3-D. Dans un premier temps, nous retracerons l’histoire du cinéma stéréoscopique, des origines jusqu’à l’inauguration de l’IMAX 3-D en 1986. Nous verrons que le modèle de l’attraction cinématographique s’est maintenu de tout temps dans l’économie de ce format, ce qui a contribué aux échecs de son institutionnalisation dans les années 50 et 80. En un deuxième temps, nous nous intéresserons à l’« expérience IMAX », afin de cerner la position qui y est attribuée au spectateur. Nous montrerons que les films IMAX misent à la fois sur leur potentiel immersif et sur la mise en évidence du dispositif. L’état d’immersion du spectateur entre donc en dialogue avec la réflexivité du médium. Par l’analyse des films Sea Monsters : A Prehistoric Adventure et Haunted Castle, il sera démontré que cette tension entre immersion et réflexivité sert un discours de glorification de l’IMAX. Aussi, nous interrogeons les liens entre la structure ponctuelle imposée par le modèle attractionnel et le fil narratif immanquablement mis en place dans les films IMAX.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Suite à la rencontre d’un antigène (Ag) présenté à la surface des cellules présentatrice de l’Ag (CPA), les lymphocytes T naïfs, ayant un récepteur des cellules T (RCT) spécifique de l’Ag, vont proliférer et se différencier en LT effecteurs (1). Suite à l’élimination de l’Ag la majorité des LTe vont mourir par apoptose alors que les restants vont se différencier en LT mémoire (LTm) protégeant l’organisme à long terme. Les mécanismes qui permettent la différenciation des LTe en LTm sont encore inconnus. Pour comprendre comment les LTm CD8+ sont générés à partir des LTe, nous avons émis l’hypothèse que la densité de l’Ag présenté par les CPA peut avoir un impact sur la sélection des LT CD8+ répondant l’Ag à se différencier en LTm. De manière intéressante, nos résultats montrent qu’une immunisation avec des cellules dendritiques (DCs) exprimant un haut niveau de complexe CMH/peptide à sa surface permet le développement de LTm. À l’inverse, le développement des LTm est fortement réduit (10-20X) lorsque les souris sont immunisées avec des DCs exprimant un niveau faible de complexes CMH/peptide à leur surface. De plus, la quantité d’Ag n’a aucune influence ni sur l’expansion des LT CD8+ ni sur l’acquisition de leurs fonctions effectrices, mais affecte de manière critique la génération des LTm. Nos résultats suggèrent que le nombre de RCT engagé lors de la reconnaissance de l’Ag est important pour la formation des LTm. Pour cela nous avons obser© par vidéo-microscopie le temps d’interaction entre des LTn et des DCs. Nos résultats montrent que le temps et la qualité de l’interaction sont dépendants de la densité d’Ag présenté par les DCs. Effectivement, nous observons une diminution dans le pourcentage de LT faisant une interaction prolongée avec les DCs quand le niveau d’Ag est faible. De plus, nous observons des variations de l’expression des facteurs de transcription clefs impliqués dans la différenciation des LTm tels qu’Eomes, Bcl-6 et Blimp-1. Par ailleurs, la densité d’Ag fait varier l’expression du Neuron-derived orphan nuclear receptor 1 (Nor-1). Nor-1 est impliqué dans la conversion de Bcl-2 en molécule pro-apoptotique et contribue à la mort par apoptose des LTe pendant la phase de contraction. Notre modèle propose que la densité de l’épitope contrôle la génération des CD8+ LTm. Une meilleure compréhension des mécanismes impliqués dans la génération des LTm permettra le développement de meilleures stratégies pour la génération de vaccin. Dans un second temps, nous avons évalué le rôle du signal RCT dans l’homéostasie des LTm. Pour ce faire, nous avons utilisé un modèle de souris transgénique pour le RCT dont son expression peut être modulée par un traitement à la tétracycline. Ce système nous a permis d’abolir l’expression du RCT à la surface des LTm. De manière intéressante, en absence de RCT exprimé, les LTm CD8+ peuvent survivre à long terme dans l’organisme et rester fonctionnels. De plus, une sous population des LTm CD4+ a la capacité de survivre sans RCT exprimé dans un hôte lymphopénique alors que l’autre sous population nécessite l’expression du RCT.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent mémoire consiste en une analyse thématique des représentations féminines dans l’œuvre de Satoshi Kon, de Perfect Blue à Paprika. L’objectif de ce travail est de démontrer que ces images de la femme reflètent la place des femmes dans la société japonaise contemporaine. À cet effet, nous avons examiné les films du réalisateur selon l’approche des études féministes du cinéma. Nous avons divisé notre analyse en trois thèmes : la violence, la sexualité et le double. Il apparaît que les représentations féminines des longs-métrages de Kon possèdent effectivement des parallèles au sein la société nippone actuelle. Le réalisateur emploie des figures et des motifs narratifs communs au Japon et l’anime afin de produire et reproduire les stéréotypes de genre. Par ailleurs, il utilise les éléments filmiques et les particularités du médium de l’anime pour appuyer ces définitions des rôles sexuels. Cette étude est originale par son angle d’approche féministe et psychanalytique qui est rarement adopté par les théoriciens de l’anime. Les études portant sur ce médium sont d’ailleurs récentes et s’intéressent généralement à l’esthétique de l’anime ou à la formation d’une identité nationale japonaise plutôt qu’à la construction du genre dans un média de culture populaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En janvier 2008, une éclosion de réactions anaphylactoïdes (RA) potentiellement mortelles associées à l’injection intraveineuse d’héparine manufacturées en Chine et contaminée par le chondroïtine sulfate hypersulfaté (CSHS) a forcé le rappel de ces dernières par la U.S. Food and Drug Administration. Ces RA ont rapidement été attribuées à la libération de la bradykinine (BK) suite à l’activation du système de contact par le CSHS. Cependant, aucune évidence expérimentale définitive n’est à ce jour venue appuyer directement cette hypothèse. En se basant sur le nombre de morts déclaré et associé à la contamination (>150 morts au niveau mondial) ainsi qu’aux données épidémiologiques, qui stipulent que 25% des patients ayant développés une RA aux États-Unis étaient essentiellement des insuffisant rénaux en dialyse traités au moyen d’un inhibiteur de l’enzyme de conversion de l’angiotensine (iECA), nous avons émis l’hypothèse suivante : les RA causées par l’injection intraveineuse d’héparine contaminée au CSHS sont de nature multifactorielle et complexe. Le but de notre travail est donc, dans un premier temps, d’évaluer le pouvoir kininoformateur du CSHS en présence d’un iECA et de le comparer à celui du sulfate de dextran, un activateur de référence du système de contact. Comme les RA associées à l’injection intraveineuse d’héparine contaminée par le CSHS se produisent généralement dans les premières minutes des séances de dialyse, nous allons étudier l’effet de la dilution du plasma sur la quantité de BK libérée en présence ou en absence d’un iECA. Nous allons également mesurer les profils cinétiques de la libération de la BK sur un plasma stimulé par différents lots d’héparine contaminée, et associée à des RA, et nous comparerons cette cinétique avec celles d’une héparine de référence complémentée ou non avec différentes concentrations de CSHS synthétique. Enfin, nous allons caractériser le profil de libération de la BK et de son métabolite actif, la des-Arg9-BK, dans le plasma de patients dialysé ayant présenté une RA associée à une membrane de dialyse chargée négativement. L’application de méthodes expérimentales développées dans notre laboratoire nous a permis de montrer, pour la première fois, que l’héparine contaminée au CSHS a la capacité de libérer la BK à des concentrations susceptibles d’expliquer le rôle de ce peptide inflammatoire dans la physiopathologie des RA causées par l’injection intraveineuse d’héparine d’origine chinoise contaminée au CSHS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'une des critiques fondamentales adressées au mécanisme de contrôle et de surveillance de la Cour européenne des droits de l'homme en matière électorale tient au risque qu'il portera atteinte à la souveraineté de l'État. En effet, certains auteurs estiment que l'autonomie constitutionnelle de l'État dans le domaine électoral, jusqu'à tout récemment strictement protégée, s'affaiblit sous l'influence de la protection des droits de l'homme dans le système européen. Le présent mémoire a pour but de déterminer les conditions imposées aux autorités étatiques par la Cour européenne des droits de l'homme en vue d'assurer l'exercice efficace du droit à des élections libres. Ensuite, il analysera les effets de ces conditions sur la souveraineté des États parties à la Convention européenne des droits de l'homme. Notre étude s'intéresse, dans un premier temps, à l'examen du principe de la souveraineté de l'État et de son évolution progressive sous l'influence des droits de l'homme. Dans un deuxième temps, elle présentera le droit à des élections libres et ses manifestations théoriques et jurisprudentielles. L'étude des affaires tranchées par la Cour européenne permettra de remarquer que la déférence qui est accordée à la souveraineté des États s'accompagne d'une certaine limitation de la marge d'appréciation des autorités étatiques en cas de privation de l'exercice efficace du droit à des élections libres. Ensuite, les acquis théoriques et conceptuels seront appliqués à l'étude des restrictions électorales relevant des mesures législatives, administratives et judiciaires des États ainsi que des conditions imposées par la Cour européenne. À cet égard, l'analyse de ces conditions nous permettra de saisir l'étendue de la limitation de la liberté d'action des États en matière électorale. Cette recension analytique nous permettra de conclure que le mécanisme de contrôle de la Cour européenne entraîne de multiples effets limitatifs sur la souveraineté des États.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Drs Dandachli and Arzamendi contributed equally to this work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La schizophrénie est une maladie psychiatrique grave qui affecte approximativement 1 % de la population. Il est clairement établi que la maladie possède une composante génétique très importante, mais jusqu’à présent, les études ont été limitées au niveau de l’identification de facteurs génétiques spécifiquement liés à la maladie. Avec l’a¨nement des nouvelles avancées technologiques dans le domaine du séquençage de l’ADN, il est maintenant possible d’effectuer des études sur un type de variation génétique jusqu’à présent laissé pour compte : les mutations de novo, c.-à-d. les nouvelles mutations non transmises de manière mendélienne par les parents. Ces mutations peuvent avoir deux origines distinctes : une origine germinale au niveau des gamètes chez les parents ou une origine somatique, donc au niveau embryonnaire directement chez l’individu. L’objectif général de la présente recherche est de mieux caractériser les mutations de novo dans la schizophrénie. Comme le rôle de ces variations est peu connu, il sera également nécessaire de les étudier dans un contexte global au niveau de la population humaine. La première partie du projet consiste en une analyse exhaustive des mutations de novo dans la partie codante (exome) de patients atteints de schizophrénie. Nous avons pu constater que non seulement le taux de mutations était plus éle© qu’attendu, mais nous avons également été en mesure de relever un nombre anormalement éle© de mutations non-sens, ce qui suggère un profil pathogénique. Ainsi, nous avons pu fortement suggérer que les mutations de novo sont des actrices importantes dans le mécanisme génétique de la schizophrénie. La deuxième partie du projet porte directement sur les gènes identifiés lors de la première partie. Nous avons séquencé ces gènes dans une plus grande cohorte de cas et de contrôles afin d’établir le profil des variations rares pour ces gènes. Nous avons ainsi conclu que l’ensemble des gènes identifiés par les études de mutations de novo possède un profil pathogénique, ce qui permet d’établir que la plupart de ces gènes ont un rôle réel dans la maladie et ne sont pas des artéfacts expérimentaux. De plus, nous avons pu établir une association directe avec quelques gènes qui montrent un profil aberrant de variations rares. La troisième partie du projet se concentre sur l’effet de l’âge paternel sur le taux de mutations de novo. En effet, pour la schizophrénie, il est démontré que l’âge du père est un facteur de risque important. Ainsi, nous avons tenté de caractériser l’effet de l’âge du père chez des patients en santé. Nous avons obser© une grande corrélation entre l’âge du père et le taux de mutations germinales et nous avons ainsi pu répertorier certaines zones avec un grand nombre de mutations de novo, ce qui suggère l’existence de zone chaude pour les mutations. Nos résultats ont été parmi les premiers impliquant directement les mutations de novo dans le mécanisme génétique de la schizophrénie. Ils permettent de jeter un nouveau regard sur les réseaux biologiques à l’origine de la schizophrénie en mettant sous les projecteurs un type de variations génétiques longtemps laissé pour compte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les Québécois sont de plus en plus conscients de l’environnement qui les entoure et de l’importance d’en assurer la qualité et la pérennité. Certains phénomènes, tels les changements climatiques, l’accumulation de polluants organiques persistants et l’amincissement de la couche d’ozone, que nous qualifierons de phénomènes environnementaux diffus, sont engendrés par de multiples émetteurs de polluants et ont des effets globaux qui ne peuvent être liés à un é©nement précis et dont les impacts sont difficiles à identifier et à quantifier pour le moment. En l’absence de preuve quant aux effets qu’auront ces phénomènes diffus sur les citoyens et les difficultés liées à la preuve scientifique du lien causal entre ce dommage et un émetteur de polluant donné, les recours classiques en responsabilité civile et pour troubles de voisinage, prévus aux articles 1457 et 976 C.c.Q., apparaissent inopérants. Nous nous interrogeons donc sur l’existence d’un droit à l’environnement qui conférerait aux citoyens le droit de vivre dans un environnement sain et leur permettrait ainsi de réclamer que cesse toute atteinte environnementale engendrée par ces phénomènes, même si elle n’a pas d’effet directement sur eux. Considérant l’importance de l’efficacité des recours qui pourraient permettre une mise en Å“uvre de ce droit, nous procéderons à l’analyse de trois sources potentielles d’un droit à l’environnement sous cet angle. À cet effet, nous étudierons les recours constitutionnels et quasi-constitutionnels liés à la Charte canadienne des droits et libertés, à la Charte des droits et libertés de la personne et au recours institutionnel prévu dans la Loi sur la qualité de l’environnement. Considérant l’absence de reconnaissance suffisante d’un droit à l’environnement et de recours efficaces pour en assurer la mise en Å“uvre, nous proposerons ensuite des pistes de solution afin que puisse être développé un mécanisme permettant une réponse judiciaire aux phénomènes environnementaux diffus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le rodéo à Wall Street a pris fin. En effet, le président américain a promulgué la réforme de la régulation financière le 21 juillet 2010. Le H.R. 4173 : Dodd-Frank Wall Street Reform and Consumer Protection Act of 2010 n’est toutefois que le début d’un long processus. La majeure partie de l’édifice législatif repose sur l’intervention d’agences gouvernementales chargées d’édicter des décrets d’exécution dans un délai plus ou moins long. L’adoption de la réforme américaine constitue néanmoins un signal fort à destination des acteurs de la finance pour leur signifier que les règles du jeu ont changé. L’objectif de ce papier d’actualisation s’attache à exposer les dispositions visant les sociétés commerciales et portant sur leur gouvernance et la rémunération de leurs dirigeants. Ces deux thématiques prennent, à l’heure actuelle, une résonance particulière avec la ré©lation d’émoluments aux montants exorbitants consentis dans des sociétés et des établissements financiers mis à mal par des erreurs stratégiques de leur management.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus éle© en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.