990 resultados para rhetorical theory
Resumo:
Depuis la deuxième moitié du XXe siècle et le tournant du millénaire, pourquoi se multiplient des figures de la folie et du féminin dans le paysage littéraire haïtien ? En remarquant les grandes tendances qui font coïncider l’expression de la catastrophe, de la défaite du sens et l’apparition de personnages et de figures féminins majeurs dans des œuvres de tous genres, mon interrogation porte sur la folie, la marge et le féminin dans la littérature haïtienne contemporaine en tant qu’expressions concourantes de la dissemblance. Je me penche ainsi, dans des œuvres marquantes, sur le jeu rhétorique des postures de la dissemblance et la manière dont elles pointent depuis le texte vers un au-delà de l’œuvre, soit ce qui en elle indique l’ «espace ménagé» de sa propre faillite ainsi que le travail de la lecture et de la création. Pour cela, il a fallu, à partir des limites (de l’œuvre, de la norme), construire une réflexion capable d’aménager aussi l’espace de sa propre contestation. Dans le premier chapitre, à partir du récit fondateur « Folie », de Marie Chauvet, je pose le problème de la folie en me penchant sur les configurations inaugurales qui me semblent mettre la scène du littéraire contemporain haïtien. J’en profite pour préciser l’approche rhétorique qui me permettra d’aborder les textes littéraires, tout en réfléchissant sur les enjeux théoriques posés par une lecture de la folie comme absence d’œuvre. En m’appuyant sur Chauvet et sur les travaux de Felman, je définis les modalités d’une lecture impliquée. Dans le second chapitre, je brosse un portrait complexe du contemporain haïtien, tel qu’il est médié et rendu à travers les « anthologies » essentielles de Davertige et de Frankétienne. Ces deux œuvres sont l’occasion de poursuivre une interrogation sur les limites en remarquant les formes et les enjeux mobilisés dans le littéraire par les élaborations de la marge, de la mémoire traumatique et de la folie. Une telle approche est aussi l’occasion d’une réflexion de fond sur le contemporain haïtien, abordé d’emblée comme panorama et comme problème façonné et façonnant des sujets d’écriture. Enfin, dans le troisième chapitre, je me penche sur les filiations larvées qui permettent aux configurations précédemment décrites de persister, alors que le féminin, comme dissemblance, négocie sa place du côté de la marge ou de la folie, dans les textes plus récents de Jan Dominique et de Lyonel Trouillot. Les réflexions que je propose sur les destinations, sur l’œuvre impossible ou absente (Foucault) me permettent de distinguer les processus de différenciation spécifiques de la marge et de la folie, mais surtout d’apercevoir, au cœur du texte littéraire, la folie comme l’absence essentielle où se risque et se joue la création. Le dissemblable devient alors cet objet fuyant d’une lecture impliquée dans laquelle, le regard critique s’adossant à une écriture littéraire chargée d’en interrompre systématiquement le flux, constitue en effet ce « moment insolite de la théorie» (Felman), qui, dévoilant son propre jeu rhétorique, maintient la théorie en échec tout en la faisant parler.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
La présente thèse se base sur les principes de la théorisation ancrée (Strauss & Corbin, 1998) afin de répondre au manque de documentation concernant les stratégies adoptées par des « agents intermédiaires » pour promouvoir l’utilisation des connaissances issues de la recherche auprès des intervenants en éducation. Le terme « agent intermédiaire » réfère aux personnes qui sont positionnées à l’interface entre les producteurs et les utilisateurs des connaissances scientifiques et qui encouragent et soutiennent les intervenants scolaires dans l’application des connaissances scientifiques dans leur pratique. L’étude s’inscrit dans le cadre d’un projet du ministère de l’Éducation, du Loisir et du Sport du Québec visant à améliorer la réussite scolaire des élèves du secondaire provenant de milieux défavorisés. Des agents intermédiaires de différents niveaux du système éducatif ayant obtenu le mandat de transférer des connaissances issues de la recherche auprès des intervenants scolaires dans les écoles visées par le projet ont été sollicités pour participer à l’étude. Une stratégie d’échantillonnage de type « boule-de-neige » (Biernacki & Waldorf, 1981; Patton, 1990) a été employée afin d’identifier les personnes reconnues par leurs pairs pour la qualité du soutien offert aux intervenants scolaires quant à l’utilisation de la recherche dans leur pratique. Seize entrevues semi-structurées ont été réalisées. L’analyse des données permet de proposer un modèle d’intervention en transfert de connaissances composé de 32 stratégies d’influence, regroupées en 6 composantes d’intervention, soit : relationnelle, cognitive, politique, facilitatrice, évaluative, de même que de soutien et de suivi continu. Les résultats suggèrent que les stratégies d’ordre relationnelle, cognitive et politique sont interdépendantes et permettent d’établir un climat favorable dans lequel les agents peuvent exercer une plus grande influence sur l’appropriation du processus de l’utilisation des connaissances des intervenants scolaire. Ils montrent en outre que la composante de soutien et de suivi continu est importante pour maintenir les changements quant à l’utilisation de la recherche dans la pratique chez les intervenants scolaires. Les implications théoriques qui découlent du modèle, ainsi que les explications des mécanismes impliqués dans les différentes composantes, sont mises en perspective tant avec la documentation scientifique en transfert de connaissances dans les secteurs de la santé et de l’éducation, qu’avec les travaux provenant de disciplines connexes (notamment la psychologie). Enfin, des pistes d’action pour la pratique sont proposées.
Resumo:
Hieronymus Cock's view of the Capitoline Hill, published in 1562 series on Roman ruins, has long been considered a useful document by historians of art and architecture for the key historical and topographical information it contains on one of Rome's most celebrated sites during the Renaissance. Beyond its documentary nature, which, as will appear, was essentially rhetorical, the view also offers much information as to how a mid sixteenth-century Flemish artist might perceive Rome's illustrious topography and celebrated ancient statuary. In other words, Cock's engraving enables us to put into practice what may be called an "archaeology of the gaze". Through previously unnoticed details, Cock invents a comical - verging on the satirical - vision of the antique sculptures proudly displayed on the famous piazza. Such an ironical reversal of Italian classical dignity is typical of the attitude of some contemporary Flemish artists, such as Pieter Brueghel, who was then close to Cock, and exposes the ambivalent position of some Northern European artists towards the classical tradition and Italian art theory. Finally, the analysis of other engravings of ruins by Hieronymus Cock where two emblematic characters - the draftsman and the 'kakker' (the one who defecates) - appear side by side, sheds light on the origin and possible significance of these comical and subversive details.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
Dans ce travail, nous étendons le nombre de conditions physiques actuellement con- nues du trou d’échange exact avec la dérivation de l’expansion de quatrième ordre du trou d’échange sphérique moyenne exacte. Nous comparons les expansions de deux- ième et de quatrième ordre avec le trou d’échange exact pour des systèmes atomiques et moléculaires. Nous avons constaté que, en général, l’expansion du quatrième ordre reproduit plus fidèlement le trou d’échange exact pour les petites valeurs de la distance interélectronique. Nous démontrons que les ensembles de base de type gaussiennes ont une influence significative sur les termes de cette nouvelle condition, en étudiant com- ment les oscillations causées par ces ensembles de bases affectent son premier terme. Aussi, nous proposons quatre modèles de trous d’échange analytiques auxquels nous imposons toutes les conditions actuellement connues du trou d’échange exact et la nou- velle présentée dans ce travail. Nous évaluons la performance des modèles en calculant des énergies d’échange et ses contributions à des énergies d’atomisation. On constate que les oscillations causeés par les bases de type gaussiennes peuvent compromettre la précision et la solution des modèles.
Resumo:
Full Text / Article complet
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
The aim of this paper is to examine a particular substantive theory among others in the set of “revisionist” theories of moral responsibility, namely, Manuel Vargas’ version of the moral influence account of the justification of responsibility- specific practices. Moderate revisionism, which Vargas (2005) endorses, advocates a clear distinction between descriptive and normative questions, which enables a naturalistically plausible account of responsibility that does not jeopardize the normative aspect. However, while Vargas provides a useful framework for thinking about revisionism, I argue that despite its initial appeal, an actual revisionist theory does not seem to track as closely as we would like what I call the “meta-theory” of revisionism, viz. what Vargas defines as the features of moderate revisionism. Outlining these differences enables the formulation of observations about 1) the role of revisionist approaches for theorizing about moral responsibility and 2) how revisionism can be integrated with scientifically informed approaches.
Resumo:
Cet article est avant tout une présentation générale du standpoint theory mais vise tout particulièrement à souligner la relation épistémologique qui unit cette théorie féministe à la théorie marxiste. Ainsi il y sera démontré que l’expérience de l’oppression, et donc de la souffrance qui l’accompagne, est en mesure de représenter un avantage épistémique que les groupes subissant l’oppression peuvent tourner à leur avantage. Il sera donc question d’un nouveau type d’objectivité délaissant le concept de neutralité en faveur d’une subjectivité pleinement assumée.
Resumo:
In order to explain Wittgenstein’s account of the reality of completed infinity in mathematics, a brief overview of Cantor’s initial injection of the idea into set- theory, its trajectory (including the Diagonal Argument, the Continuum Hypothesis and Cantor’s Theorem) and the philosophic implications he attributed to it will be presented. Subsequently, we will first expound Wittgenstein’s grammatical critique of the use of the term ‘infinity’ in common parlance and its conversion into a notion of an actually existing (completed) infinite ‘set’. Secondly, we will delve into Wittgenstein’s technical critique of the concept of ‘denumerability’ as it is presented in set theory as well as his philosophic refutation of Cantor’s Diagonal Argument and the implications of such a refutation onto the problems of the Continuum Hypothesis and Cantor’s Theorem. Throughout, the discussion will be placed within the historical and philosophical framework of the Grundlagenkrise der Mathematik and Hilbert’s problems.
Resumo:
Objectives: This article further examines the phenomenon of aggression inside barrooms by relying on the “bouncer-ethnographer” methodology. The objective is to investigate variations in aggression through time and space according to the role and routine of the target in a Montreal barroom. Thus, it provides an examination of routine activity theory at the micro level: the barroom. Methods: For a period of 258 nights of observation in a Canadian barroom, bouncers completed reports on each intervention and provided specific information regarding what happened, when and where within the venue. In addition, the bouncer-ethnographer compiled field observations and interviews with bar personnel in order to identify aggression hotspots and “rush hours” for three types of actors within barrooms: (a) bouncers, (b) barmaids and (c) patrons. Findings: Three different patterns emerged for shifting hotspots of aggression depending on the target. As the night progresses, aggressive incidents between patrons, towards barmaids and towards bouncers have specific hotspots and rush hours influenced by the specific routine of the target inside the barroom. Implications: The current findings enrich those of previous work by pointing to the relevance of not only examining the environmental characteristics of the barroom, but also the role of the target of aggression. Crime opportunities follow routine activities, even within a specific location on a micro level. Routine activity theory is thus relevant in this context, because as actors in differing roles follow differing routines, as do their patterns of victimization.
Resumo:
The thesis report results obtained from a detailed analysis of the fluctuations of the rheological parameters viz. shear and normal stresses, simulated by means of the Stokesian Dynamics method, of a macroscopically homogeneous sheared suspension of neutrally buoyant non-Brownian suspension of identical spheres in the Couette gap between two parallel walls in the limit of vanishingly small Reynolds numbers using the tools of non-linear dynamics and chaos theory for a range of particle concentration and Couette gaps. The thesis used the tools of nonlinear dynamics and chaos theory viz. average mutual information, space-time separation plots, visual recurrence analysis, principal component analysis, false nearest-neighbor technique, correlation integrals, computation of Lyapunov exponents for a range of area fraction of particles and for different Couette gaps. The thesis observed that one stress component can be predicted using another stress component at the same area fraction. This implies a type of synchronization of one stress component with another stress component. This finding suggests us to further analysis of the synchronization of stress components with another stress component at the same or different area fraction of particles. The different model equations of stress components for different area fraction of particles hints at the possible existence a general formula for stress fluctuations with area fraction of particle as a parameter
Resumo:
The thesis presents the dynamics of a polymer chain under tension. It includes existing theories of polymer fracture, important theories of reaction rates, the rate using multidimensional transition state theory and apply it to the case of polyethylene etc. The main findings of the study are; the life time of the bond is somewhat sensitive to the potential lead to rather different answers, for a given potential a rough estimate of the rate can be obtained by a simples approximation that considers the dynamics of only the bond that breaks and neglects the coupling to neighboring bonds. Dynamics of neighboring bonds would decrease the rate, but usually not more than by one order of magnitude, for the breaking of polyethylene, quantum effects are important only for temperatures below 150K, the lifetime strongly depends on the strain and as the strain varies over a narrow range, the life varies rapidly from 105 seconds to 10_5 seconds, if we change one unit of the polymer by a foreign atom, say by one sulphure atom, in the main chain itself, by a weaker bond, the rate is found to increase by orders of magnitude etc.