977 resultados para Jeu en ligne
Resumo:
"Le journal d'un officier de l'armée d'Égypte a été rédigé d'après les notes laissés par M. Vertray, capitaine au 9e de ligne, retraité en 1808."
Resumo:
Mode of access: Internet.
Resumo:
Ruiz Lasala,
Resumo:
Les interrogatives partielles peuvent être marquées par un mot en QU en position initiale de la phrase. Cette position est analysée dans différents cadres génératifs comme mettant en jeu le mouvement du mot QU depuis une position intraprédicative. Ce mouvement serait démontré par le fait qu’il peut être interrompu par différents opérateurs, dont la négation. Cette interruption distinguerait le mouvement des arguments et des non-arguments: les QU sous-catégorisés pourraient passer par-dessus la négation parce que leur prédicat licencie leur trace. Cela prédit que comment, combien, où, pourquoi et quand ne peuvent pas introduire de questions négatives (?* Comment ne lui a-t-il pas parlé?), ce que pourraient qui, que, quoi (À qui n’a-t-il pas parlé?). C’est cette prédiction que teste ce travail qui considère le mot QU comment avec des propositions interrogatives niées. Il se fonde sur le recensement des attestations dans Frantext pour le 20ème siècle, parmi lesquelles prédominent les questions rhétoriques (Comment ne pas perdre la tête?). L’identification de ces dernières face aux interrogations réelles demande des critères que formule ce travail. La raison pour laquelle les questions rhétoriques rendent possible les séquences considérées est envisagée, et sont considérées une hypothèse syntaxique sur un prédicat sous-jacent et une hypothèse interprétative sur le rôle des présuppositions. L’intervention des présuppositions reflète la définition même de la question rhétorique, et suggère que la putative impossibilité des questions négatives avec un QU adverbial tiendrait à des facteurs d’informativité.
Une étude générique du metteur en scène au théâtre:son émergence et son rôle moderne et contemporain
Resumo:
The theatre director (metteur en scene in French) is a relatively new figure in theatre practice. It was not until the I820s that the term 'mise en scene' gained currency. The term 'director' was not in general use until the I880s. The emergence and the role of the director has been considered from a variety of perspectives, either through the history of theatre (Allevy, Jomaron, Sarrazac, Viala, Biet and Triau); the history of directing (Chinoy and Cole, Boll, Veinstein, Roubine); semiotic approaches to directing (Whitmore, Miller, Pavis); the semiotics of performance (De Marinis); generic approaches to the mise en scene (Thomasseau, Banu); post-dramatic approaches to theatre (Lehmann); approaches to performance process and the specifics of rehearsal methodology (Bradby and Williams, Giannachi and Luckhurst, Picon-Vallin, Styan). What the scholarly literature has not done so far is to map the parameters necessarily involved in the directing process, and to incorporate an analysis of the emergence of the theatre director during the modem period and consider its impact on contemporary performance practice. Directing relates primarily to the making of the performance guided by a director, a single figure charged with the authority to make binding artistic decisions. Each director may have her/his own personal approaches to the process of preparation prior to a show. This is exemplified, for example, by the variety of terms now used to describe the role and function of directing, from producer, to facilitator or outside eye. However, it is essential at the outset to make two observations, each of which contributes to a justification for a generic analysis (as opposed to a genetic approach). Firstly, a director does not work alone, and cooperation with others is involved at all stages of the process. Secondly, beyond individual variation, the role of the director remains twofold. The first is to guide the actors (meneur de jeu, directeur d'acteurs, coach); the second is to make a visual representation in the performance space (set designer, stage designer, costume designer, lighting designer, scenographe). The increasing place of scenography has brought contemporary theatre directors such as Wilson, Castellucci, Fabre to produce performances where the performance space becomes a semiotic dimension that displaces the primacy of the text. The play is not, therefore, the sole artistic vehicle for directing. This definition of directing obviously calls for a definition of what the making of the performance might be. The thesis defines the making of the performance as the activity of bringing a social event, by at least one performer, providing visual and/or textual meaning in a performance space. This definition enables us to evaluate four consistent parameters throughout theatre history: first, the social aspect associated to the performance event; second, the devising process which may be based on visual and/or textual elements; third, the presence of at least one performer in the show; fourth, the performance space (which is not simply related to the theatre stage). Although the thesis focuses primarily on theatre practice, such definition blurs the boundaries between theatre and other collaborative artistic disciplines (cinema, opera, music and dance). These parameters illustrate the possibility to undertake a generic analysis of directing, and resonate with the historical, political and artistic dimensions considered. Such a generic perspective on the role of the director addresses three significant questions: an historical question: how/why has the director emerged?; a sociopolitical question: how/why was the director a catalyst for the politicisation of theatre, and subsequently contributed to the rise of State-funded theatre policy?; and an artistic one: how/why the director has changed theatre practice and theory in the twentieth-century? Directing for the theatre as an artistic activity is a historically situated phenomenon. It would seem only natural from a contemporary perspective to associate the activity of directing to the function of the director. This is relativised, however, by the question of how the performance was produced before the modern period. The thesis demonstrates that the rise of the director is a progressive and historical phenomenon (Dort) rather than a mere invention (Viala, Sarrazac). A chronological analysis of the making of the performance throughout theatre history is the most useful way to open the study. In order to understand the emergence of the director, the research methodology assesses the interconnection of the four parameters above throughout four main periods of theatre history: the beginning of the Renaissance (meneur de jeu), the classical age (actor-manager and stage designer-manager), the modern period (director) and the contemporary period (director-facilitator, performer). This allows us properly to appraise the progressive emergence of the director, as well as to make an analysis of her/his modern and contemporary role. The first chapter argues that the physical separation between the performance space and its audience, which appeared in the early fifteenth-century, has been a crucial feature in the scenographic, aesthetic, political and social organisation of the performance. At the end of the Middle Ages, French farces which raised socio-political issues (see Bakhtin) made a clear division on a single outdoor stage (treteau) between the actors and the spectators, while religious plays (drame fiturgique, mystere) were mostly performed on various outdoor and opened multispaces. As long as the performance was liturgical or religious, and therefore confined within an acceptable framework, it was allowed. At the time, the French ecclesiastical and civil authorities tried, on several occasions, to prohibit staged performances. As a result, practitioners developed non-official indoor spaces, the Theatre de fa Trinite (1398) being the first French indoor theatre recognized by scholars. This self-exclusion from the open public space involved breaking the accepted rules by practitioners (e.g. Les Confreres de fa Passion), in terms of themes but also through individual input into a secular performance rather than the repetition of commonly known religious canvases. These developments heralded the authorised theatres that began to emerge from the mid-sixteenth century, which in some cases were subsidised in their construction. The construction of authorised indoor theatres associated with the development of printing led to a considerable increase in the production of dramatic texts for the stage. Profoundly affecting the reception of the dramatic text by the audience, the distance between the stage and the auditorium accompanied the changing relationship between practitioners and spectators. This distance gave rise to a major development of the role of the actor and of the stage designer. The second chapter looks at the significance of both the actor and set designer in the devising process of the performance from the sixteenth-century to the end of the nineteenth-century. The actor underwent an important shift in function in this period from the delivery of an unwritten text that is learned in the medieval oral tradition to a structured improvisation produced by the commedia dell 'arte. In this new form of theatre, a chef de troupe or an experienced actor shaped the story, but the text existed only through the improvisation of the actors. The preparation of those performances was, moreover, centred on acting technique and the individual skills of the actor. From this point, there is clear evidence that acting began to be the subject of a number of studies in the mid-sixteenth-century, and more significantly in the seventeenth-century, in Italy and France. This is revealed through the implementation of a system of notes written by the playwright to the actors (stage directions) in a range of plays (Gerard de Vivier, Comedie de la Fidelite Nuptiale, 1577). The thesis also focuses on Leoni de' Sommi (Quatro dialoghi, 1556 or 1565) who wrote about actors' techniques and introduced the meneur de jeu in Italy. The actor-manager (meneur de jeu), a professional actor, who scholars have compared to the director (see Strihan), trained the actors. Nothing, however, indicates that the actor-manager was directing the visual representation of the text in the performance space. From the end of the sixteenth-century, the dramatic text began to dominate the process of the performance and led to an expansion of acting techniques, such as the declamation. Stage designers carne from outside the theatre tradition and played a decisive role in the staging of religious celebrations (e.g. Actes des Apotres, 1536). In the sixteenth-century, both the proscenium arch and the borders, incorporated in the architecture of the new indoor theatres (theatre a l'italienne), contributed to create all kinds of illusions on the stage, principally the revival of perspective. This chapter shows ongoing audience demands for more elaborate visual effects on the stage. This led, throughout the classical age, and even more so during the eighteenth-century, to grant the stage design practitioner a major role in the making of the performance (see Ciceri). The second chapter demonstrates that the guidance of the actors and the scenographic conception, which are the artistic components of the role of the director, appear to have developed independently from one another until the nineteenth-century. The third chapter investigates the emergence of the director per se. The causes for this have been considered by a number of scholars, who have mainly identified two: the influence of Naturalism (illustrated by the Meiningen Company, Antoine, and Stanislavski) and the invention of electric lighting. The influence of the Naturalist movement on the emergence of the modem director in the late nineteenth-century is often considered as a radical factor in the history of theatre practice. Naturalism undoubtedly contributed to changes in staging, costume and lighting design, and to a more rigorous commitment to the harmonisation and visualisation of the overall production of the play. Although the art of theatre was dependent on the dramatic text, scholars (Osborne) demonstrate that the Naturalist directors did not strictly follow the playwright's indications written in the play in the late nineteenth-century. On the other hand, the main characteristic of directing in Naturalism at that time depended on a comprehensive understanding of the scenography, which had to respond to the requirements of verisimilitude. Electric lighting contributed to this by allowing for the construction of a visual narrative on stage. However, it was a master technician, rather than an emergent director, who was responsible for key operational decisions over how to use this emerging technology in venues such as the new Bayreuth theatre in 1876. Electric lighting reflects a normal technological evolution and cannot be considered as one of the main causes of the emergence of the director. Two further causes of the emergence of the director, not considered in previous studies, are the invention of cinema and the Symbolist movement (Lugne-Poe, Meyerhold). Cinema had an important technological influence on the practitioners of the Naturalist movement. In order to achieve a photographic truth on the stage (tableau, image), Naturalist directors strove to decorate the stage with the detailed elements that would be expected to be found if the situation were happening in reality. Film production had an influence on the work of actors (Walter). The filmmaker took over a primary role in the making of the film, as the source of the script, the filming process and the editing of the film. This role influenced the conception that theatre directors had of their own work. It is this concept of the director which influenced the development of the theatre director. As for the Symbolist movement, the director's approach was to dematerialise the text of the playwright, trying to expose the spirit, movement, colour and rhythm of the text. Therefore, the Symbolists disengaged themselves from the material aspect of the production, and contributed to give greater artistic autonomy to the role of the director. Although the emergence of the director finds its roots amongst the Naturalist practitioners (through a rigorous attempt to provide a strict visual interpretation of the text on stage), the Symbolist director heralded the modem perspective of the making of performance. The emergence of the director significantly changed theatre practice and theory. For instance, the rehearsal period became a clear work in progress, a platform for both developing practitioners' techniques and staging the show. This chapter explores and contrasts several practitioners' methods based on the two aspects proposed for the definition of the director (guidance of the actors and materialisation of a visual space). The fourth chapter argues that the role of the director became stronger, more prominent, and more hierarchical, through a more political and didactic approach to theatre as exemplified by the cases of France and Germany at the end of the nineteenth-century and through the First World War. This didactic perspective to theatre defines the notion of political theatre. Political theatre is often approached by the literature (Esslin, Willett) through a Marxist interpretation of the great German directors' productions (Reinhardt, Piscator, Brecht). These directors certainly had a great influence on many directors after the Second World War, such as Jean Vilar, Judith Molina, Jean-Louis Barrault, Roger Planchon, Augusto Boal, and others. This chapter demonstrates, moreover, that the director was confirmed through both ontological and educational approaches to the process of making the performance, and consequently became a central and paternal figure in the organisational and structural processes practiced within her/his theatre company. In this way, the stance taken by the director influenced the State authorities in establishing theatrical policy. This is an entirely novel scholarly contribution to the study of the director. The German and French States were not indifferent to the development of political theatre. A network of public theatres was thus developed in the inter-war period, and more significantly after the Second World War. The fifth chapter shows how State theatre policies establish its sources in the development of political theatre, and more specifically in the German theatre trade union movement (Volksbiihne) and the great directors at the end of the nineteenth-century. French political theatre was more influenced by playwrights and actors (Romain Rolland, Louise Michel, Louis Lumet, Emile Berny). French theatre policy was based primarily on theatre directors who decentralised their activities in France during both the inter-war period and the German occupation. After the Second World War, the government established, through directors, a strong network of public theatres. Directors became both the artistic director and the executive director of those institutionalised theatres. The institution was, however, seriously shaken by the social and political upheaval of 1968. It is the link between the State and the institution in which established directors were entangled that was challenged by the young emerging directors who rejected institutionalised responsibility in favour of the autonomy of the artist in the 1960s. This process is elucidated in chapter five. The final chapter defines the contemporary role of the director in contrasting thework of a number of significant young theatre practitioners in the 1960s such as Peter Brook, Ariane Mnouchkine, The Living Theater, Jerzy Grotowski, Augusto Boal, Eugenio Barba, all of whom decided early on to detach their companies from any form of public funding. This chapter also demonstrates how they promoted new forms of performance such as the performance of the self. First, these practitioners explored new performance spaces outside the traditional theatre building. Producing performances in a non-dedicated theatre place (warehouse, street, etc.) was a more frequent practice in the 1960s than before. However, the recent development of cybertheatre questions both the separation of the audience and the practitioners and the place of the director's role since the 1990s. Secondly, the role of the director has been multifaceted since the 1960s. On the one hand, those directors, despite all their different working methods, explored western and non-western acting techniques based on both personal input and collective creation. They challenged theatrical conventions of both the character and the process of making the performance. On the other hand, recent observations and studies distinguish the two main functions of the director, the acting coach and the scenographe, both having found new developments in cinema, television, and in various others events. Thirdly, the contemporary director challenges the performance of the text. In this sense, Antonin Artaud was a visionary. His theatre illustrates the need for the consideration of the totality of the text, as well as that of theatrical production. By contrasting the theories of Artaud, based on a non-dramatic form of theatre, with one of his plays (Le Jet de Sang), this chapter demonstrates how Artaud examined the process of making the performance as a performance. Live art and autobiographical performance, both taken as directing the se(f, reinforce this suggestion. Finally, since the 1990s, autobiographical performance or the performance of the self is a growing practical and theoretical perspective in both performance studies and psychology-related studies. This relates to the premise that each individual is making a representation (through memory, interpretation, etc.) of her/his own life (performativity). This last section explores the links between the place of the director in contemporary theatre and performers in autobiographical practices. The role of the traditional actor is challenged through non-identification of the character in the play, while performers (such as Chris Burden, Ron Athey, Orlan, Franko B, Sterlac) have, likewise, explored their own story/life as a performance. The thesis demonstrates the validity of the four parameters (performer, performance space, devising process, social event) defining a generic approach to the director. A generic perspective on the role of the director would encompass: a historical dimension relative to the reasons for and stages of the 'emergence' of the director; a socio-political analysis concerning the relationship between the director, her/his institutionalisation, and the political realm; and the relationship between performance theory, practice and the contemporary role of the director. Such a generic approach is a new departure in theatre research and might resonate in the study of other collaborative artistic practices.
Resumo:
Ce mémoire porte sur le rôle du geste musical dans le développement de styles musicaux devenus syncrétiques. Il s’attarde à définir dans le détail le style de guitare populaire assiko propre aux Bassa du Cameroun du Sud lequel est représenté internationalement par le guitariste et percussionniste traditionnel Atna Njock. Grâce à une approche dialogique et participative, les techniques du jeu assiko sont explorées et comparées à des exemples de jeu de guitare européenne, afro-américaines et africaines. Les influences qui définissent le jeu d’Atna découlent de la culture Bassa et de son histoire marquée par l’influence coloniale et missionnaire, mais sont aussi alimentées par la «philosophie» (voire la spiritualité) et le passé musical de l’artiste. L’approche participative fournit une perspective émique, c’est-à-dire interne à la culture, de la gestuelle et de la structure du jeu assiko même si nous confrontons les propos du musicien à notre propre regard analytique. La comparaison avec divers instruments de percussion auxquels Atna a été initié montre comment ceux-ci ont forgé son jeu guitaristique. Son rôle de « garant » de la tradition musicale Bassa influence son approche et se manifeste par une préoccupation particulière pour l’« authenticité » dans la reproduction des rythmes d’un « langage » musical donné. Ses liens avec la culture Bassa, s’expriment notamment par le biais de sa reproduction du style de jeu de son maître, Jean Bikoko « Aladin ». La contribution particulière d’Atna à la technique de guitare de Bikoko est comprise comme un ajout à la lignée ancestrale. Une analyse d’un morceau du répertoire assiko issu du plus récent album d’Atna illustre d’ailleurs comment son incorporation de styles « modernes » reproduit les processus traditionnels en intégrant des éléments culturels étrangers.
Resumo:
L’objectif principal de cette thèse était de créer, d’implanter et d’évaluer l’efficacité d’un programme de remédiation cognitive, intervenant de façon comparable sur les aspects fluide (Gf) et cristallisé (Gc) de l’intelligence, au sein d’une population d’intérêt clinique, les adolescents présentant un fonctionnement intellectuel limite (FIL). Compte tenu de la forte prévalence de ce trouble, le programme de remédiation GAME (Gains et Apprentissages Multiples pour Enfant) s’est développé autour de jeux disponibles dans le commerce afin de faciliter l’accès et l’implantation de ce programme dans divers milieux.
Le premier article de cette thèse, réalisé sous forme de revue systématique de la littérature, avait pour objectif de faire le point sur les études publiées utilisant le jeu comme outil de remédiation cognitive dans la population pédiatrique. L’efficacité, ainsi que la qualité du paradigme utilisé ont été évaluées, et des recommandations sur les aspects méthodologiques à respecter lors de ce type d’étude ont été proposées. Cet article a permis une meilleure compréhension des écueils à éviter et des points forts méthodologiques à intégrer lors de la création du programme de remédiation GAME. Certaines mises en garde méthodologiques relevées dans cet article ont permis d’améliorer la qualité du programme de remédiation cognitive développé dans ce projet de thèse.
Compte tenu du peu d’études présentes dans la littérature scientifique concernant la population présentant un FIL (70
Resumo:
Nous étudions dans cet article les tournures du type « Le gênant, c’est qu’Olivier ne sera pas seul », lesquelles sont fréquemment décrites, d’un point de vue formel, comme des structures de type article/adjectif substantivé. Après avoir analysé les propriétés morphosyntaxiques de notre tournure, nous montrons qu’en réalité on ne saurait parler d’adjectif substantivé par un article, dans la mesure où ni l’adjectif ne devient un substantif, ni l’article ne fonctionne comme un véritable article. Ce dernier, en effet, peut être défini comme un « article-démonstratif neutre ». Nous sommes dans cette perspective amené à repenser le schéma de l’article de la psychomécanique du langage, et à proposer du tenseur binaire guillaumien une vision élargie que l’on peut représenter par un schème trimorphe.
Resumo:
La sialylation des N-glycanes du fragment Fc des immunogobulines G (IgG) est une modification peu fréquente des IgG humaines. Pourtant, elle est l’objet de beaucoup d’attention depuis que deux articles fondateurs ont été publiés, qui montrent l’un que la sialylation des IgG diminue leur capacité à déclencher la cytotoxicité cellulaire dépendant de l’anticorps (ADCC), et l’autre que les IgG sialylées en α2,6 seraient la fraction efficace des IgG intraveineuses (IgIV) anti-inflammatoires. Les anticorps monoclonaux thérapeutiques, qui sont le plus souvent des IgG recombinantes produites en culture de cellules de mammifère, connaissent depuis la fin des années 90 un succès et une croissance phénoménaux sur le marché pharmaceutique. La maîtrise de la N-glycosylation du Fc des IgG est une clé de l’efficacité des anticorps monoclonaux. Si les IgG sialylées sont des molécules peu fréquentes in vivo, elles sont très rares en culture cellulaire. Dans cette étude, nous avons développé une méthode de production d’IgG avec une sialylation de type humain en cellules CHO. Nous avons travaillé principalement sur la mise au point d’une stratégie de production d’IgG sialylées par co-expression transitoire d’une IgG1 avec la β1,4-galactosyltransférase I (β4GTI) et la β-galactoside-α2,6-sialyltransférase I (ST6GalI). Nous avons montré que cette méthode permettait d’enrichir l’IgG1 en glycane fucosylé di-galactosylé mono-α2,6-sialylé G2FS(6)1, qui est le glycane sialylé présent sur les IgG humaines. Nous avons ensuite adapté cette méthode à la production d’IgG présentant des profils de glycosylation riches en acides sialiques, riches en galactose terminal, et/ou appauvris en fucosylation. L’analyse des profils de glycosylation obtenus par la co-expression de diverses combinaisons enzymatiques avec l’IgG1 native ou une version mutante de l’IgG1 (F243A), a permis de discuter des influences respectives de la sous-galactosylation des IgG1 en CHO et des contraintes structurales du Fc dans la limitation de la sialylation des IgG en CHO. Nous avons ensuite utilisé les IgG1 produites avec différents profils de glycosylation afin d’évaluer l’impact de la sialylation α2,6 sur l’interaction de l’IgG avec le récepteur FcγRIIIa, principal récepteur impliqué dans la réponse ADCC. Nous avons montré que la sialylation α2,6 augmentait la stabilité du complexe formé par l’IgG avec le FcγRIIIa, mais que ce bénéfice n’était pas directement traduit par une augmentation de l’efficacité ADCC de l’anticorps. Enfin, nous avons débuté le développement d’une plateforme d’expression stable d’IgG sialylées compatible avec une production à l’échelle industrielle. Nous avons obtenu une lignée capable de produire des IgG enrichies en G2FS(6)1 à hauteur de 400 mg/L. Cette étude a contribué à une meilleure compréhension de l’impact de la sialylation sur les fonctions effectrices des IgG, et a permis d’augmenter la maîtrise des techniques de modulation du profil de glycosylation des IgG en culture cellulaire.
Resumo:
Cette thèse se propose de comparer exhaustivement trois systèmes de divination par voie de tirage au sort qui ont été contemporains dans l’antiquité tardive. À l’aide d’une analyse rigoureuse des thèmes évoqués, des stratégies rhétoriques employées, du vocabulaire présent et des probabilités d’obtention des réponses offertes, plusieurs points communs ressortent. Les énoncés positifs et négatifs se veulent, dans tous les cas, équilibrés et ils optent souvent pour des variantes temporelles afin de tempérer les prédictions. Lorsqu’ils ne s’appliquent pas à des questions spécifiques, ils misent sur l’imaginaire des consultations littéraires qui allie proverbes et éléments épiques, sans toutefois déroger des thèmes communs liés aux préoccupations quotidiennes des consultants. La rhapsodomancie s’inscrit dans cette mouvance et prouve à quel point l’épopée est une source propice à l’élaboration de systèmes oraculaires, sans jamais que le contexte narratif et littéraire des vers sélectionnés n’entre en jeu.
Resumo:
Le risque de développer un problème de jeu chez les personnes atteintes de la maladie de Parkinson (MP) est de plus en plus documenté. Un type de médicament visant à contrôler les symptômes moteurs, l’agoniste dopaminergique, serait l’un des principaux facteurs liés à son développement. Par le biais d’une synthèse narrative présentée dans le chapitre 3, les mécanismes neurobiologiques et les autres facteurs en lien sont discutés. Un important constat ressort toutefois : l’étude des habitudes de jeu de ces patients est pratiquement absente. Ce constat est surprenant puisque la littérature sur le jeu regorge d’informations à prendre en considération dans le développement de ce trouble, telles que les types de jeu pratiqués, les montants dépensés, les raisons pour jouer et la présence de proches. Le deuxième article consiste donc à répondre à cette lacune relevée en faisant le portrait de leurs habitudes de jeu. Vingt-cinq personnes souffrant de la MP ont été recrutées et parmi celles-ci, quinze ont joué dans les six derniers mois. L’examen de leurs habitudes de jeu révèle que les jeux préférés sont la loterie et la machine à sous et qu’elles ont, en majorité, débuté la pratique de ces jeux avant l’établissement du diagnostic de la MP. Les patients sont moins intéressés à jouer aux machines à sous comparativement à un échantillon de joueurs âgés de plus de 55 ans mais, en contrepartie, ce jeu est celui auquel les plus grands montants étaient dépensés chez les participants qui ont rapporté avoir développé un problème de jeu. Les participants jouent pour le plaisir ou pour gagner de l’argent, mais des raisons non répertoriées, liées à leur maladie, ont été relevées. Ces patients n’ont pas recours à des proches aidants pour les aider dans la pratique de leur jeu favori et ces derniers ont manifesté leur méconnaissance de la pratique de jeux de hasard et d’argent des participants. Parmi l’ensemble des participants rencontrés, trois d’entre eux se sont révélés être des joueurs à risque. En plus de jouer aux machines à sous, des croyances erronées et des motivations spécifiques à jouer ont été relevées chez ces derniers. La réflexion découlant de ces résultats pourra stimuler la recherche dans l’étude des variables psychosociales en lien avec le développement d’un problème de jeu chez ces patients.
Resumo:
«Halal/ » : une prescription de la religion musulmane qui circonscrit ce qui est permis, mais surtout un marché en croissance exponentielle. Le marché du halal pèse près de 700 milliards de dollars de chiffre d’affaires annuel et intéresse 1,6 milliard de musulmans dans le monde (Bel Hadj, 2015). Entre 2014 et 2015, les dépenses alimentaires du monde musulman ont affiché une progression de 4,3% en atteignant 1158 milliards de dollars soit 16,7% des dépenses alimentaires de la planète . Ces dépenses dépasseront la barre symbolique des 2000 milliards de dollars d’ici 2025. En France, le marché est en constante croissance à deux chiffres (entre 17 à 20 % les cinq dernières années), il est estimé à 5,5 et 7 milliards d’euros par an .Face à l’évidence de l’ampleur et du potentiel du marché du halal dans le monde et en particulier en France, plusieurs tentatives d’élucidation du phénomène sont avancées. En observant de près les pratiques marketing, nous constatons un «déni» total des origines religieuses et une préférence pour la carte du purement ethnique. La recherche, quant à elle, reste fragmentée. Si dans certaines disciplines on préfère encore parler d’un phénomène purement religieux, d’autres tiennent encore à l’étiquette communautaire. Ce flou persiste avec la vision monochrome et surtout cloisonnée entre plusieurs domaines d’études. La recherche dans la discipline du comportement du consommateur, qu’elle s’intéresse à l’essence de la proscription religieuse ou qu’elle se focalise sur la dimension ethnique, n’investigue pas automatiquement toutes les raisons pour lesquelles un individu respecte les règles du halal. La sociologie semble être la discipline qui a su arpenter les chemins les plus sinueux pour tenter d’apporter plus de compréhension à ce phénomène qui ne cesse de prendre de l’envergure et d’attirer les controverses les plus acerbes. C’est aussi la discipline qui a su capturer l’évolution des générations d’immigrants et a su exprimer la complexité de l’expression alimentaire de la deuxième génération mais aussi le défi que relève la communauté maghrébine à cohabiter avec la stigmatisation. Cette deuxième génération d’«immigrants» maghrébins qui n’ont jamais immigré, décide de «manger pour croire » en «se nourrissant de nostalgie » pour une culture qu’ils vivent par procuration à défaut de pouvoir s’intégrer entièrement dans la société française. Il devenait pour nous fondamental de considérer cette pratique alimentaire dans une perspective plus large qui favorise l’élan de l’engagement et de la revendication identitaire affichée. Dans cette voie, et dans la ligne directrice des travaux en sociologie qui ont été notre principale inspiration tout au long de ce travail, notre projet s’inscrit dans une volonté de saisir cette consommation à travers un héritage à la fois culturel, migratoire, familial et une trajectoire propre à chaque individu. Pour arriver à cette fin, nous avons privilégié l’enquête par questionnaire (432 observations) auprès des immigrants de deuxième génération habitant la région parisienne. Pour l’analyse, nous avons opté pour les méthodes des équations structurelles, avec l’ambition de démêler la toile d’araignée à la fois culturelle, sociale et personnelle sans s’enliser dans les a priori, les polémiques et les partis pris. Pour ce faire, nous avons, tout au long de ce travail abordé le halal sous l’angle d’un fait religieux comportant de multiples facettes, à la fois collectives et individuelles, conservatrices et modernistes, désintéressées ou engagées. Nos résultats confirment cette relation de conviction étroite avec la consommation halal. Outre la religion, construit de prédilection des principales recherches en comportement du consommateur, le présent travail doctoral confirme les apports de certaines valeurs (sécurité, stimulation/hédonisme) de l’acculturation mais aussi de la socialisation alimentaire. Cette dernière a cristallisé l’impact de la composante comportementale de l’apprentissage sur la consommation, mais a surtout révélé l’impact de la composante affective sur cet apprentissage. Du côté de l’acculturation, seul l’attachement à la culture hôte a prouvé son influence négative sur la consommation alimentaire halal. Les polémiques récurrentes qui collent au halal nous ont également suggéré la voie de la confiance en la certification, qui a elle aussi confirmé qu’il s’agit désormais d’un phénomène de conscience, de revendication mais aussi d’un engagement responsable du consommateur pour harmoniser ce qu’il incorpore avec ce qu’il est.
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
Les résultats de la cinquième réalisation de l’étude de TIMSS en 2011 montrent la présence d’un faible rendement des élèves iraniens en mathématiques par rapport à la moyenne internationale. Plusieurs facteurs peuvent être à la source de ce faible rendement : programmes d’études, caractéristiques de l’école, qualité des ressources éducatives fournies à l’école ou accessibles aux élèves hors de l’école, etc. (Mullis et coll., 2009; 2012; Coleman et coll., 1966). Ce mémoire est une tentative d’identifier les points faibles probables du contenu géométrique du manuel scolaire de mathématiques de 8e année de l’Iran, en considérant les exigences de TIMSS 2011. Dans cette perspective, cette recherche se focalise sur trois axes d’analyse : la répartition des contenus géométriques dans le manuel des mathématiques, la manière de présenter les concepts et les niveaux de raisonnement exigés par les problèmes du test et par les activités du manuel. L’analyse des résultats obtenus nous a permis de constater plusieurs divergences. Au niveau de la présence des connaissances géométriques, 9 % des connaissances nécessaires à la résolution des questions de TIMSS 2011 sont absentes du manuel. Quant à la présentation des connaissances, 27 % des connaissances sont présentées implicitement dans les manuels. L’utilisation de la grille d’analyse du niveau de raisonnement exigé par les tâches géométriques (Tanguay, 2000), montre que le manuel manque d’exercices mettant en jeu le développement des expériences mentales (35 %). Selon la théorie de Van Hiele (1959), l’insuffisance d’expériences nécessaires pour le développement de la pensée géométrique aux niveaux visuel, descriptif et analytique influencera la construction des concepts et la réussite dans la résolution des problèmes.
Resumo:
Les anodes de carbone sont des éléments consommables servant d’électrode dans la réaction électrochimique d’une cuve Hall-Héroult. Ces dernières sont produites massivement via une chaine de production dont la mise en forme est une des étapes critiques puisqu’elle définit une partie de leur qualité. Le procédé de mise en forme actuel n’est pas pleinement optimisé. Des gradients de densité importants à l’intérieur des anodes diminuent leur performance dans les cuves d’électrolyse. Encore aujourd’hui, les anodes de carbone sont produites avec comme seuls critères de qualité leur densité globale et leurs propriétés mécaniques finales. La manufacture d’anodes est optimisée de façon empirique directement sur la chaine de production. Cependant, la qualité d’une anode se résume en une conductivité électrique uniforme afin de minimiser les concentrations de courant qui ont plusieurs effets néfastes sur leur performance et sur les coûts de production d’aluminium. Cette thèse est basée sur l’hypothèse que la conductivité électrique de l’anode n’est influencée que par sa densité considérant une composition chimique uniforme. L’objectif est de caractériser les paramètres d’un modèle afin de nourrir une loi constitutive qui permettra de modéliser la mise en forme des blocs anodiques. L’utilisation de la modélisation numérique permet d’analyser le comportement de la pâte lors de sa mise en forme. Ainsi, il devient possible de prédire les gradients de densité à l’intérieur des anodes et d’optimiser les paramètres de mise en forme pour en améliorer leur qualité. Le modèle sélectionné est basé sur les propriétés mécaniques et tribologiques réelles de la pâte. La thèse débute avec une étude comportementale qui a pour objectif d’améliorer la compréhension des comportements constitutifs de la pâte observés lors d’essais de pressage préliminaires. Cette étude est basée sur des essais de pressage de pâte de carbone chaude produite dans un moule rigide et sur des essais de pressage d’agrégats secs à l’intérieur du même moule instrumenté d’un piézoélectrique permettant d’enregistrer les émissions acoustiques. Cette analyse a précédé la caractérisation des propriétés de la pâte afin de mieux interpréter son comportement mécanique étant donné la nature complexe de ce matériau carboné dont les propriétés mécaniques sont évolutives en fonction de la masse volumique. Un premier montage expérimental a été spécifiquement développé afin de caractériser le module de Young et le coefficient de Poisson de la pâte. Ce même montage a également servi dans la caractérisation de la viscosité (comportement temporel) de la pâte. Il n’existe aucun essai adapté pour caractériser ces propriétés pour ce type de matériau chauffé à 150°C. Un moule à paroi déformable instrumenté de jauges de déformation a été utilisé pour réaliser les essais. Un second montage a été développé pour caractériser les coefficients de friction statique et cinétique de la pâte aussi chauffée à 150°C. Le modèle a été exploité afin de caractériser les propriétés mécaniques de la pâte par identification inverse et pour simuler la mise en forme d’anodes de laboratoire. Les propriétés mécaniques de la pâte obtenues par la caractérisation expérimentale ont été comparées à celles obtenues par la méthode d’identification inverse. Les cartographies tirées des simulations ont également été comparées aux cartographies des anodes pressées en laboratoire. La tomodensitométrie a été utilisée pour produire ces dernières cartographies de densité. Les résultats des simulations confirment qu’il y a un potentiel majeur à l’utilisation de la modélisation numérique comme outil d’optimisation du procédé de mise en forme de la pâte de carbone. La modélisation numérique permet d’évaluer l’influence de chacun des paramètres de mise en forme sans interrompre la production et/ou d’implanter des changements coûteux dans la ligne de production. Cet outil permet donc d’explorer des avenues telles la modulation des paramètres fréquentiels, la modification de la distribution initiale de la pâte dans le moule, la possibilité de mouler l’anode inversée (upside down), etc. afin d’optimiser le processus de mise en forme et d’augmenter la qualité des anodes.